Факторный анализ — это статистический метод, используемый для описания изменчивости среди наблюдаемых, коррелированных переменных в терминах потенциально меньшего числа ненаблюдаемых переменных, называемых факторами . Например, возможно, что вариации в шести наблюдаемых переменных в основном отражают вариации в двух ненаблюдаемых (базовых) переменных. Факторный анализ ищет такие совместные вариации в ответ на ненаблюдаемые скрытые переменные . Наблюдаемые переменные моделируются как линейные комбинации потенциальных факторов плюс термины « ошибка », поэтому факторный анализ можно рассматривать как особый случай моделей с ошибками в переменных . [1]
Проще говоря, факторная нагрузка переменной количественно определяет степень, в которой переменная связана с данным фактором. [2]
Распространенное обоснование методов факторного анализа заключается в том, что полученная информация о взаимозависимостях между наблюдаемыми переменными может быть использована позже для сокращения набора переменных в наборе данных. Факторный анализ обычно используется в психометрии , психологии личности , биологии, маркетинге , управлении продуктами , исследовании операций , финансах и машинном обучении . Он может помочь в работе с наборами данных, где имеется большое количество наблюдаемых переменных, которые, как считается, отражают меньшее количество базовых/скрытых переменных. Это один из наиболее часто используемых методов взаимозависимости, который применяется, когда соответствующий набор переменных показывает систематическую взаимозависимость, и цель состоит в том, чтобы найти скрытые факторы, которые создают общность.
Модель пытается объяснить набор наблюдений в каждом из индивидуумов с набором общих факторов ( ), где факторов на единицу меньше, чем наблюдений на единицу ( ). Каждый индивидуум имеет свои собственные общие факторы, и они связаны с наблюдениями через матрицу факторной нагрузки ( ), для одного наблюдения, согласно
где
В матричной записи
где матрица наблюдений , матрица нагрузок , матрица факторов , матрица ошибок и матрица средних значений , причем й элемент — это просто .
Также мы сделаем следующие предположения :
Предположим . Тогда
и поэтому из условий 1 и 2, наложенных выше, и , давая
или, установив ,
Для любой ортогональной матрицы , если мы положим и , критерии того, что являются факторами и факторными нагрузками, по-прежнему сохраняются. Следовательно, набор факторов и факторных нагрузок является уникальным только с точностью до ортогонального преобразования .
Предположим, что у психолога есть гипотеза о том, что существует два вида интеллекта , «вербальный интеллект» и «математический интеллект», ни один из которых не наблюдается напрямую. [примечание 1] Доказательства гипотезы ищутся в экзаменационных баллах по каждой из 10 различных академических областей 1000 студентов. Если каждый студент выбирается случайным образом из большой популяции , то 10 баллов каждого студента являются случайными величинами. Гипотеза психолога может гласить, что для каждой из 10 академических областей средний балл по группе всех студентов, которые разделяют некоторую общую пару значений для вербального и математического «интеллекта», равен некоторой константе , умноженной на их уровень вербального интеллекта, плюс еще одной константе, умноженной на их уровень математического интеллекта, т. е. это линейная комбинация этих двух «факторов». Числа для конкретного предмета, на которые умножаются два вида интеллекта для получения ожидаемого балла, постулируются гипотезой как одинаковые для всех пар уровней интеллекта и называются «факторной нагрузкой» для этого предмета. [ необходимо уточнение ] Например, гипотеза может предполагать, что прогнозируемая средняя способность ученика в области астрономии составляет
Числа 10 и 6 — это факторные нагрузки, связанные с астрономией. Другие академические предметы могут иметь другие факторные нагрузки.
Два студента, предположительно имеющие одинаковые степени вербального и математического интеллекта, могут иметь разные измеренные способности в астрономии, поскольку индивидуальные способности отличаются от средних способностей (предсказанные выше) и из-за самой ошибки измерения. Такие различия составляют то, что в совокупности называется «ошибкой» — статистический термин, который означает величину, на которую индивидуум, как измерено, отличается от того, что является средним или предсказанным его или ее уровнями интеллекта (см. ошибки и остатки в статистике ).
Наблюдаемые данные, которые пойдут в факторный анализ, будут представлять собой 10 баллов каждого из 1000 студентов, всего 10 000 чисел. Факторные нагрузки и уровни двух видов интеллекта каждого студента должны быть выведены из данных.
Далее матрицы будут обозначены индексированными переменными. Индексы «субъекта» будут обозначены буквами , и , со значениями от до , которые равны в приведенном выше примере. Индексы «фактора» будут обозначены буквами , и , со значениями от до , которые равны в приведенном выше примере. Индексы «экземпляра» или «выборки» будут обозначены буквами , и , со значениями от до . В приведенном выше примере, если выборка студентов участвовала в экзаменах, балл студента th за экзамен th определяется как . Цель факторного анализа — охарактеризовать корреляции между переменными , для которых являются конкретным экземпляром или набором наблюдений. Для того чтобы переменные были на равных условиях, они нормализуются в стандартные баллы :
где выборочное среднее равно:
а дисперсия выборки определяется по формуле:
Модель факторного анализа для данной выборки выглядит следующим образом:
или, более кратко:
где
В матричной записи имеем
Обратите внимание, что удвоение шкалы, по которой измеряется «вербальный интеллект» — первый компонент в каждом столбце, и одновременное уменьшение вдвое факторных нагрузок для вербального интеллекта не приводит к изменению модели. Таким образом, общность не теряется, если предположить, что стандартное отклонение факторов для вербального интеллекта равно . То же самое касается и математического интеллекта. Более того, по аналогичным причинам общность не теряется, если предположить, что два фактора не коррелируют друг с другом. Другими словами:
где — дельта Кронекера ( когда и когда ). Предполагается, что ошибки не зависят от факторов:
Поскольку любое вращение решения также является решением, это затрудняет интерпретацию факторов. См. недостатки ниже. В этом конкретном примере, если мы заранее не знаем, что два типа интеллекта не коррелируют, то мы не можем интерпретировать два фактора как два разных типа интеллекта. Даже если они не коррелируют, мы не можем сказать, какой фактор соответствует вербальному интеллекту, а какой — математическому интеллекту без внешнего аргумента.
Значения нагрузок , средних и дисперсий «ошибок» должны быть оценены с учетом наблюдаемых данных и (предположение об уровнях факторов фиксировано для данного ). «Основная теорема» может быть выведена из приведенных выше условий:
Член слева — это -член корреляционной матрицы ( матрицы, полученной как произведение матрицы стандартизированных наблюдений с ее транспонированием) наблюдаемых данных, и его диагональные элементы будут s. Второй член справа будет диагональной матрицей с членами, меньшими единицы. Первый член справа — это «редуцированная корреляционная матрица», и она будет равна корреляционной матрице, за исключением ее диагональных значений, которые будут меньше единицы. Эти диагональные элементы редуцированной корреляционной матрицы называются «общностями» (которые представляют собой долю дисперсии в наблюдаемой переменной, которая учитывается факторами):
Данные выборки не будут точно подчиняться фундаментальному уравнению, приведенному выше, из-за ошибок выборки, неадекватности модели и т. д. Целью любого анализа вышеуказанной модели является нахождение факторов и нагрузок , которые дают «наилучшее соответствие» данным. В факторном анализе наилучшее соответствие определяется как минимум среднеквадратической ошибки в недиагональных остатках корреляционной матрицы: [3]
Это эквивалентно минимизации недиагональных компонентов ковариации ошибок, которые в уравнениях модели имеют ожидаемые значения, равные нулю. Это следует противопоставить анализу главных компонент, который стремится минимизировать среднеквадратичную ошибку всех остатков. [3] До появления высокоскоростных компьютеров значительные усилия были направлены на поиск приближенных решений проблемы, в частности, на оценку общностей другими способами, что затем значительно упрощало проблему, давая известную сокращенную корреляционную матрицу. Затем это использовалось для оценки факторов и нагрузок. С появлением высокоскоростных компьютеров задачу минимизации можно решать итеративно с достаточной скоростью, и общности вычисляются в процессе, а не требуются заранее. Алгоритм MinRes особенно подходит для этой проблемы, но вряд ли является единственным итеративным средством поиска решения.
Если допускается корреляция факторов решения (например, при вращении «облимина»), то соответствующая математическая модель использует косые координаты , а не ортогональные.
Параметрам и переменным факторного анализа можно дать геометрическую интерпретацию. Данные ( ), факторы ( ) и ошибки ( ) можно рассматривать как векторы в -мерном евклидовом пространстве (пространстве выборки), представленные как , и соответственно. Поскольку данные стандартизированы, векторы данных имеют единичную длину ( ). Векторы факторов определяют -мерное линейное подпространство (т.е. гиперплоскость) в этом пространстве, на которое векторы данных проецируются ортогонально. Это следует из уравнения модели
и независимость факторов и ошибок: . В приведенном выше примере гиперплоскость — это просто 2-мерная плоскость, определяемая двумя векторами факторов. Проекция векторов данных на гиперплоскость задается как
и ошибки являются векторами из этой спроецированной точки в точку данных и перпендикулярны гиперплоскости. Цель факторного анализа — найти гиперплоскость, которая в некотором смысле «лучше всего подходит» к данным, поэтому неважно, как выбираются векторы факторов, которые определяют эту гиперплоскость, пока они независимы и лежат в гиперплоскости. Мы можем указать их как ортогональные и нормальные ( ) без потери общности. После того, как будет найден подходящий набор факторов, их также можно произвольно вращать внутри гиперплоскости, так что любое вращение векторов факторов будет определять ту же гиперплоскость, а также будет решением. В результате в приведенном выше примере, в котором подходящая гиперплоскость является двумерной, если мы заранее не знаем, что два типа интеллекта не коррелируют, то мы не можем интерпретировать два фактора как два разных типа интеллекта. Даже если они не коррелируют, мы не можем сказать, какой фактор соответствует вербальному интеллекту, а какой — математическому интеллекту, или являются ли факторы линейными комбинациями обоих, без внешнего аргумента.
Векторы данных имеют единичную длину. Элементы корреляционной матрицы для данных задаются как . Корреляционную матрицу можно геометрически интерпретировать как косинус угла между двумя векторами данных и . Диагональные элементы будут, очевидно, s, а недиагональные элементы будут иметь абсолютные значения, меньшие или равные единице. «Редуцированная корреляционная матрица» определяется как
Цель факторного анализа — выбрать подгоночную гиперплоскость так, чтобы редуцированная корреляционная матрица воспроизводила корреляционную матрицу как можно ближе, за исключением диагональных элементов корреляционной матрицы, которые, как известно, имеют единичное значение. Другими словами, цель — воспроизвести как можно точнее взаимные корреляции в данных. В частности, для подгоночной гиперплоскости средняя квадратическая ошибка в недиагональных компонентах
минимизировать, и это достигается путем минимизации его относительно набора векторов ортонормальных факторов. Видно, что
Термин справа — это просто ковариация ошибок. В модели ковариация ошибок заявлена как диагональная матрица, и поэтому указанная выше задача минимизации фактически даст «наилучшее соответствие» модели: она даст выборочную оценку ковариации ошибок, которая имеет ее недиагональные компоненты, минимизированные в смысле среднего квадрата. Можно видеть, что поскольку являются ортогональными проекциями векторов данных, их длина будет меньше или равна длине проецируемого вектора данных, которая равна единице. Квадрат этих длин — это просто диагональные элементы приведенной корреляционной матрицы. Эти диагональные элементы приведенной корреляционной матрицы известны как «общности»:
Большие значения общностей будут указывать на то, что подходящая гиперплоскость достаточно точно воспроизводит корреляционную матрицу. Средние значения факторов также должны быть ограничены нулем, из чего следует, что средние значения ошибок также будут равны нулю.
Исследовательский факторный анализ (EFA) используется для выявления сложных взаимосвязей между элементами и групповыми элементами, которые являются частью единых концепций. [4] Исследователь не делает никаких априорных предположений о связях между факторами. [4]
Конфирматорный факторный анализ (CFA) — это более сложный подход, который проверяет гипотезу о том, что элементы связаны с определенными факторами. [4] CFA использует моделирование структурных уравнений для проверки модели измерения, в которой нагрузка на факторы позволяет оценить взаимосвязи между наблюдаемыми переменными и ненаблюдаемыми переменными. [4] Подходы моделирования структурных уравнений могут учитывать погрешность измерения и являются менее ограничительными, чем оценка методом наименьших квадратов . [4] Гипотетические модели проверяются на основе фактических данных, и анализ демонстрирует нагрузки наблюдаемых переменных на скрытые переменные (факторы), а также корреляцию между скрытыми переменными. [4]
Анализ главных компонент (PCA) — широко используемый метод извлечения факторов, который является первой фазой EFA. [4] Веса факторов вычисляются для извлечения максимально возможной дисперсии, при этом последовательная факторизация продолжается до тех пор, пока не останется никакой значимой дисперсии. [4] Затем факторная модель должна быть повернута для анализа. [4]
Канонический факторный анализ, также называемый каноническим факторингом Рао, — это другой метод вычисления той же модели, что и PCA, который использует метод главной оси. Канонический факторный анализ ищет факторы, которые имеют наивысшую каноническую корреляцию с наблюдаемыми переменными. Канонический факторный анализ не подвержен произвольному масштабированию данных.
Общий факторный анализ, также называемый анализом главных факторов (PFA) или факторизацией по главной оси (PAF), ищет наименьшее количество факторов, которые могут объяснить общую дисперсию (корреляцию) набора переменных.
Факторизация изображений основана на матрице корреляции прогнозируемых переменных, а не фактических переменных, где каждая переменная прогнозируется на основе других с использованием множественной регрессии .
Альфа-факторинг основан на максимизации надежности факторов, предполагая, что переменные выбираются случайным образом из вселенной переменных. Все другие методы предполагают, что случаи выбираются выборочно, а переменные фиксированы.
Модель факторной регрессии представляет собой комбинаторную модель факторной модели и регрессионной модели; или, альтернативно, ее можно рассматривать как гибридную факторную модель [5] , факторы которой частично известны.
Баллы каждого случая (строка) по каждому фактору (столбец). Чтобы вычислить факторный балл для данного случая для данного фактора, берут стандартизированный балл случая по каждой переменной, умножают на соответствующие нагрузки переменной для данного фактора и суммируют эти произведения. Вычисление факторных баллов позволяет искать выбросы факторов. Кроме того, факторные баллы могут использоваться в качестве переменных в последующем моделировании.
Исследователи хотят избежать таких субъективных или произвольных критериев сохранения факторов, как «это имело смысл для меня». Для решения этой проблемы был разработан ряд объективных методов, позволяющих пользователям определять соответствующий диапазон решений для исследования. [7] Однако эти различные методы часто не соглашаются друг с другом относительно количества факторов, которые следует сохранить. Например, параллельный анализ может предложить 5 факторов, в то время как MAP Велицера предлагает 6, поэтому исследователь может запросить как 5-, так и 6-факторные решения и обсудить каждое с точки зрения их связи с внешними данными и теорией.
Параллельный анализ Хорна (PA): [8] Метод моделирования на основе Монте-Карло, который сравнивает наблюдаемые собственные значения с полученными из некоррелированных нормальных переменных. Фактор или компонент сохраняется, если соответствующее собственное значение больше 95-го процентиля распределения собственных значений, полученных из случайных данных. PA является одним из наиболее часто рекомендуемых правил для определения количества сохраняемых компонентов, [7] [9], но многие программы не включают эту опцию (заметным исключением является R ). [10] Однако Форман предоставил как теоретические, так и эмпирические доказательства того, что его применение может быть нецелесообразным во многих случаях, поскольку его производительность значительно зависит от размера выборки , дискриминации элементов и типа коэффициента корреляции . [11]
Тест MAP Велицера (1976) [12] , описанный Кортни (2013) [13], «включает в себя полный анализ главных компонентов с последующим изучением ряда матриц частных корреляций» (стр. 397 (хотя эта цитата не встречается в Велицере (1976), а указанный номер страницы находится за пределами страниц цитаты). Квадратичная корреляция для шага «0» (см. рисунок 4) представляет собой среднеквадратичную внедиагональную корреляцию для непарциализированной корреляционной матрицы. На шаге 1 первый главный компонент и связанные с ним элементы исключаются. После этого вычисляется среднеквадратическая внедиагональная корреляция для последующей корреляционной матрицы для шага 1. На шаге 2 первые два главных компонента исключаются, и снова вычисляется результирующая среднеквадратическая внедиагональная корреляция. Вычисления выполняются для k минус один шаг (k представляет собой общее количество переменных в матрице). После этого все средние Квадратичные корреляции для каждого шага выстраиваются в линию, и номер шага в анализе, который привел к наименьшей средней квадратичной частной корреляции, определяет количество компонентов или факторов для сохранения. [12] При этом методе компоненты сохраняются до тех пор, пока дисперсия в матрице корреляции представляет собой систематическую дисперсию, в отличие от остаточной или погрешной дисперсии. Хотя методологически методология близка к анализу главных компонентов, было показано, что метод MAP достаточно хорошо справляется с определением количества факторов для сохранения в многофакторных имитационных исследованиях. [7] [14] [15] [16] Эта процедура доступна через пользовательский интерфейс SPSS, [13] а также через пакет psych для языка программирования R. [ 17] [18]
Критерий Кайзера: Правило Кайзера заключается в отбрасывании всех компонентов с собственными значениями ниже 1,0 – это собственное значение, равное информации, учтенной средним одним элементом. [19] Критерий Кайзера используется по умолчанию в SPSS и большинстве статистических программ, но не рекомендуется при использовании в качестве единственного критерия отсечения для оценки числа факторов, поскольку он имеет тенденцию к чрезмерному извлечению факторов. [20] Была создана вариация этого метода, где исследователь вычисляет доверительные интервалы для каждого собственного значения и оставляет только факторы, у которых весь доверительный интервал больше 1,0. [14] [21]
График осыпи : [22] Тест осыпи Кэттелла отображает компоненты как ось X, а соответствующие собственные значения как ось Y. При движении вправо, к более поздним компонентам, собственные значения падают. Когда падение прекращается и кривая делает изгиб в сторону менее крутого спада, тест осыпи Кэттелла говорит о том, что нужно отбросить все дальнейшие компоненты после того, который начинается с изгиба. Это правило иногда критикуют за то, что оно поддается контролируемому исследователем «подтасовке». То есть, поскольку выбор «локтя» может быть субъективным, поскольку кривая имеет несколько изгибов или является плавной кривой, исследователь может поддаться искушению установить пороговое значение на уровне числа факторов, требуемых его исследовательской программой. [ необходима ссылка ]
Критерии объяснения дисперсии: Некоторые исследователи просто используют правило сохранения достаточного количества факторов для учета 90% (иногда 80%) дисперсии. Если цель исследователя подчеркивает экономность (объяснение дисперсии с помощью как можно меньшего количества факторов), критерий может быть всего 50%.
Помещая априорное распределение по числу скрытых факторов и затем применяя теорему Байеса, байесовские модели могут возвращать распределение вероятностей по числу скрытых факторов. Это было смоделировано с использованием индийского процесса «буфета» [23], но может быть смоделировано более просто, помещая любое дискретное априорное распределение (например, отрицательное биномиальное распределение ) по числу компонентов.
Выход PCA максимизирует дисперсию, учтенную первым фактором, затем вторым фактором и т. д. Недостатком этой процедуры является то, что большинство элементов загружаются на ранние факторы, в то время как очень немногие элементы загружаются на более поздние переменные. Это затрудняет интерпретацию факторов путем чтения списка вопросов и нагрузок, поскольку каждый вопрос сильно коррелирует с первыми несколькими компонентами, в то время как очень немногие вопросы сильно коррелируют с последними несколькими компонентами.
Вращение служит для того, чтобы сделать вывод более простым для интерпретации. Выбирая другую основу для тех же главных компонентов – то есть выбирая другие факторы для выражения той же корреляционной структуры – можно создавать переменные, которые легче интерпретировать.
Вращения могут быть ортогональными или косыми; косые вращения позволяют факторам коррелировать. [24] Эта повышенная гибкость означает, что возможно больше вращений, некоторые из которых могут быть лучше для достижения указанной цели. Однако это также может затруднить интерпретацию факторов, поскольку некоторая информация «учитывается дважды» и включается несколько раз в различные компоненты; некоторые факторы могут даже казаться почти дубликатами друг друга.
Существуют два широких класса ортогональных вращений: те, которые ищут разреженные строки (где каждая строка является случаем, т.е. субъектом), и те, которые ищут разреженные столбцы (где каждый столбец является переменной).
Может быть сложно интерпретировать факторную структуру, когда каждая переменная нагружает несколько факторов. Небольшие изменения в данных иногда могут нарушить баланс в критерии ротации факторов, так что получается совершенно иная ротация факторов. Это может затруднить сравнение результатов разных экспериментов. Эта проблема проиллюстрирована сравнением разных исследований мировых культурных различий. Каждое исследование использовало разные меры культурных переменных и давало по-разному повернутый результат факторного анализа. Авторы каждого исследования считали, что они открыли что-то новое, и придумали новые названия для найденных ими факторов. Более позднее сравнение исследований показало, что результаты были довольно похожими, когда сравнивались не повернутые результаты. Распространенная практика ротации факторов скрыла сходство между результатами разных исследований. [25]
Анализ факторов высшего порядка — это статистический метод, состоящий из повторяющихся шагов факторного анализа — косого вращения — факторного анализа повернутого фактора. Его достоинство заключается в том, что он позволяет исследователю увидеть иерархическую структуру изучаемых явлений. Для интерпретации результатов можно либо умножить матрицу первичного факторного паттерна на матрицы факторных паттернов высшего порядка (Gorsuch, 1983) и, возможно, применить вращение Varimax к результату (Thompson, 1990), либо использовать решение Шмида-Леймана (SLS, Schmid & Leiman, 1957, также известное как преобразование Шмида-Леймана), которое приписывает вариацию первичных факторов факторам второго порядка.
Факторный анализ связан с анализом главных компонент (PCA), но эти два метода не идентичны. [26] В этой области существуют значительные разногласия по поводу различий между этими двумя методами. PCA можно рассматривать как более базовую версию разведочного факторного анализа (EFA), который был разработан в ранние дни до появления высокоскоростных компьютеров. Как PCA, так и факторный анализ направлены на уменьшение размерности набора данных, но подходы, используемые для этого, различаются для двух методов. Факторный анализ явно разработан с целью выявления определенных ненаблюдаемых факторов из наблюдаемых переменных, тогда как PCA напрямую не решает эту задачу; в лучшем случае PCA обеспечивает приближение к требуемым факторам. [27] С точки зрения разведочного анализа собственные значения PCA представляют собой завышенные компонентные нагрузки, т. е. загрязненные дисперсией ошибок. [28] [29] [30] [31] [32] [33]
Хотя EFA и PCA рассматриваются как синонимичные методы в некоторых областях статистики, это подвергалось критике. [34] [35] Факторный анализ «имеет дело с предположением о наличии базовой причинной структуры : [он] предполагает, что ковариация в наблюдаемых переменных обусловлена наличием одной или нескольких скрытых переменных (факторов), которые оказывают причинное влияние на эти наблюдаемые переменные». [36] Напротив, PCA не предполагает и не зависит от такой базовой причинной связи. Исследователи утверждают, что различия между двумя методами могут означать, что существуют объективные преимущества для предпочтения одного другому на основе аналитической цели. Если факторная модель сформулирована неправильно или предположения не выполняются, то факторный анализ даст ошибочные результаты. Факторный анализ успешно использовался там, где адекватное понимание системы позволяет хорошо формулировать начальные модели. PCA использует математическое преобразование исходных данных без каких-либо предположений о форме ковариационной матрицы. Целью PCA является определение линейных комбинаций исходных переменных и выбор нескольких из них, которые можно использовать для суммирования набора данных без потери большого количества информации. [37]
Фабригар и др. (1999) [34] рассматривают ряд причин, по которым можно предположить, что PCA не эквивалентен факторному анализу:
Факторный анализ учитывает случайную ошибку , которая присуща измерению, тогда как PCA этого не делает. Этот момент проиллюстрирован Брауном (2009), [38], который указал, что в отношении корреляционных матриц, задействованных в расчетах:
«В PCA 1,00 ставятся на диагональ, что означает, что необходимо учитывать всю дисперсию в матрице (включая дисперсию, уникальную для каждой переменной, дисперсию, общую для переменных, и дисперсию ошибок). Таким образом, по определению, это будет включать всю дисперсию в переменных. Напротив, в EFA общности ставятся на диагональ, что означает, что необходимо учитывать только дисперсию, общую для других переменных (исключая дисперсию, уникальную для каждой переменной, и дисперсию ошибок). Таким образом, по определению, это будет включать только дисперсию, общую для переменных».
— Браун (2009), Анализ главных компонентов и исследовательский факторный анализ — Определения, различия и выбор
По этой причине Браун (2009) рекомендует использовать факторный анализ, когда существуют теоретические идеи о взаимосвязях между переменными, тогда как PCA следует использовать, если целью исследователя является изучение закономерностей в данных.
Различия между PCA и факторным анализом (FA) дополнительно проиллюстрированы Зуром (2009): [35]
Чарльз Спирмен был первым психологом, обсудившим общий факторный анализ [39] и сделал это в своей статье 1904 года. [40] В ней было предоставлено мало подробностей о его методах и рассматривались однофакторные модели. [41] Он обнаружил, что баллы школьников по широкому кругу, казалось бы, не связанных между собой предметов, положительно коррелировали, что привело его к постулату о том, что в основе когнитивных способностей человека лежит и формирует их одна общая умственная способность, или g .
Первоначальное развитие общего факторного анализа с несколькими факторами было дано Луисом Терстоуном в двух статьях в начале 1930-х годов, [42] [43] обобщенных в его книге 1935 года «Вектор разума» . [44] Терстоун ввел несколько важных концепций факторного анализа, включая общность, уникальность и вращение. [45] Он выступал за «простую структуру» и разработал методы вращения, которые можно было использовать как способ достижения такой структуры. [39]
В методологии Q Уильям Стивенсон , ученик Спирмена, различал анализ фактора R , ориентированный на изучение межиндивидуальных различий, и анализ фактора Q , ориентированный на субъективные внутрииндивидуальные различия. [46] [47]
Рэймонд Кеттелл был ярым сторонником факторного анализа и психометрии и использовал многофакторную теорию Терстоуна для объяснения интеллекта. Кеттелл также разработал тест каменистой осыпи и коэффициенты подобия.
Факторный анализ используется для выявления «факторов», которые объясняют различные результаты в различных тестах. Например, исследование интеллекта показало, что люди, которые получают высокие баллы в тесте на вербальные способности, также хорошо справляются с другими тестами, требующими вербальных способностей. Исследователи объяснили это, используя факторный анализ для выделения одного фактора, часто называемого вербальным интеллектом, который представляет собой степень, в которой человек способен решать задачи, связанные с вербальными навыками. [ необходима цитата ]
Факторный анализ в психологии чаще всего ассоциируется с исследованиями интеллекта. Однако он также использовался для поиска факторов в широком диапазоне областей, таких как личность, установки, убеждения и т. д. Он связан с психометрией , поскольку может оценить валидность инструмента, обнаружив, действительно ли инструмент измеряет постулированные факторы. [ необходима цитата ]
Факторный анализ — часто используемый метод в кросс-культурном исследовании. Он служит для извлечения культурных измерений . Наиболее известные модели культурных измерений разработаны Гертом Хофстедом , Рональдом Инглхартом , Кристианом Вельцелем , Шаломом Шварцем и Майклом Минковым. Популярная визуализация — культурная карта мира Инглхарта и Вельцеля . [25]
В исследовании, проведенном в начале 1965 года, политические системы по всему миру были изучены с помощью факторного анализа для построения соответствующих теоретических моделей и исследований, сравнения политических систем и создания типологических категорий. [50] Для этих целей в данном исследовании были определены семь основных политических измерений, которые связаны с широким спектром политического поведения: эти измерения - Доступ, Дифференциация, Консенсус, Секционализм, Легитимация, Интерес и Теория и исследования лидерства.
Другие политологи изучают измерение внутренней политической эффективности, используя четыре новых вопроса, добавленных в Национальное исследование выборов 1988 года. Здесь факторный анализ используется для того, чтобы обнаружить, что эти пункты измеряют единое понятие, отличное от внешней эффективности и политического доверия, и что эти четыре вопроса обеспечивали наилучшую меру внутренней политической эффективности на тот момент времени. [51]
Основные шаги:
Этап сбора данных обычно выполняется специалистами по маркетинговым исследованиям. Вопросы опроса просят респондента оценить образец продукта или описания концепций продукта по ряду атрибутов. Выбирается от пяти до двадцати атрибутов. Они могут включать такие вещи, как: простота использования, вес, точность, долговечность, красочность, цена или размер. Выбранные атрибуты будут различаться в зависимости от изучаемого продукта. Один и тот же вопрос задается обо всех продуктах в исследовании. Данные по нескольким продуктам кодируются и вводятся в статистическую программу, такую как R , SPSS , SAS , Stata , STATISTICA , JMP и SYSTAT.
Анализ выделит базовые факторы, объясняющие данные, с помощью матрицы ассоциаций. [52] Факторный анализ — это метод взаимозависимости. Рассматривается полный набор взаимозависимых отношений. Спецификация зависимых переменных, независимых переменных или причинности отсутствует. Факторный анализ предполагает, что все данные рейтинга по различным атрибутам могут быть сведены к нескольким важным измерениям. Это сокращение возможно, поскольку некоторые атрибуты могут быть связаны друг с другом. Рейтинг, присвоенный любому атрибуту, частично является результатом влияния других атрибутов. Статистический алгоритм разбивает рейтинг (называемый исходной оценкой) на его различные компоненты и реконструирует частичные оценки в базовые факторные оценки. Степень корреляции между исходной исходной оценкой и окончательной факторной оценкой называется факторной нагрузкой .
Факторный анализ также широко используется в физических науках, таких как геохимия , гидрохимия , [53] астрофизика и космология , а также в биологических науках, таких как экология , молекулярная биология , нейронаука и биохимия .
В управлении качеством грунтовых вод важно связать пространственное распределение различных химических параметров с различными возможными источниками, которые имеют различные химические сигнатуры. Например, сульфидная шахта, вероятно, будет связана с высокими уровнями кислотности, растворенными сульфатами и переходными металлами. Эти сигнатуры могут быть идентифицированы как факторы с помощью факторного анализа R-режима, а местоположение возможных источников может быть предложено путем контурирования баллов факторов. [54]
В геохимии различные факторы могут соответствовать различным минеральным ассоциациям и, следовательно, минерализации. [55]
Факторный анализ может быть использован для обобщения данных микрочипов ДНК олигонуклеотидов высокой плотности на уровне зонда для Affymetrix GeneChips. В этом случае скрытая переменная соответствует концентрации РНК в образце. [56]
Факторный анализ был реализован в нескольких программах статистического анализа с 1980-х годов:
{{cite journal}}
: Цитировать журнал требует |journal=
( помощь )