Факторный анализ

редактировать

Факторный анализ - это статистический метод, используемый для описания изменчивости наблюдаемых, коррелировали переменные с точки зрения меньшего количества ненаблюдаемых чисел, называемые факторами . Например, возможно, что вариации многомерных чисел в основном отражают вариации двух ненаблюдаемых (лежащих в основе) переменных. Факторный анализ ищет такие совместные вариации в ответ на ненаблюдаемые скрытые переменные. Наблюдаемые переменные модели изменяются как линейные комбинации дополнительных факторов плюс термины «ошибка ». Факторный анализ направлен на поиск независимых скрытых чисел.

Теория, лежащая в основе методов факторного анализа, заключается в том, что информацию, полученную о взаимозависимости между наблюдаемыми переменными, можно использовать позже, чтобы сократить набор в наборе данных. Факторный анализ обычно используется в биологии, психометрии, личностных теориях, маркетинге, продуктом, опыте операций и финансы. Это может помочь дело с набором данных, в которых имеется большое количество чисел, которые, как считается, отражают меньшее количество основных / скрытых чисел. Используется один из наиболее используемых методов взаимозависимости, когда используется набор систематических методов взаимозависимости, который используется в том, чтобы выявить скрытые факторы взаимозависимости.

Факторный анализ связан с анализом главных компонентов (PCA), но они не идентичны. В этой области существуют большие разногласия по различию между двумя методами (см. Раздел разведочный факторный анализ по с анализом компонентов ниже). PCA можно рассматривать как более базовую версию исследовательского факторного анализа (EFA), который был разработан в первые дни до появления высокоскоростных компьютеров. И PCA, и факторный анализ использования уменьшения размера набора данных, но подходы, используемые для этого, различны для этих двух методов. Факторный анализ разработан с помощью методов некоторых ненаблюдаемых факторов, тогда PCA напрямую не решает эту задачу; в лучшем случае PCA дает приближение к желаемым факторам. С точки зрения исследовательского анализа, собственные значения PCA - это завышенные нагрузки компонентов, т. Е. Загрязненные дисперсией ошибок.

Содержание
  • 1 Статистическая модель
    • 1.1 Определение
    • 1.2 Пример
    • 1.3 Математическая модель того же примера
    • 1.4 Геометрическая интерпретация
  • 2 Практическая реализация
    • 2.1 Типы факторного анализа
      • 2.1.1 Исследовательский факторный анализ
      • 2.1.2 Подтверждающий факторный анализ
    • 2.2 Типы выделения факторов
    • 2.3 Терминология
    • 2.4 Критерии определения факторов
      • 2.4.1 Современный уровень
      • 2.4.2 Старые методы
      • 2.4.3 Байесовский метод
    • 2.5 Методы ротации
    • 2.6 Факторный анализ высшего порядка
  • 3 В психометрии
    • 3.1 История
    • 3.2 Приложения в психологии
    • 3.3 Преимущества
    • 3.4 Недостатки
  • 4 Исследовательский факторный анализ (EFA) по анализам основных компонентов (PCA)
    • 4.1 Параметры, противопоставляющие PCA и EFA
    • 4.2 Дисперсия против ковариации
    • 4.3 Различия в процедурах и результатах
  • 5 В маркетинге
    • 5.1 Сбор информации
    • 5.2 Анализ
    • 5.3 Хорошущест ва
    • 5.4 Недостатк и
  • 6 В физических и биологических науках
  • 7 В анализроматриц
  • 8 Реализация
  • 9 См. Также
  • 10 Ссылки
  • 11 Дополнительная литература
  • 12 Внешние ссылки
Статистическая модель

Определение

Предположим, у нас есть набор p {\ displaystyle p }p наблюдаемые случайные величины, x 1,…, xp {\ displaystyle x_ {1}, \ dots, x_ {p}}x_ {1}, \ dots, x_ {p} со средними значениями μ 1,…, Μ p {\ displaystyle \ mu _ {1}, \ dots, \ mu _ {p}}\ mu _ {1}, \ dots, \ mu _ {p} .

Предположим, что для некоторых неизвестных констант lij {\ displaystyle l_ {ij}}l_ {ij} и k {\ displaystyle k}k ненаблюдаемые случайные величины F j {\ displaystyle F_ {j}}F_ {j} (называются «общие факторы, "потому что они на всех наблюдаемых случайных величин), где i ∈ 1,…, p {\ displaystyle i \ in {1, \ dots, p}}i \ in {1, \ dots, p} и j ∈ 1,…, k, {\ displaystyle j \ in {1, \ dots, k},}{\ displaystyle j \ in {1, \ dots, k},} где k < p {\displaystyle kk <p , у нас есть, что у каждого члена случайной величины (в отличие от среднего значения этой переменной) должны быть записаны как линейная комбинац и я из общих множителей :

xi - μ i = li 1 F 1 + ⋯ + lik F k + ε i. {\ displaystyle x_ {i} - \ mu _ {i} = l_ {i1} F_ {1} + \ cdots + l_ {ik} F_ {k} + \ varepsilon _ {i}. \,}x_ {i} - \ mu _ { я} = l_ {i1} F_ {1} + \ cdots + l_ {ik} F_ {k} + \ varepsilon _ {i}. \,

Здесь, ε i {\ displaystyle \ varepsilon _ {i}}\ varepsilon _ {i} являются ненаблюдаемыми стохастическими ошибками с нулевым средним и конечной дисперсией, которые могут быть разными для всех i {\ displaystyle i}i .

В терминах матрицы мы имеем

x - μ = LF + ε. {\ Displaystyle х- \ му = LF + \ varepsilon. \,}x- \ mu = LF + \ varepsilon. \,

Если у нас есть n {\ displaystyle n}n наблюдений, то у нас будут размеры xp × n {\ displaystyle x_ {p \ times n}}x_ {p \ times n} , L п × К {\ Displaystyle L_ {p \ times k}}L_ {p \ times k} и F k × n {\ displaystyle F_ {k \ times n}}F_ {k \ times n} . Каждый столбец x {\ displaystyle x}x и F {\ displaystyle F}F обозначает значения для одного конкретного наблюдения, а матрица L {\ displaystyle L }L не меняется в зависимости от наблюдений.

Также мы наложим следующие предположения на F {\ displaystyle F}F :

  1. F {\ displaystyle F}F и ε {\ displaystyle \ varepsilon}\ varepsilon независимы.
  2. E (F) = 0. {\ displaystyle \ mathrm {E} (F) = 0.}\ mathrm {E} (F) = 0. (E is Expectation )
  3. C ov (F) = I {\ displaystyle \ mathrm {Cov} (F) = I}\ mathrm {Cov} (F) = I (Cov - это матрица кросс-ковариаций, чтобы убедиться, что факторы не коррелированы).

Любое решение приведенного выше набора уравнения после ограничений для F {\ displaystyle F}F определяет как факторы, а L {\ displaystyle L}L в качестве матрицы нагрузки .

Предположим, что C ov (x - μ) = Σ {\ displaystyle \ mathrm {Cov} (x- \ mu) = \ Sigma}\ mathrm {Cov } (x- \ mu) = \ Sigma . Тогда

Σ = C ov (x - μ) знак равно C ov (LF + ε), {\ Displaystyle \ Sigma = \ mathrm {Cov} (x- \ mu) = \ mathrm {Cov} (LF + \ varepsilon), \,}{\ displaystyle \ Sigma = \ mathrm {Cov} (x- \ mu) = \ mathrm {Cov} (LF + \ varepsilon), \,}

и, следовательно, из условий, наложенных на F {\ displaystyle F}F выше,

Σ = LC ov (F) LT + C ov (ε), {\ displaystyle \ Sigma = L \ mathrm {Cov} (F) L ^ {T} + \ mathrm {Cov} (\ varepsilon), \,}\ Sigm a = L \ mathrm {Cov} (F) L ^ {T} + \ mathrm {Cov} (\ varepsilon), \,

или, установив Ψ = C ov (ε) {\ Displaystyle \ Psi = \ math rm {Cov} (\ varepsilon)}{\ displaystyle \ Psi = \ mathrm {Cov} (\ varepsilon)} ,

Σ = LLT + Ψ. {\ Displaystyle \ Sigma = LL ^ {T} + \ пси. \,}\ Sigma = LL ^ {T} + \ Psi. \,

Обратите внимание, что для любой ортогональной матрицы Q {\ displaystyle Q}Q, если мы устанавливаем L = LQ {\ displaystyle L = LQ}L = LQ и F = QTF {\ displaystyle F = Q ^ {T} F}F = Q ^ {T} F , число факторов и факторные нагрузки остаются в силе. Следовательно, набор факторов и факторных нагрузок уникален только до ортогонального преобразования.

Пример

Предположим, что у психолога есть гипотеза о двух лучших интеллекта, «вербальный интеллект» и «математический» »» »Доказательства гипотезы ищутся в оценках экзаменов по каждой из 10 различных академических областей 1000 студентов, ни один студент выбирается случайным образом из большого совокупности, Гипотеза психолога может сказать, что для каждой из 10 академических средних балл по группе всех студентов, разделяющих некоторую пару значений вербального и математического «интеллекта», в константе умножается на их уровень вербальный интеллект плюс еще одно постоянное умножение на их уровне математического интеллекта, то линейная естьная комбинация этих двух «факторов». Выполняются предмета, на умножаются два вида интеллекта, чтобы получить ожидаемый результат, постулируются гипотезой как одинаковые для всех уровней пар интеллекта и называются "факторной нагрузкой" по этой теме. Например, гипотеза может утверждать, что прогнозируемые средние способности студента в области астрономии равны

{10 × вербальный интеллект студента} + {6 × математический интеллект студента}.

числа 10 и 6 - факторы нагрузки, связанные с астрономией. Другие учебные предметы могут иметь другие факторы нагрузки.

Два человека с одинаковыми степенями вербального и математического интеллекта могут иметь разные измеряемые способности в астрономии, потому что индивидуальные способности отличаются от средних способностей (предсказанных выше) и из-за самой самой. Такое значение составляет то, что в совокупности называется "ошибкой" - определенным термином, обозначающим статистически значимое, указывает индивидуум при измерении или прогнозируемом уровне статистического интеллекта ошибки (см. и остатки в статистике ).

Наблюдаемые данные, которые входят в факторный анализ, будут учитываться 10 баллов каждого из 1000 студентов, всего 10 000 чисел. Факторные нагрузки и уровни интеллекта каждого студента должны быть выведены из данных.

Математическая модель того же примера

В следующих областях будут обозначаться индексированными переменными. Индексы "Subject" будут обозначены буквами a {\ displaystyle a}a ,b {\ displaystyle b}b и c {\ displaystyle c}c , со значениями от 1 {\ displaystyle 1}1 до N a {\ displaystyle N_ {a}}N_ {a} , что равно 10 {\ displaystyle 10}10 в приведенном выше примере. «Факторные» индексы обозначены буквами p {\ displaystyle p}p , q {\ displaystyle q}q и r {\ displaystyle r}р , со значениями от 1 {\ displaystyle 1}1 до N p {\ displaystyle N_ {p}}N_{p}, что равно 2 {\ displaystyle 2}2 в приведенном выше примере. Индексы "экземпляра" или "образца" будут обозначены буквами i {\ displaystyle i}i ,j {\ displaystyle j}j и k {\ displaystyle k}k , со значениями от 1 {\ displaystyle 1}1 до N i {\ displaystyle N_ {i}}N_ {i} . В приведенном выше примере, если выборка из N i = 1000 {\ displaystyle N_ {i} = 1000}N_ {i} = 1000 учащихся участвовала в N a = 10 {\ displaystyle N_ {a} = 10 }N_ {a } = 10 экзаменов, i {\ displaystyle i}i балл студента за a {\ displaystyle a}a -й экзамен задается xai {\ Displaystyle x_ {ai}}x_{ai}. Цель факторного анализа - охарактеризовать корреляции между переменными xa {\ displaystyle x_ {a}}x_ {a} , из которых xai {\ displaystyle x_ {ai}}x_{ai}являются частным случаем или набором наблюдений. Для того, чтобы переменные были равны, они нормализуются в стандартной оценке z {\ displaystyle z}z :

zai = xai - μ a σ a {\ displaystyle z_ {ai} = {\ frac {x_ {ai} - \ mu _ {a}} {\ sigma _ {a}}}}z_ {ai} = {\ frac {x_ {ai} - \ mu _ {a}} {\ sigma _ {a}}}

где выборочное среднее:

μ a = 1 N i ∑ ixai {\ displaystyle \ mu _ {a} = {\ tfrac {1} {N_ {i}}} \ sum _ {i} x_ {ai}}\ mu _ {a} = {\ tfrac {1} {N_ {i}}} \ sum _ {i} x_ {ai}

, а выборочная дисперсия определяется как:

σ a 2 = 1 N я - 1 ∑ я ( xai - μ a) 2 {\ displaystyle \ sigma _ {a} ^ {2} = {\ tfrac {1} {N_ {i} -1}} \ sum _ {i} (x_ {ai} - \ mu _ {a}) ^ {2}}{\ displaystyle \ sigma _ {a} ^ {2} = {\ tfrac {1} {N_ {i} -1}} \ сумма _ {i} (x_ {ai} - \ mu _ {a}) ^ {2}}

Тогда модель факторного анализа для этой конкретной выборки:

z 1, i = ℓ 1, 1 F 1, i + ℓ 1, 2 F 2, я + ε 1, я ⋮ ⋮ ⋮ ⋮ Z 10, я = ℓ 10, 1 F 1, я + ℓ 10, 2 F 2, я + ε 10, я {\ displaystyle {\ begin {matrix} z_ {1, i} = \ ell _ {1,1} F_ {1, i} + \ ell _ {1,2} F_ {2, i} + \ varepsilon _ {1, i} \\\ vdots \ vdots \ vdots \ vdots \\ z_ {10, i} = \ ell _ {10,1} F_ {1, i} + \ ell _ {10,2} F_ {2, i} + \ varepsilon _ {10, i} \ en d {matrix}}}{\ begin {matrix} z_ {1, i} = \ ell _ {1,1} F_ {1, i} + \ ell _ {1,2} F_ {2, i} + \ varepsilon _ {1, i} \\ \ vdots \ vdots \ vdots \ vdots \\ z_ {10, i} = \ ell _ {10,1} F_ {1, i} + \ ell _ {10,2} F_ {2, i} + \ var epsilon _ {10, i} \ end {matrix}}

или, более кратко:

zai = ∑ p ℓ ap F pi + ε ai {\ displaysty le z_ {ai} = \ sum _ {p} \ ell _ {ap} F_ {pi} + \ varepsilon _ {ai}}z_ {ai} = \ sum _ {p} \ ell _ {ap} F_ {pi} + \ varepsilon _ {ai}

где

  • F 1 i {\ displaystyle F_ {1i}}{\ displaystyle F_ {1i}} - это i {\ displaystyle i}i "вербальный интеллект" студента,
  • F 2 i {\ displaystyle F_ {2i}}{\ displaystyle F_ {2i}} - это i {\ displaystyle i}i "математический интеллект" студента,
  • ℓ ap {\ displaystyle \ ell _ {ap}}\ ell _ {ap} - факторные нагрузки для a {\ displaystyle a}a th subject, для p = 1, 2 {\ displaystyle p = 1,2}{\ displaystyle p = 1,2} .

В нотации матрица мы имеем

Z = LF + ε {\ displaystyle Z = LF + \ varepsilon}{\ displaystyle Z = LF + \ varepsilon}

Обратите внимание на это, для которой «вербальный интеллект» - первый компонент в каждом столбце F {\ displaystyle F}F - измеряется, увеличивается уменьшение вдвое факторных нагрузок для вербального интеллекта не имеет значения для модели. Таким образом, не теряется общность, если предположить, что стандартное отклонение факторов вербального интеллекта составляет 1 {\ displaystyle 1}1 . То же самое и с математическим интеллектом. Более того, по аналогичным причинам не теряется общность, если предположить, что два фактора не коррелируют с другом. Другими словами:

∑ я F pi F qi = δ pq {\ displaystyle \ sum _ {i} F_ {pi} F_ {qi} = \ delta _ {pq}}\ sum _ {i} F_ {pi} F_ {qi} = \ delta _ {pq}

где δ pq { \ displaystyle \ delta _ {pq}}\ delta _ {pq} - это дельта Кронекера (0 {\ displaystyle 0}{\ displaystyle 0} , когда p ≠ q { \ displaystyle p \ neq q}p \ neq q и 1 {\ displaystyle 1}1 , когда p = q {\ displaystyle p = q}p = q ) Предполагается, что ошибки не зависят от факторов:

∑ i F pi ε ai = 0 {\ displaystyle \ sum _ {i} F_ {pi} \ varepsilon _ {ai} = 0}\ sum _ {i} F_ {pi} \ varepsilon _ {ai} = 0

Обратите внимание, что Это затрудняет интерпретацию факторов. См. Недостатки ниже. В этом конкретном примере, если мы не знаем, что два типа интеллекта не коррелируют, мы не можем интерпретировать эти два фактора как два разных типа интеллекта. Даже если они не коррелируют, мы не можем сказать, какой фактор соответствует вербальному интеллекту, а какой соответствует математическому интеллекту без сторонних аргументов.

Значения нагрузок L {\ displaystyle L}L , средних μ {\ displaystyle \ mu}\ mu и отклонения « ошибки »ε {\ displaystyle \ varepsilon}\ varepsilon должны быть оценены с учетом наблюдаемых данных X {\ displaystyle X}X и F {\ displaystyle F}F (предположение об уровнях факторов фиксировано для данного F {\ displaystyle F}F ). «Основная теорема» может быть получена из приведенных выше условий:

∑ izaizbi = ∑ p ℓ ap ℓ bp + ∑ i ε ai ε bi {\ displaystyle \ sum _ {i} z_ {ai} z_ {bi} = \ sum _ {p} \ ell _ {ap} \ ell _ {bp} + \ sum _ {i} \ varepsilon _ {ai} \ varepsilon _ {bi}}\ sum _ {i} z_ {ai} z_ {bi } = \ sum _ {p} \ ell _ {ap} \ ell _ {bp} + \ sum _ {i} \ varepsilon _ {ai} \ varepsilon _ {bi}

Термин слева - (a, b) {\ displaystyle (a, b)}(a, b) - член корреляционной матрицы (an N a × N a {\ displaystyle N_ {a} \ times N_ {a}}{\ displaystyle N_ {a} \ раз N_ {a}} матрица) наблюдаемых данных, а ее диагональные элементы N a {\ displaystyle N_ {a}}N_ {a} будут иметь 1 {\ displaystyle 1}1 с. Второй член будет диагональной матрицей справа с меньшим размером. Первый член справа - это «сокращенная корреляционная матрица» и будет равенство корреляционной матрицы, за исключением ее диагональных значений, которые будут меньше единицы. Эти диагональные элементы сокращенной корреляционной матрицы называются «общностями»:

ha 2 = 1 - ψ a = ∑ p ℓ ap ℓ bp {\ displaystyle h_ {a} ^ {2} = 1- \ psi _ {a} = \ sum _ {p} \ ell _ {ap} \ ell _ {bp}}{\ displaystyle h_ {a} ^ {2} = 1- \ psi _ {a} = \ sum _ {p} \ ell _ {ap} \ ell _ {bp}}

Образцы данных zai {\ displaystyle z_ {ai}}z_ {ai} , конечно, не будет в точности подчиняться приведенному выше фундаментальному уравнению из-за выборки, неадекватности модели и т. д. Целью любой вышеуказанной модели является найти множители F pi {\ displaystyle F_ {pi}}F_ {pi} и нагрузка ℓ ap {\ displaystyle \ ell _ {ap}}\ ell _ {ap} которые в некотором смысле дать "наилучшее соответствие" данным. В факторном анализе наилучшее соответствие определяется как минимум среднеквадратичной ошибки недиагональных остатков корреляционной матрицы:

ε 2 = ∑ a ≠ b [∑ izaizbi - ∑ p ℓ ap ℓ bp] 2 {\ displaystyle \ varepsilon ^ {2} = \ sum _ {a \ neq b} \ left [\ sum _ {i} z_ {ai} z_ {bi} - \ sum _ {p} \ ell _ {ap} \ ell _ {bp} \ right] ^ {2}}{\ displaystyle \ varepsilon ^ {2} = \ sum _ {a \ neq b} \ left [\ sum _ {i} z_ {ai} z_ {bi} - \ sum _ {p} \ ell _ {ap} \ ell _ {bp} \ right] ^ {2}}

Это эквивалентно минимизации недиагональных компонентов ковариации ошибок, которые уравнены модели ожидаемые значения, равные нулю. Это должно контрастировать с анализом главного компонента, который пытается минимизировать среднеквадратичную ошибку всех остатков. До высокоскоростных компьютеров большие направляющие на поиск приближенных решений, особенно при использовании методов упрощения задач, давая сокращенная матрицу корреляции. Затем это было использовано для оценки факторов и нагрузок. С появлением высокоскоростных компьютеров проблема минимизации может быть решена итеративно с достаточной скоростью, а общности вычисляются в процессе, а не требуются заранее. Алгоритм MinRes особенно подходит для решения проблем, но это невозможно сделать этим средством решения этой проблемы.

Если разрешено коррелировать коэффициенты решения (как, например, в «oblimin» вращении), то соответствующая математическая модель использует координаты перекоса, а не ортогональные координаты.

Геометрическая интерпретация

Геометрическая интерпретация параметров факторного анализа 3 респондентов на вопрос «а». «Ответ» представлен единичным вектором za {\ displaystyle \ mathbf {z} _ {a}}\ mathbf {z} _ {a} , который проецируется на плоскость, определяемую двумя ортонормированными векторами F 1 {\ displaystyle \ mathbf { F} _ {1}}\ mathbf {F} _ {1} и F 2 {\ displaystyle \ mathbf {F} _ {2}}\ mathbf {F} _ {2} . Вектор проекции равен z ^ a {\ displaystyle {\ hat {\ mathbf {z}}} _ {a}}{\ hat {\ mathbf { z}}} _ {a} , а ошибка ε a {\ displaystyle {\ boldsymbol {\ \ varepsilon}} _ {a}}{\ boldsymbol {\ varepsilon}} _ {a} перпендикулярно плоскости, так что za = z ^ a + ε a {\ displaystyle \ mathbf {z} _ {a} = {\ hat {\ mathbf {z}}} _ {a} + {\ boldsymbol {\ varepsilon}} _ {a}}\ mathbf {z} _ {a} = {\ шляпа {\ mathbf {z} }} _ {a} + {\ boldsymbol {\ varepsilon}} _ {a} . Вектор проекции z ^ a {\ displaystyle {\ hat {\ mathbf {z}}} _ {a}}{\ hat {\ mathbf { z}}} _ {a} может быть представлен в терминах векторов множителей как z ^ a знак равно ℓ a 1 F 1 + ℓ a 2 F 2 {\ displaystyle {\ hat {\ mathbf {z}}} _ {a} = \ ell _ {a1} \ mathbf {F} _ {1} + \ ell _ {a2 } \ mathbf {F} _ {2}}{\ hat { \ mathbf {z}}} _ {a} = \ ell _ {a1} \ mathbf {F} _ {1} + \ ell _ {a2} \ mathbf {F} _ {2} . Квадрат длины проекции - это общность: | | z ^ a | | 2 = час a 2 {\ displaystyle || {\ hat {\ mathbf {z}}} _ {a} || ^ {2} = h_ {a} ^ {2}}{\ displaystyle || {\ hat {\ mathbf {z}} } _ {a} || ^ {2} = h_ {a} ^ {2}} . Если был нанесен другой вектор данных zb {\ displaystyle \ mathbf {z} _ {b}}\ mathbf {z} _ {b} , косинус угла между za {\ displaystyle \ mathbf {z} _ {a}}\ mathbf {z} _ {a} и zb {\ displaystyle \ mathbf {z} _ {b}}\ mathbf {z} _ {b} будет rab {\ displaystyle r_ {ab}}r_ {ab} : запись (a, b) {\ displaystyle (a, b)}(a, b) в корреляционной матрице. (Адаптировано из Harman Рис. 4.3)

Параметр и переменным фактором можно дать геометрическую интерпретацию. Данные (zai {\ displaystyle z_ {ai}}z_ {ai} ), факторы (F pi {\ displaystyle F_ {pi}}F_ {pi} ) и ошибки (ε ai {\ displaystyle \ varepsilon _ {ai}}\ varepsilon _ {ai} ) можно рассматривать как конструкцию в N i {\ displaystyle N_ {i}}N_ {i} -мерном Евклидово пространство (примерное пространство), представленное как za {\ displaystyle \ mathbf {z} _ {a}}\ mathbf {z} _ {a} , F p {\ displaystyle \ mathbf {F} _ {p}}\ mathbf {F} _ {p} и ε a {\ displaystyle {\ boldsymbol {\ varepsilon}} _ {a}}{\ boldsymbol {\ varepsilon}} _ {a} соответственно. Данные стандартизированы, установлены данные единичной длины (| za | | = 1 {\ displaystyle || \ mathbf {z} _ {a} || = 1}{\ displaystyle || \ mathbf {z} _ {a} || = 1} ). Факторные определения определяют N p {\ displaystyle N_ {p}}N_{p}-мерное линейное подпространство (то есть гиперплоскость) в этом пространстве, на котором границы данных проецируются ортогонально. Это следует из моделей

za = ∑ p ℓ ap F p + ε a {\ displaystyle \ mathbf {z} _ {a} = \ sum _ {p} \ ell _ {ap} \ mathbf {F} _ { p} + {\ boldsymbol {\ varepsilon}} _ {a}}\ mathbf {z} _ {a} = \ sum _ {p} \ ell _ {ap} \ mathbf {F} _ {p } + {\ boldsymbol {\ varepsilon}} _ {a}

и независимость факторов и ошибок: F p ⋅ ε a = 0 {\ displaystyle \ mathbf {F} _ {p} \ cdot { \ boldsymbol {\ varepsilon}} _ {a} = 0}\ mathbf {F} _ {p} \ cdot {\ boldsymbol {\ varepsilon}} _ {a} = 0 . В приведенном выше примере гиперплоскость - это просто 2-мерная плоскость, определяемая двумя факторами-факторами. Проекция векторов данных на гиперплоскость определяется выражением

z ^ a = ∑ p ℓ ap F p {\ displaystyle {\ hat {\ mathbf {z}}} _ {a} = \ sum _ {p} \ ell _ {ap } \ mathbf {F} _ {p}}{\ hat {\ mathbf {z}}} _ {a} = \ sum _ {p} \ ell _ {ap} \ mathbf {F} _ {p}

, а ошибки - это от границы этой проецируемой точки до точек данных и перпендикулярны гиперплоскости. Цель факторного анализа - найти гиперплоскость, которая в некотором смысле «лучше всего» подходит к данным, поэтому не имеет значения, как выбираются факторы анализа, которые определяют эту гиплоерпскость, если они независимы и лежат в гиперплоскости. Мы можем указать их как ортогональные, так и нормальные (F p ⋅ F q = δ pq {\ displaystyle \ mathbf {F} _ {p} \ cdot \ mathbf {F} _ {q} = \ delta _ { pq}}\ mathbf {F} _ {p} \ cdot \ mathbf {F} _ {q} = \ delta _ {pq} ) без общности. После того, как подходящий набор факторов найден, также могут быть произвольно повернуты вектор в пределах гиперплоскости, так что любое вращение факторов будет определять ту же самую гиплоерпскость, а также быть решением. В результате в приведенном выше примере используется соответствующий гиперплоскость, является двумерной, если мы не знаем, что два типа интеллекта не коррелированы, мы можем интерпретировать два фактора как два типа интеллекта. Даже если они не коррелированы, мы можем сказать, какой фактор соответствует вербальному интеллекту, а какой соответствует математическому интеллекту, или являются факторами линейными комбинациями обоих без сторонних аргументов.

Векторы данных z a {\ displaystyle \ mathbf {z} _ {a}}\ mathbf {z} _ {a} имеют единичную длину. Элементы корреляционной матрицы для данных задаются следующим образом: rab = za ⋅ zb {\ displaystyle r_ {ab} = \ mathbf {z} _ {a} \ cdot \ mathbf {z} _ {b}}r_ {ab} = \ mathbf {z} _ {a} \ cdot \ mathbf {z} _ {b} . Матрицу корреляции можно геометрически интерпретировать как косинус угла между двумя векторами данных za {\ displaystyle \ mathbf {z} _ {a}}\ mathbf {z} _ {a} и zb {\ displaystyle \ mathbf {z} _ { b}}\ mathbf {z} _ {b} . Очевидно, что диагональные элементы имеют размер 1 {\ displaystyle 1}1 , а элементы вне диагонали будут иметь абсолютные значения, меньшие или равные единице. «Матрица уменьшенной корреляции» означает как

r ^ ab = z ^ a ⋅ z ^ b {\ displaystyle {\ hat {r}} _ {ab} = {\ hat {\ mathbf {z}}} _ {a } \ cdot {\ hat {\ mathbf {z}}} _ {b}}{\ hat {r}} _ {ab} = {\ hat {\ mathbf {z} }} _ {a} \ cdot {\ hat {\ mathbf {z}}} _ {b} .

Цель факторного анализа состоит в том, чтобы выбрать аппроксимирующую гиперплоскость так, чтобы сокращенная матрица диагональных элементов воспроизводила матрицу корреляции как можно ближе, за отдельными отдельными элементов корреляционной матрицы, как известно, имеют единичную стоимость. Другими словами, цель состоит в том, чтобы как можно точнее воспроизвести взаимные корреляции в данных. В частности, для аппроксимирующей гиперплоскости среднеквадратичная ошибка недиагональных компонентов

ε 2 = ∑ a ≠ b (rab - r ^ ab) 2 {\ displaystyle \ varepsilon ^ {2} = \ sum _ {a \ neq b} \ left ( r_ {ab} - {\ hat {r}} _ {ab} \ right) ^ {2}}{\ displaystyle \ varepsilon ^ {2} = \ sum _ {a \ neq b} \ left (r_ {ab} - {\ hat {r}} _ {ab} \ right) ^ {2}}

должен быть минимизирован, и это достигается путем минимизации его относительно набора ортонормированных факторов-векторов. Видно, что

rab - r ^ ab = ε a ⋅ ε b {\ displaystyle r_ {ab} - {\ hat {r}} _ {ab} = {\ boldsymbol {\ varepsilon}} _ {a} \ cdot {\ boldsymbol {\ varepsilon}} _ {b}}r_ {ab} - {\ hat {r}} _ {ab} = {\ boldsymbol {\ varepsilon}} _ {a} \ cdot {\ boldsymbol {\ varepsilon}} _ {b}

Член справа - это просто ковариация ошибок. В модели ковариация ошибок указывается как диагональная матрица, и поэтому вышеупомянутая задача дает "соответствие соответствие" модели: она дает выборочную оценку ковариации, которая дает ошибки недиагональные компоненты. минимизированы в среднеквадратическом смысле. Видно, что поскольку z ^ a {\ displaystyle {\ hat {z}} _ {a}}{\ hat {z}} _ {a} являются ортогональными проекциями векторов данных, их длина будет меньше или равна длине проецируемого вектора данных, равна единице. Квадрат этих длин - это просто диагональные элементы сокращенной корреляционной матрицы. Эти диагональные сокращенной корреляционной матрицы известны как «общности»:

h a 2 = | | z ^ a | | 2 = ∑ п ℓ ap 2 {\ displaystyle {h_ {a}} ^ {2} = || {\ hat {\ mathbf {z}}} _ {a} || ^ {2} = \ sum _ {p} {\ ell _ {ap}} ^ {2}}{\ displaystyle {h_ {a}} ^ {2} = || {\ hat {\ mathbf {z}}} _ {a} || ^ {2} = \ sum _ {p} {\ ell _ {ap}} ^ {2}}

Большие значения указывают на то, что аппроксимирующая общность гиперплоскость довольно точно воспроизводит корреляционную матрицу. Средние значения факторов также должны быть ограничены равными нулю, из чего следует, что средние значения ошибок также будут равны нулю.

Практическая реализация

Типы факторного анализа

Исследовательский факторный анализ

Исследовательский факторный анализ (EFA) используется для сложных факторов между элементами и элементами группы, которые являются частью единых концепций. Исследователь не делает никаких априорных предположений о взаимосвязях между факторами.

Подтверждающий факторный анализ

Подтверждающий факторный анализ (CFA) - более сложный подход, который проверяет гипотезу о том, что элементы связаны с конкретными факторами. CFA использует моделирование структурным уравнением для тестирования измерений, при нагрузке на факторы позволяет оценить взаимосвязь между наблюдаемыми и ненаблюдаемыми переменными. Подходы к моделированию структурным уравнением могут быть погрешность измерения и менее ограничительным, чем оценка методом наименьших квадратов. Гипотетические модели проверяются на фактических данных, и анализируют характеристики наблюдаемых переменных (факторов), а также корреляцию между скрытыми переменными.

Типы выделения факторов

Главный компонент Анализ (PCA) - широко используемый метод экстракции факторов, который является первым этапом EFA. Веса факторов вычисляется для извлечения максимально возможной дисперсии, при этом последующее разложение на множители продолжается до тех пор, пока не останется значимой дисперсии. Затем факторную модель необходимо повернуть для анализа.

Канонический факторный анализ, также называемый каноническим факторингом Рао, - это другой метод вычисления той же модели, что и PCA, который использует метод главной оси. Канонический факторный анализ ищет факторы, которые имеют самую высокую корреляцию с наблюдаемыми переменными. На канонический факторный анализ не влияет произвольное масштабирование данных.

Анализ общих факторов, также называемый анализом основных факторов (PFA) или факторингом по главной оси (PAF), ищет наименьшее количество факторов, которые могут вызвать общую дисперсию (корреляцию) набора чисел.

Факторинг изображения основан на матрице корреляции прогнозируемые числа, а не на фактических числах, где каждая переменная прогнозируется на основе другого использования множественной регрессии.

Альфа-факторинг основан на максимизировании надежности факторов, предполагаемая, что переменные выбираются случайным образом из множества чисел. Все другие методы предполагают выбор времени и фиксированные переменные.

Факторная регрессионная модель - это комбинаторная модель факторной модели и регрессионной модели; или, альтернативно, ее можно рассматривать как гибридную факторную модель, факторы, которые частично известны.

Терминология

Факторные нагрузки: Общность - это стандартизированная внешняя нагрузка элемента. По аналогии с r -квадратом Пирсона, возведенная в квадратную нагрузку представляет собой процент отклонения в этой индикаторной переменной, объясняемой этим фактором. Чтобы получить процент дисперсии всех чисел, учитываемых факторов, сложите сумму возведенных в квадрат факторных нагрузок для этого фактора (столбец) и разделите на количество факторов. (Обратите внимание, что количество величин равно сумме их дисперсия, как дисперсия стандартизованной переменной 1.) Это то же самое, что и деление собственного значения фактора на количество величин.

Интерпретация факторных нагрузок: согласно одному практическому правилу в подтверждающих параметрах нагрузки должно быть 0,7 или выше, чтобы подтвердить соответствующие независимые переменные, уровни априори, конкретным фактором, основанным на том, что уровень 0, 7 соответствует примерно дисперсии показателя объясняемой данным фактором. Таким образом, исследователи, используемые в некоторых центральных исследовательских целях, используют более низкий уровень, такие как 0,4 для некоторых факторов и 0,25 для других факторов. В любом случае факторные нагрузки следует интерпретировать в теории теории, а не с помощью произвольных уровней отсечения.

При наклонном повороте можно исследовать как матрицу шаблона, так и матрицу структуры. Матрица структуры - это просто матрица факторной нагрузки, как при ортогональном вращении, представляющая дисперсию измеряемой переменной, объясняющую фактор как на основе уникальных, так и общих вкладов. Матрица шаблонов, напротив, содержит коэффициенты, которые представляют просто уникальные вклады. Чем больше факторов, тем ниже коэффициенты структуры, как правило, поскольку будет объяснено больше общих вкладов в дисперсию. Для наклонного вращения исследователь смотрит как на коэффициенты структуры, так и на коэффициенты структуры, приписывая метку фактору. Принципы наклонного вращения могут быть выведены как из перекрестной энтропии, так и из ее двойной энтропии.

Общая информация: сумма возведенных в квадратный факторных нагрузок для всех факторов для данной переменной (строки) представляет собой дисперсию этой переменной, учитывающую все факторы. Общность измеряет процент вариации данной модели, объясняемой всеми факторами вместе.

Ложные решения: если общность превышает 1.0, существует ложное решение, которое может отражать слишком маленькую выборку или выбор извлекать слишком много или слишком мало факторов.

Уникальная изменчивость альтернативы минус ее общность.

Собственные значения / характеристики корни: Собственные значения измеряют степень вариации в общей выборке, учитываем каждый фактор. Отношение собственных значений - это отношение к факторам по отношению к переменным. Фактор может быть проигнорирован как менее важный, чем факторы с более высокими собственными значениями.

Извлечение сумм квадратов нагрузок: Начальные собственные значения и собственные значения после извлечения (перечисленные SPSS как «Извлечение сумм квадратов загрузок») такие же для извлечения PCA, но для других методов извлечения собственные значения после извлечения будут ниже чем их первоначальные аналоги. SPSS также печатает «Суммы вращения квадратов нагрузок», и даже для PCA эти собственные значения будут отличаться от исходных и извлеченных собственных значений, хотя их сумма будет такой же.

Факторные оценки (также называемые компонентными оценками в PCA): это оценки каждого случая (строки) по каждому фактору (столбцу). Чтобы вычислить факторную оценку для данного случая для данного фактора, нужно взять стандартизированную оценку случая по каждой переменной, умножить на соответствующие нагрузки переменной для данного фактора и суммировать эти продукты. Вычисление оценок факторов позволяет искать выбросы факторов. Кроме того, факторные оценки могут использоваться в качестве переменных при последующем моделировании. (Объясняется с помощью PCA, а не с точки зрения факторного анализа).

Критерии для определения количества факторов

Исследователи хотят избежать таких субъективных или произвольных критериев удержания факторов, как «это имело смысл для меня». Для решения этой проблемы был разработан ряд объективных методов, позволяющих пользователям определить подходящий набор решений для исследования. Методы могут не совпадать. Например, параллельный анализ может предложить 5 факторов, в то время как MAP Велисера предлагает 6, поэтому исследователь может запросить 5- и 6-факторные решения и обсудить каждое с точки зрения их связи с внешними данными и теорией.

Современные критерии

Параллельный анализ Хорна (PA): метод моделирования на основе Монте-Карло, который сравнивает наблюдаемые собственные значения с значениями, полученными из некоррелированных нормальных переменных. Фактор или компонент сохраняется, если связанное собственное значение больше 95-го процентиля распределения собственных значений, полученных из случайных данных. PA является одним из наиболее часто рекомендуемых правил для определения количества компонентов, которые необходимо сохранить, но многие программы не включают эту опцию (заметным исключением является R ). Тем не менее, Formann предоставил как теоретические, так и эмпирические доказательства того, что его применение во многих случаях может быть неприемлемым, поскольку на его эффективность значительно влияют размер выборки, различение предметов, и тип коэффициента корреляции.

MAP-тест Велисера (1976), как описано Кортни (2013), «включает полный анализ основных компонентов с последующим исследованием серии матриц частичных корреляций» (стр. 397 (хотя обратите внимание, что эта цитата не встречается в Velicer (1976), и номер цитируемой страницы находится за пределами страниц цитаты). Квадрат корреляции для Шага «0» (см. Рисунок 4) - это средний квадрат недиагональной корреляции для непартифицированных корреляционная матрица. На шаге 1 первый главный компонент и связанные с ним элементы разделяются. После этого средний квадрат недиагональной корреляции для последующей корреляционной матрицы затем вычисляется для шага 1. На шаге 2 первые два главных компонента s разделяются, и снова вычисляется результирующая недиагональная корреляция среднего квадрата. Вычисление Действия выполняются для k минус один шаг (k представляет собой общее количество в матрице). После этого выстраиваются все средние квадраты корреляций для каждого шага, и номер шага в анализе, который приводит к самому низкому среднему квадрату частичной корреляции, определяет количество компонентов или факторов, которые необходимо сохранить. С помощью этих средств системы сохраняются до тех пор, пока дисперсия в корреляционной матрице систематической дисперсии, отличие от дисперсии остатка или ошибки. Хотя методологически метод MAP схож с анализом главных компонентов, он показал себя достаточно хорошо при параметрах, которые необходимо сохранить в нескольких исследованиях моделирования. Эта процедура доступна через пользовательский интерфейс SPSS, а также через пакет mental для языка программирования R.

Старые методы

Критерий Кайзера: правило Кайзера заключается в отбрасывании всех компонентов с собственными значениями ниже 1.0 - это собственное значение, равное информации, приходящейся на средний отдельный элемент. Критерий Кайзера является значением по умолчанию в SPSS и большинством статистических программ, но не рекомендуется при использовании в качестве единственного критерия положения фактора фактора, поскольку он имеет тенденцию к избыточному извлечению факторов. Был создан вариант этого метода, в котором исследователь вычисляет доверительные интервалы для каждого собственного значения и используются только те факторы, у которых доверительный интервал больше 1.0.

График осыпи : тест осыпи Кеттелла отображает компоненты оси X и соответствующие значения как по оси Y. При вправо к более поздним компонентам собственные значения уменьшаются. Когда прекращается прекращается и кривая изгибается в сторону менее того спуска, тест на осыпи Кеттелла требует опускать все остальные компоненты после того, который начинается в локте. Это правило иногда критикуют за то, что оно поддается контролируемому исследователем "обману ". То есть, поскольку выбор «изгиба» может быть субъективным, поскольку кривая имеет несколько изгибов или является гладкой кривой, исследователь может испытать соблазн установить пороговое значение для числа факторов, требуемых его программой исследования.

Критерии объяснения дисперсии: некоторые исследователи просто используют изменение количества факторов, чтобы учесть 90% (иногда 80%). Если цель исследователя подчеркивает экономию (объяснение дисперсии с помощью минимального количества факторов), критерий может составлять всего 50%.

Байесовский метод

Байесовский подход, основанный на индийском буфете, возвращает распределение вероятностей по вероятному количеству скрытых факторов.

Методы вращения

Выход без вращения максимизирует дисперсию, учитываемую первым и последующими факторами, и заставляет факторы быть ортогональными. «Большая часть элементов, используемых, как правило, загружается на ранние факторы». Вращение для того, чтобы сделать вывод более понятным, за счет поиска так называемой «простые структуры»: схемы нагрузки, при которой каждый элемент сильно нагружается по одному из факторов и намного слабее по другим факторам. Вращения могут быть ортогональными или наклонными (позволяющими соотносить факторы).

Вращение Varimax - это ортогональное вращение факторных факторов для максимизации дисперсии квадратов нагрузок фактора (столбца) по всем переменным (строкам) в факторной матрице, что позволяет дифференцировать исходный переменные по извлеченным факторам. Каждый фактор будет иметь либо большую, либо малую нагрузку какой-либо конкретный вариант. Решение Varimax дает результаты, которые максимально упрощают оценку каждой модели с помощью одного фактора. Это наиболее распространенный вариант вращения. Однако ортогональность (то есть независимость) факторов является нереалистичным предположением. Наклонные вращения включают ортогональное вращение, и по этой причине они вращаются предпочтительным методом. Учет факторов, которые коррелируют друг с другом, применимы в психометрических исследованиях, поскольку отношения и интеллектуальные способности, как правило, коррелируют, поскольку во многих ситуациях было нереалистично предположить мнение.

Ротация Quartimax является ортогональной альтернативной, которая сводит к минимуму количества факторов, необходимых для объяснения каждой переменной. "Этот тип нагрузки". Такая факторная структура обычно не помогает целям исследования.

Ротация Equimax - это компромисс между критериями варимакса и квартимакса.

Прямое вращение облимина является стандартным методом, когда требуется неортогональное (наклонное) решение, то есть такое, в котором коэффициенты могут быть коррелированы. Это приводит к более высоким собственным значениям, но уменьшит интерпретируемость факторов. См. Ниже.

Вращение Promax - это альтернативный метод неортогонального (наклонного) вращения, который в вычислительном быстрее, чем метод прямого наклона, и поэтому иногда используется для очень больших наборов данных.

Факторный анализ более высокого порядка

Факторный анализ высшего порядка - это статистический метод, состоящий из повторяющихся шагов факторного анализа - факторный анализ повернутых факторов. Его заслуга в том, чтобы дать возможность исследователю увидеть модель изучаемых явлений. Чтобы интерпретировать результаты, следует либо перемножить первичное число матриц шаблонов множителей более высокого порядка (Gorsuch, 1983), либо, возможно, применить вращение Varimax к результату (Thompson, 1990) или с С помощью решения Шмида-Леймана (SLS, Schmid Leiman, 1957, также известное как преобразование Шмида-Леймана), которое приписывает вариацию от первичных факторов к факторам второго порядка.

Психометрия

История

Чарльз Спирман был первым психологом, который обсудил общий факторный анализ, и сделал это в своей статье 1904 года. Он предоставил немного деталей о его методх и был посвящен однофакторным моделям. Он обнаружил, что одна общая умственная способность, или g, лежит в основе и формируется когнитивными средствами, как бы, не связанные друг с другом предметы имеют положительную корреляцию, что привело его к постулату. способности человека.

Первоначальное факторного анализа с множественными факторами развития дано Луи Терстоуном 1930 г. в двух статьях в начале-х годов, кратко изложенных в его книге 1935 года Вектор разума. Терстон представил несколько важных концепций факторного анализа, включая общность, уникальность и ротацию. Он выступал за "простую структуру" и разработал методы ротации, которые можно было бы использовать как способ достижения таких структур.

В методологии Q Стивенсон, ученик Спирмена, различает Анализ R-фактора, ориентированный на изучение межиндивидуальных различий, и анализ Q-фактора, ориентированный на субъективные внутрииндивидуальные различия.

Раймонд Кеттелл был решительным сторонним анализатором и психометрии и использовал многофакторную теорию Терстона для объяснения интеллекта. Кеттел также разработал «осыпной» тест и коэффициенты сходства.

Приложения в психологии

Факторный анализ используется для использования «факторов», которые объясняют разнообразие различных тестов. Например, исследование интеллекта показало, что люди, получившие высокий балл в тесте на вербальные способности, также хороши в других тестах, требующих вербальных способностей. Исследователи объяснили это использование метода анализа одного фактора, называемого вербальным интеллектом, который представляет собой степень, в которой кто-то может решать, связанный с вербальными навыками.

Факторный анализ в психологии чаще всего ассоциируется с исследованиями интеллекта. Тем не менее, он также использовался для поиска факторов в широком диапазоне областей, таких как личность, отношения, убеждения и т. Д. Он связан с психометрикой, поскольку он может оценивать валидность инструмента, определяя, инструмент действительно измеряет постулируемые факторы.

Факторный анализ - часто используется метод в межкультурных исследованиях. Он служит для обслуживания . Услуги. Наиболее известными моделями измерений измерений являются модели, разработанные Гиртом Хофстеде, Рональдом Инглхартом, Кристианом Вельзелем, Шаломом Шварцем и Майклом Минковым.

Преимущества

  • Уменьшение количества числа за счет объединения двух или более переменных в один фактор. Например, результаты в беге, метании мяча, отбивании, прыжках и поднятии тяжести можно объединить в один фактор, такой как общие спортивные способности. Обычно в матрице элементов по людям факторы выбираются путем групп связанных элементов. В методе анализа Q-фактора матрица транспонируется. Например, либералы, либертарианцы, консерваторы и социалисты могут объединяться в отдельные группы.
  • Идентификация связанных между собой чисел, чтобы увидеть, как они связаны друг с другом. Например, Кэрролл использовал факторный анализ для построения своей теории трех слоев. Он обнаружил, что фактор, называемый «широкое зрительное восприятие», относится к тому, насколько хорошо человек справляется с визуальными задачами. Он также обнаружил фактор «широкого слухового восприятия», относящуюся к способности слуховой задачи. Кроме того, он обнаружил глобальный фактор, называемый «g» или общий интеллект, который относится как к «широкому зрительному восприятию», так и «широкому слуховому восприятию». Это означает, что человек с высоким «g», вероятно, будет обладать высокой способностью «зрительного восприятия», так и высокой способностью «слухового восприятия», и что «g», таким образом, объяснить хорошую часть того, почему кто-то хороший или плохой в обоих случаях. эти области.

Недостатки

  • «... каждая ориентация одинаково приемлема математически. Но оказалось, что разные факторные теории различаются как в отношении ориентации факторов для данного решения, так и в отношении чего-либо еще, поэтому эта подгонка модели оказалась полезной для различения теорий ». (Шбергтерн, 1977). Это означает, что все ротации соответствуют различным базовым процессам, но все ротации в равной степени являются допустимыми стандартными факторами оптимизации анализа. Следовательно, невозможно выбрать правильную ротацию, используя только факторный анализ.
  • Факторный анализ может быть настолько хорош, насколько позволяют данные. В психологии, где исследователям приходится полагаться на достоверные и надежные меры, такие как самоотчеты, это может быть проблематичным.
  • Интерпретация факторного анализа даже на использовании «эвристики», которая представляет собой решение, которое является «удобно, если не совсем верно». Можно сделать более одной интерпретации одних и тех же данных с одинаковым факторингом, и факторный анализ не может выявить причинно-следственную связь.
Исследовательский факторный анализ (EFA) в сравнении с анализом главных компонентов

В то как EFA и PCA рассматривает как синонимичные методы в некоторых областях статистики, это подвергалось критике. Факторный анализ «имеет дело с предположением о лежащей в основе структуры: [он] предполагает, что ковариация вызывает наблюдаемые условия одного или нескольких скрытых факторов (факторов), которые оказывают влияние на эти наблюдаемые переменные». Напротив, PCA не предполагает и не зависит от такой основной причинно-следственной связи. Исследователи утверждали, что есть объективные преимущества между этими двумя методами, означать, что есть объективные преимущества от предпочтений одного другого на основе аналитической цели. Если факторная модель сформулирована неправильно или предположения не выполняются, то факторный анализ даст анализ ошибочные результаты. Факторный анализ успешно применяется там, где адекватное понимание системы позволяет правильно определить исходную модель. PCA использует математическое преобразование исходных данных без каких-либо предположений о форме ковариационной матрицы. Целью PCA является определение линейных комбинаций исходных чисел и выбор нескольких, которые можно использовать для обобщения набора данных без большого количества информации.

Параметры, противопоставляющие PCA и EFA

Fabrigar et al. al. (1999) рассматривают ряд причин, по которому PCA не эквивалентен факторному анализу:

  1. Иногда, что PCA является более быстрым в вычислительном отношении и требует меньше ресурсов, чем факторный анализ. Fabrigar et al. предполагают, что доступные компьютерные ресурсы сделали эту практическую проблему неуместной.
  2. PCA и факторный анализ могут дать аналогичные результаты. На этот вопрос обращаются также Fabrigar et al.; в некоторых случаях, когда общность (например, 0,4), эти два метода дают разные результаты. Фактически, Fabrigar et al. утверждают, что в случаях, когда данные предположительно общей факторной модели, результаты PCA являются неточными.
  3. Есть случаи, когда факторный анализ приводит к «случаям Хейвуда». Сюда входят ситуации, при которых 100% или более отклонения измеряемой оценивается как учтенное модель. Fabrigar et al. предполагают, что эти случаи действительно информативны для исследователя, воспроизводят модель на неверно указанную модель или нарушение модели общего фактора. Отсутствие случаев Хейвуда в подходе PCA может означать, что такие проблемы останутся незамеченными.
  4. Исследователи получают дополнительную информацию из подхода PCA, например, индивидуальный балл по определенному компоненту; такая информация не получается из факторного анализа. Однако, как отмечает Fabrigar et al. утверждают, что типичная цель факторного анализа - то есть определение факторов, определяющих значение корреляций между измеряемыми переменными - не требует знания факторов оценок, и, таким образом, это преимущество сводится на нет. Также возможно вычислить факторные оценки на основе факторного анализа.

Дисперсия по сравнению с ковариацией

Факторный анализ учитывает случайную ошибку, которая присуща измерению, тогда как PCA этого не делает. так. Этот момент проиллюстрирован Брауном (2009), указывает, что в отношении корреляционных матриц, участвующих в вычислениях:

«В PCA 1,00s помещаются по диагонали, что означает, что вся дисперсия в матрице учитывается (включая дисперсию, уникальную для каждой переменной, дисперсии, общей для числа, и дисперсии ошибок). Таким образом, по определению. Напротив, в ОДВ общности помещаются в диагональный означает, что должна учитываться только дисперсия, которая является общей с другими переменными (исключая дисперсию, уникальную для каждой переменной, и дисперсию ошибки). Таким образом, по определению, это будет только дисперсия, которая является общей для переменной ».

— Браун (2009), Анализ основных компонентов и исследовательский факторный анализ - Определения, определения различия и выбор этой причины

По причине Браун (2009) рекомендует использовать факторный анализ, когда существуют теоретические представления о взаимосвязях между переменными, как ПК использовать, если целью исследователя является изучение закономерностей в своих данных.

Различия в процедуре и результатах

Различия между PCA и факторным анализом (FA) дополнительно проиллюстрированы Suhr (2009):

  • PCA дает к основным компонентам, которые составляют максимальное количество дисперсии наблюдаемых факторов; FA учитывает общую дисперсию данных.
  • PCA вставляет единицы на диагоналях корреляционной матрицы; FA регулирует диагонали корреляционной матрицы с помощью уникальных факторов.
  • PCA минимизирует сумму квадратов перпендикулярного расстояния к оси компонента; FA оценивает факторы, влияющие на наблюдаемые переменные.
  • Баллы компонентов в PCA представляют собой линейную комбинацию совокупных чисел, взвешенных по собым ; наблюдаемые переменные в FA представляют собой линейные комбинации лежащих в основе и уникальных факторов.
  • В PCA полученные компоненты не интерпретируемы, то есть они не лежащие в основе «конструкции»; в FA лежащие в основе конструкции могут быть помечены и интерпретированы при наличии точной спецификации модели.

.

В маркетинге

Основные шаги:

Сбор информации

Этап сбора данных обычно выполняется профессионалами в области маркетинговых исследований. Вопросы опроса просят респондента оценить образец продукта или описания концепций продукта по ряду атрибутов. Выбирается от пяти до двадцати атрибутов. Они могут включать в себя такие вещи, как простота использования, вес, точность, долговечность, цветность, цена или размер. Выбранные атрибуты будут различаться в зависимости от изучаемого продукта. Тот же вопрос задается обо всех продуктах в исследовании. Данные для нескольких продуктов кодируются и вводятся в статистическую программу, такую ​​как R, SPSS, SAS, Stata, STATISTICA, JMP и СИСТАТ.

Анализ

В ходе анализа будут выделены основные факторы, объясняющие данные, с использованием матрицы ассоциаций. Факторный анализ - это метод взаимозависимости. Рассматривается полный набор взаимозависимых отношений. Нет спецификации зависимых переменных, независимых переменных или причинно-следственной связи. Факторный анализ предполагает, что все рейтинговые данные по различным атрибутам могут быть сокращены до нескольких важных измерений. Это сокращение возможно, потому что некоторые атрибуты могут быть связаны друг с другом. Рейтинг, присвоенный одному атрибуту, частично является результатом влияния других атрибутов. Статистический алгоритм разбивает рейтинг (так называемый исходный балл) на различные компоненты и реконструирует частичные баллы в баллы основных факторов. Степень корреляции между исходной необработанной оценкой и окончательной факторной оценкой называется факторной нагрузкой.

Преимущества

  • Могут использоваться как объективные, так и субъективные атрибуты при условии, что субъективные атрибуты могут быть преобразованы в баллы.
  • Факторный анализ может выявить скрытые измерения или конструкции, которые прямой анализ не может определить.>
  • Это просто и недорого.

Недостатки

  • Полезность зависит от способности исследователей собрать достаточный набор атрибутов продукта. Если важные атрибуты исключены или игнорируются, ценность процедуры уменьшается.
  • Если наборы наблюдаемых переменных очень похожи друг на друга и отличаются от других элементов, факторный анализ присвоит им один фактор. Это может скрыть факторы, которые представляют более интересные взаимосвязи.
  • Для определения факторов могут потребоваться знания теории, поскольку кажущиеся несходными атрибуты могут сильно коррелировать по неизвестным причинам.
В физических и биологических науках

Факторный анализ также широко используется в физических науках, таких как геохимия, гидрохимия, астрофизика и космология, а также в биологических науках, таких как экология, молекулярная биология, нейробиология и биохимия.

При управлении качеством подземных вод важно связать пространственное распределение различных химических параметров с различные возможные источники, которые имеют разные химические сигнатуры. Например, сульфидный рудник может быть связан с высоким уровнем кислотности, растворенными сульфатами и переходными металлами. Эти сигнатуры могут быть идентифицированы как факторы с помощью факторного анализа в режиме R, а расположение возможных источников может быть предложено путем контурирования оценок факторов.

В геохимии разные факторы могут соответствовать разным минеральных ассоциаций и, следовательно, минерализации.

В анализе микроматриц

Факторный анализ может использоваться для обобщения данных с высокой плотности олигонуклеотидов ДНК-микрочипов на уровень датчика для Affymetrix GeneChips. В этом случае латентная переменная соответствует концентрации РНК в образце.

Реализация

Факторный анализ был реализован в нескольких программах статистического анализа с 1980-х годов:

См. Также
  • icon Математический портал
Ссылки
Дополнительная литература
Внешние ссылки
На Викискладе есть средства массовой информации, связанные с факторным анализом.
Последняя правка сделана 2021-05-20 08:52:21
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте