Корреляция

редактировать
Эта статья посвящена корреляции и зависимости в статистических данных. Для использования в других целях, см корреляция (значения). Несколько наборов ( х,  у) точек, с коэффициентом корреляции Пирсона по х и у для каждого набора. Корреляция отражает шумность и направление линейной связи (верхний ряд), но не наклон этой связи (середина), ни многие аспекты нелинейных отношений (внизу). NB: фигура в центре имеет наклон 0, но в этом случае коэффициент корреляции не определен, потому что дисперсия Y равна нулю.

В статистике, соотношение или зависимость любая статистическая зависимость, будь то причинной или нет, между двумя случайными величинами или двумерные данные. В самом широком смысле корреляция - это любая статистическая ассоциация, хотя обычно она относится к степени линейной связи пары переменных. Знакомые примеры зависимых явлений включают корреляцию между ростом родителей и их потомства, а также корреляцию между ценой на товар и количеством, которое потребители готовы купить, как это показано на так называемой кривой спроса.

Корреляции полезны, потому что они могут указывать на прогнозную взаимосвязь, которую можно использовать на практике. Например, электроэнергетическая компания может производить меньше электроэнергии в мягкий день из-за корреляции между спросом на электроэнергию и погодой. В этом примере существует причинно-следственная связь, поскольку экстремальные погодные условия заставляют людей использовать больше электроэнергии для обогрева или охлаждения. Однако, как правило, наличия корреляции недостаточно, чтобы сделать вывод о наличии причинно-следственной связи (т. Е. Корреляция не подразумевает причинно-следственную связь ).

Формально случайные величины являются зависимыми, если они не удовлетворяют математическому свойству вероятностной независимости. Выражаясь неформальным языком, корреляция является синонимом зависимости. Однако в техническом смысле корреляция относится к любому из нескольких конкретных типов математических операций между тестируемыми переменными и их соответствующими ожидаемыми значениями. По сути, корреляция - это мера того, как две или более переменных связаны друг с другом. Есть несколько коэффициентов корреляции, часто обозначаемых или, измеряющих степень корреляции. Наиболее распространенным из них является коэффициент корреляции Пирсона, который чувствителен только к линейной зависимости между двумя переменными (которая может присутствовать, даже если одна переменная является нелинейной функцией другой). Другие коэффициенты корреляции, такие как ранговая корреляция Спирмена, были разработаны, чтобы быть более надежными, чем коэффициенты Пирсона, то есть более чувствительными к нелинейным отношениям. Взаимная информация также может применяться для измерения зависимости между двумя переменными. ρ {\ displaystyle \ rho} р {\ displaystyle r}

СОДЕРЖАНИЕ

  • 1 коэффициент произведения-момента Пирсона
    • 1.1 Определение
    • 1.2 Свойство симметрии
    • 1.3 Корреляция как продукт
    • 1.4 Корреляция и независимость
    • 1.5 Выборочный коэффициент корреляции
  • 2 Пример
  • 3 Коэффициенты ранговой корреляции
  • 4 Другие меры зависимости между случайными величинами
  • 5 Чувствительность к распределению данных
  • 6 Корреляционные матрицы
  • 7 Ближайшая действительная корреляционная матрица
  • 8 Некоррелированность и независимость случайных процессов
  • 9 распространенных заблуждений
    • 9.1 Корреляция и причинно-следственная связь
    • 9.2 Простые линейные корреляции
  • 10 Двумерное нормальное распределение
  • 11 Стандартная ошибка
  • 12 См. Также
  • 13 Ссылки
  • 14 Дальнейшее чтение
  • 15 Внешние ссылки

Коэффициент произведения-момента Пирсона

Основная статья: коэффициент корреляции продукта-момента Пирсона Примеры диаграмм рассеяния различных наборов данных с различными коэффициентами корреляции.

Определение

Наиболее известной мерой зависимости между двумя величинами является коэффициент корреляции продукта-момента Пирсона (PPMCC) или «коэффициент корреляции Пирсона», обычно называемый просто «коэффициентом корреляции». Математически это определяется как качество подгонки методом наименьших квадратов к исходным данным. Он получается путем принятия отношения ковариации двух рассматриваемых переменных в нашем числовом наборе данных, нормированного на квадратный корень из их дисперсий. Математически ковариацию двух переменных просто делят на произведение их стандартных отклонений. Карл Пирсон разработал коэффициент на основе похожей, но немного другой идеи Фрэнсиса Гальтона.

Коэффициент корреляции продукта-момента Пирсона пытается установить линию наилучшего соответствия набору данных из двух переменных, по существу, выкладывая ожидаемые значения, а полученный коэффициент корреляции Пирсона показывает, насколько далеко фактический набор данных находится от ожидаемых значений. В зависимости от знака коэффициента корреляции нашего Пирсона мы можем получить либо отрицательную, либо положительную корреляцию, если существует какая-либо связь между переменными нашего набора данных.

Коэффициент корреляции населения между двумя случайными величинами и с ожидаемыми значениями и и стандартными отклонениями и определяются как ρ Икс , Y {\ displaystyle \ rho _ {X, Y}} Икс {\ displaystyle X} Y {\ displaystyle Y} μ Икс {\ displaystyle \ mu _ {X}} μ Y {\ displaystyle \ mu _ {Y}} σ Икс {\ displaystyle \ sigma _ {X}} σ Y {\ displaystyle \ sigma _ {Y}}

ρ Икс , Y знак равно корр ( Икс , Y ) знак равно cov ( Икс , Y ) σ Икс σ Y знак равно E [ ( Икс - μ Икс ) ( Y - μ Y ) ] σ Икс σ Y {\ displaystyle \ rho _ {X, Y} = \ operatorname {corr} (X, Y) = {\ operatorname {cov} (X, Y) \ over \ sigma _ {X} \ sigma _ {Y}} = {\ operatorname {E} [(X- \ mu _ {X}) (Y- \ mu _ {Y})] \ over \ sigma _ {X} \ sigma _ {Y}}}

где это ожидаемое значение оператор, означает ковариацию, и является широко используемой альтернативой для обозначения коэффициента корреляции. Корреляция Пирсона определяется, только если оба стандартных отклонения конечны и положительны. Альтернативная формула чисто с точки зрения моментов : E {\ displaystyle \ operatorname {E}} cov {\ displaystyle \ operatorname {cov}} корр {\ displaystyle \ operatorname {corr}}

ρ Икс , Y знак равно E ( Икс Y ) - E ( Икс ) E ( Y ) E ( Икс 2 ) - E ( Икс ) 2 E ( Y 2 ) - E ( Y ) 2 {\ displaystyle \ rho _ {X, Y} = {\ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y) \ over {\ sqrt {\ operatorname {E} ( X ^ {2}) - \ operatorname {E} (X) ^ {2}}} \ cdot {\ sqrt {\ operatorname {E} (Y ^ {2}) - \ operatorname {E} (Y) ^ { 2}}}}}

Свойство симметрии

Коэффициент корреляции является симметричным:. Это подтверждается коммутативным свойством умножения. корр ( Икс , Y ) знак равно корр ( Y , Икс ) {\ displaystyle \ operatorname {corr} (X, Y) = \ operatorname {corr} (Y, X)}

Корреляция как продукт

Пусть случайные величины и имеют стандартные отклонения и. потом Икс {\ displaystyle X} Y {\ displaystyle Y} σ Икс gt; 0 {\ displaystyle \ sigma _ {X}gt; 0} σ Y gt; 0 {\ displaystyle \ sigma _ {Y}gt; 0}

корр ( Икс , Y ) знак равно корр ( Икс , E ( Икс Y ) ) корр ( E ( Икс Y ) , Y ) {\ displaystyle \ operatorname {corr} (X, Y) = \ operatorname {corr} (X, \ operatorname {E} (X \ mid Y)) \ operatorname {corr} (\ operatorname {E} (X \ mid Y), Y)}

Корреляция и независимость

Следствием неравенства Коши – Шварца является то, что абсолютное значение коэффициента корреляции Пирсона не превышает 1. Следовательно, значение коэффициента корреляции находится в диапазоне от -1 до +1. Коэффициент корреляции равен +1 в случае идеальной прямой (возрастающей) линейной зависимости (корреляции), -1 в случае идеальной обратной (убывающей) линейной зависимости ( антикорреляции) и некоторого значения в открытом интервале в во всех остальных случаях с указанием степени линейной зависимости между переменными. По мере приближения к нулю связь уменьшается (ближе к некоррелированной). Чем ближе коэффициент к -1 или 1, тем сильнее корреляция между переменными. ( - 1 , 1 ) {\ displaystyle (-1,1)}

Если переменные независимы, коэффициент корреляции Пирсона равен 0, но обратное неверно, поскольку коэффициент корреляции обнаруживает только линейные зависимости между двумя переменными.

Икс , Y  независимый ρ Икс , Y знак равно 0 ( Икс , Y  некоррелированный ) ρ Икс , Y знак равно 0 ( Икс , Y  некоррелированный ) Икс , Y  независимый {\ displaystyle {\ begin {align} X, Y {\ text {independent}} \ quad amp; \ Rightarrow \ quad \ rho _ {X, Y} = 0 \ quad (X, Y {\ text {uncorrelated}}) \\\ rho _ {X, Y} = 0 \ quad (X, Y {\ text {uncorrelated}}) \ quad amp; \ nRightarrow \ quad X, Y {\ text {независимый}} \ end {выровненный}}}

Например, предположим, что случайная величина симметрично распределена относительно нуля, и. Тогда полностью определяется, так что и являются совершенно зависимыми, но их корреляция равна нулю; они некоррелированы. Однако в частном случае, когда и вместе являются нормальными, некоррелированность эквивалентна независимости. Икс {\ displaystyle X} Y знак равно Икс 2 {\ displaystyle Y = X ^ {2}} Y {\ displaystyle Y} Икс {\ displaystyle X} Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X} Y {\ displaystyle Y}

Несмотря на то, что некоррелированные данные не обязательно подразумевают независимость, можно проверить независимость случайных величин, если их взаимная информация равна 0.

Коэффициент корреляции выборки

Учитывая серию измерений пары, проиндексированной, можно использовать коэффициент корреляции выборки для оценки корреляции Пирсона между и. Коэффициент корреляции выборки определяется как п {\ displaystyle n} ( Икс я , Y я ) {\ displaystyle (X_ {i}, Y_ {i})} я знак равно 1 , , п {\ Displaystyle я = 1, \ ldots, п} ρ Икс , Y {\ displaystyle \ rho _ {X, Y}} Икс {\ displaystyle X} Y {\ displaystyle Y}

р Икс у знак равно d е ж я знак равно 1 п ( Икс я - Икс ¯ ) ( у я - у ¯ ) ( п - 1 ) s Икс s у знак равно я знак равно 1 п ( Икс я - Икс ¯ ) ( у я - у ¯ ) я знак равно 1 п ( Икс я - Икс ¯ ) 2 я знак равно 1 п ( у я - у ¯ ) 2 , {\ displaystyle r_ {xy} \ quad {\ overset {\ underset {\ mathrm {def}} {}} {=}} \ quad {\ frac {\ sum \ limits _ {i = 1} ^ {n} ( x_ {i} - {\ bar {x}}) (y_ {i} - {\ bar {y}})} {(n-1) s_ {x} s_ {y}}} = {\ frac {\ сумма \ limits _ {i = 1} ^ {n} (x_ {i} - {\ bar {x}}) (y_ {i} - {\ bar {y}})} {\ sqrt {\ sum \ limits _ {i = 1} ^ {n} (x_ {i} - {\ bar {x}}) ^ {2} \ sum \ limits _ {i = 1} ^ {n} (y_ {i} - {\ бар {y}}) ^ {2}}}},}

где и являются образцами средства из и, и, и являются исправлены примерами стандартных отклонений от и. Икс ¯ {\ displaystyle {\ overline {x}}} у ¯ {\ displaystyle {\ overline {y}}} Икс {\ displaystyle X} Y {\ displaystyle Y} s Икс {\ displaystyle s_ {x}} s у {\ displaystyle s_ {y}} Икс {\ displaystyle X} Y {\ displaystyle Y}

Эквивалентные выражения для are р Икс у {\ displaystyle r_ {xy}}

р Икс у знак равно Икс я у я - п Икс ¯ у ¯ п s Икс s у знак равно п Икс я у я - Икс я у я п Икс я 2 - ( Икс я ) 2   п у я 2 - ( у я ) 2 . {\ displaystyle {\ begin {align} r_ {xy} amp; = {\ frac {\ sum x_ {i} y_ {i} -n {\ bar {x}} {\ bar {y}}} {ns'_ {x} s '_ {y}}} \\ [5pt] amp; = {\ frac {n \ sum x_ {i} y_ {i} - \ sum x_ {i} \ sum y_ {i}} {{\ sqrt {n \ sum x_ {i} ^ {2} - (\ sum x_ {i}) ^ {2}}} ~ {\ sqrt {n \ sum y_ {i} ^ {2} - (\ sum y_ { i}) ^ {2}}}}}. \ end {выравнивается}}}

где и являются нескорректированными образцами стандартных отклонений от и. s Икс {\ displaystyle s '_ {x}} s у {\ displaystyle s '_ {y}} Икс {\ displaystyle X} Y {\ displaystyle Y}

Если и являются результатами измерений, которые содержат ошибку измерения, реалистичные пределы коэффициента корреляции составляют не от -1 до +1, а меньший диапазон. Для случая линейной модели с единственной независимой переменной коэффициент детерминации (R в квадрате) является квадратом коэффициента произведения-момента Пирсона. Икс {\ displaystyle x} у {\ displaystyle y} р Икс у {\ displaystyle r_ {xy}}

Пример

Рассмотрим совместное распределение вероятностей и приведено в таблице ниже. Икс {\ displaystyle X} Y {\ displaystyle Y}

п ( Икс знак равно Икс , Y знак равно у ) {\ Displaystyle \ OperatorName {P} (X = x, Y = y)} у знак равно - 1 {\ displaystyle y = -1} у знак равно 0 {\ displaystyle y = 0} у знак равно 1 {\ displaystyle y = 1}
Икс знак равно 0 {\ displaystyle x = 0} 0 {\ displaystyle 0} 1 / 3 {\ displaystyle 1/3} 0 {\ displaystyle 0}
Икс знак равно 1 {\ displaystyle x = 1} 1 / 3 {\ displaystyle 1/3} 0 {\ displaystyle 0} 1 / 3 {\ displaystyle 1/3}

Для этого совместного распределения предельными распределениями являются:

п ( Икс знак равно Икс ) знак равно { 1 / 3 для  Икс знак равно 0 2 / 3 для  Икс знак равно 1 {\ displaystyle \ operatorname {P} (X = x) = {\ begin {cases} 1/3 amp; \ quad {\ text {for}} x = 0 \\ 2/3 amp; \ quad {\ text {for}} x = 1 \ end {case}}}
п ( Y знак равно у ) знак равно { 1 / 3 для  у знак равно - 1 1 / 3 для  у знак равно 0 1 / 3 для  у знак равно 1 {\ displaystyle \ operatorname {P} (Y = y) = {\ begin {cases} 1/3 amp; \ quad {\ text {for}} y = -1 \\ 1/3 amp; \ quad {\ text {for}} y = 0 \\ 1/3 amp; \ quad {\ text {for}} y = 1 \ end {case}}}

Это дает следующие ожидания и отклонения:

μ Икс знак равно 2 / 3 {\ displaystyle \ mu _ {X} = 2/3}
μ Y знак равно 0 {\ displaystyle \ mu _ {Y} = 0}
σ Икс 2 знак равно 2 / 9 {\ Displaystyle \ sigma _ {X} ^ {2} = 2/9}
σ Y 2 знак равно 2 / 3 {\ Displaystyle \ sigma _ {Y} ^ {2} = 2/3}

Следовательно:

ρ Икс , Y знак равно 1 σ Икс σ Y E [ ( Икс - μ Икс ) ( Y - μ Y ) ] знак равно 1 σ Икс σ Y Икс , у ( Икс - μ Икс ) ( у - μ Y ) п ( Икс знак равно Икс , Y знак равно у ) знак равно ( 1 - 2 / 3 ) ( - 1 - 0 ) 1 3 + ( 0 - 2 / 3 ) ( 0 - 0 ) 1 3 + ( 1 - 2 / 3 ) ( 1 - 0 ) 1 3 знак равно 0. {\ displaystyle {\ begin {align} \ rho _ {X, Y} amp; = {\ frac {1} {\ sigma _ {X} \ sigma _ {Y}}} \ operatorname {E} [(X- \ mu _ {X}) (Y- \ mu _ {Y})] \\ [5pt] amp; = {\ frac {1} {\ sigma _ {X} \ sigma _ {Y}}} \ sum _ {x, y} {(x- \ mu _ {X}) (y- \ mu _ {Y}) \ operatorname {P} (X = x, Y = y)} \\ [5pt] amp; = (1-2 / 3) (- 1-0) {\ frac {1} {3}} + (0-2 / 3) (0-0) {\ frac {1} {3}} + (1-2 / 3) (1-0) {\ frac {1} {3}} = 0. \ end {выравнивается}}}

Коэффициенты ранговой корреляции

Основные статьи: коэффициент ранговой корреляции Спирмена и коэффициент ранговой корреляции тау Кендалла

Коэффициенты ранговой корреляции, такие как коэффициент ранговой корреляции Спирмена и коэффициент ранговой корреляции (τ) Кендалла, измеряют степень, в которой по мере увеличения одной переменной другая переменная имеет тенденцию увеличиваться, не требуя, чтобы это увеличение было представлено линейной зависимостью. Если по мере увеличения одной переменной другая уменьшается, коэффициенты ранговой корреляции будут отрицательными. Эти коэффициенты ранговой корреляции принято рассматривать как альтернативу коэффициенту Пирсона, который используется либо для уменьшения объема вычислений, либо для того, чтобы сделать коэффициент менее чувствительным к ненормальности в распределениях. Однако у этого взгляда мало математического обоснования, поскольку коэффициенты ранговой корреляции измеряют другой тип взаимосвязи, чем коэффициент корреляции продукта-момента Пирсона, и лучше всего рассматриваются как меры другого типа ассоциации, а не как альтернативный показатель совокупности. коэффициент корреляции.

Чтобы проиллюстрировать природу ранговой корреляции и ее отличие от линейной корреляции, рассмотрим следующие четыре пары чисел: ( Икс , у ) {\ Displaystyle (х, у)}

(0, 1), (10, 100), (101, 500), (102, 2000).

По мере того, как мы переходим от каждой пары к следующей, она увеличивается, и то же самое. Это соотношение является совершенным, в том смысле, что увеличение будет всегда сопровождается увеличением. Это означает, что у нас есть идеальная ранговая корреляция, и коэффициенты корреляции Спирмена и Кендалла равны 1, тогда как в этом примере коэффициент корреляции продукта-момента Пирсона равен 0,7544, что указывает на то, что точки далеко не лежат на прямой линии. Таким же образом, если всегда уменьшается при увеличении, коэффициенты ранговой корреляции будут равны -1, в то время как коэффициент корреляции произведения-момента Пирсона может быть или не быть близким к -1, в зависимости от того, насколько близки точки к прямой линии. Хотя в крайних случаях идеальной ранговой корреляции оба коэффициента равны (оба +1 или оба -1), это обычно не так, и поэтому значения двух коэффициентов не могут быть осмысленно сравнены. Например, для трех пар (1, 1) (2, 3) (3, 2) коэффициент Спирмена равен 1/2, а коэффициент Кендалла - 1/3. Икс {\ displaystyle x} у {\ displaystyle y} Икс {\ displaystyle x} у {\ displaystyle y} у {\ displaystyle y} Икс {\ displaystyle x}

Другие меры зависимости между случайными величинами

См. Также: Коэффициент корреляции произведение-момент Пирсона § Варианты

Информации, предоставляемой коэффициентом корреляции, недостаточно для определения структуры зависимости между случайными величинами. Коэффициент корреляции полностью определяет структуру зависимости только в очень частных случаях, например, когда распределение является многомерным нормальным распределением. (См. Диаграмму выше.) В случае эллиптических распределений он характеризует (гипер-) эллипсы одинаковой плотности; однако он не полностью характеризует структуру зависимости (например, степени свободы многомерного t-распределения определяют уровень хвостовой зависимости).

Корреляция расстояний была введена для устранения недостатка корреляции Пирсона, заключающейся в том, что она может быть равна нулю для зависимых случайных величин; корреляция нулевого расстояния подразумевает независимость.

Зависимость коэффициент Рандомизированной является вычислительно эффективной, копула основанной меры зависимости между многомерными случайными величинами. RDC инвариантен по отношению к нелинейным вычислениям случайных величин, способен обнаруживать широкий спектр функциональных паттернов ассоциации и принимает нулевое значение при независимости.

Для два двоичных переменных, то отношение шансов измеряет их зависимость, и занимает диапазон неотрицательных чисел, возможно, бесконечность:. Похожие статистические данные, такие как Юла в Y и Юле в Q нормализуют это корреляции-как диапазон. Отношение шансов обобщается логистической моделью для моделирования случаев, когда зависимые переменные являются дискретными и могут быть одна или несколько независимых переменных. [ 0 , + ] {\ displaystyle [0, + \ infty]} [ - 1 , 1 ] {\ displaystyle [-1,1]}

Коэффициент корреляции, взаимная информация на основе энтропии, общая корреляция, двойная полная корреляция и полихорическая корреляция также способны обнаруживать более общие зависимости, как и рассмотрение связки между ними, в то время как коэффициент детерминации обобщает коэффициент корреляции на множественную регрессию..

Чувствительность к распределению данных

Дополнительная информация: коэффициент корреляции произведение-момент Пирсона § Чувствительность к распределению данных

Степень зависимости между переменными и не зависит от масштаба, в котором переменные выражены. То есть, если мы анализируем взаимосвязь между и, на большинство показателей корреляции не влияет преобразование в a  +  bX и в c  +  dY, где a, b, c и d являются константами ( b и d положительны). Это верно как для некоторых корреляционных статистических данных, так и для их популяционных аналогов. Некоторые статистические данные корреляции, такие как коэффициент ранговой корреляции, также инвариантны к монотонным преобразованиям предельных распределений и / или. Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X} Y {\ displaystyle Y}

Коэффициенты корреляции Пирсона / Спирмена между и показаны, когда диапазоны двух переменных не ограничены, а диапазон ограничен интервалом (0,1). Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X}

Большинство мер корреляций чувствительны к форме, в которой и дискретизированной. Зависимости становятся сильнее, если рассматривать их в более широком диапазоне значений. Таким образом, если мы рассмотрим коэффициент корреляции между ростом отцов и их сыновей по всем взрослым мужчинам и сравним его с тем же коэффициентом корреляции, вычисленным, когда отцы выбраны ростом от 165 до 170 см, корреляция будет слабее в последнем случае. Было разработано несколько методов, которые пытаются исправить ограничение диапазона для одной или обеих переменных, и обычно используются в метаанализе; наиболее распространены уравнения Торндайка II и III. Икс {\ displaystyle X} Y {\ displaystyle Y}

Различные меры корреляции в использовании, может быть определена для некоторых совместных распределений X и Y. Например, коэффициент корреляции Пирсона определяется в терминах моментов и, следовательно, будет неопределенным, если моменты не определены. Всегда определяются показатели зависимости на основе квантилей. Статистика на основе выборки, предназначенная для оценки показателей зависимости населения, может иметь или не обладать желательными статистическими свойствами, такими как несмещенность или асимптотическая согласованность, в зависимости от пространственной структуры населения, из которого были взяты данные.

Чувствительность к распределению данных может быть использована с пользой. Например, масштабированная корреляция предназначена для использования чувствительности к диапазону, чтобы выделить корреляции между быстрыми компонентами временных рядов. Контролируемое сокращение диапазона значений позволяет отфильтровывать корреляции на длительных временных масштабах и выявлять корреляции только на коротких временных масштабах.

Матрицы корреляции

Корреляционная матрица случайных величин - это матрица, элементом которой является. Таким образом, диагональные элементы равны единице. Если меры корреляции используется коэффициенты продукта момент, корреляционная матрица является таким же, как ковариационная матрица из стандартизованных случайных величин для. Это применимо как к матрице корреляций совокупности (в этом случае - стандартное отклонение совокупности), так и к матрице корреляций выборки (в этом случае обозначает стандартное отклонение выборки). Следовательно, каждая из них обязательно является положительно-полуопределенной матрицей. Более того, корреляционная матрица является строго положительно определенной, если никакая переменная не может иметь все свои значения, точно сгенерированные как линейная функция значений других. п {\ displaystyle n} Икс 1 , , Икс п {\ Displaystyle X_ {1}, \ ldots, X_ {n}} п × п {\ Displaystyle п \ раз п} ( я , j ) {\ displaystyle (я, j)} корр ( Икс я , Икс j ) {\ displaystyle \ operatorname {corr} (X_ {i}, X_ {j})} Икс я / σ ( Икс я ) {\ Displaystyle X_ {i} / \ sigma (X_ {i})} я знак равно 1 , , п {\ Displaystyle я = 1, \ точки, п} σ {\ displaystyle \ sigma} σ {\ displaystyle \ sigma}

Матрица корреляции является симметричной, поскольку корреляция между и такая же, как корреляция между и. Икс я {\ displaystyle X_ {i}} Икс j {\ displaystyle X_ {j}} Икс j {\ displaystyle X_ {j}} Икс я {\ displaystyle X_ {i}}

Матрица корреляции появляется, например, в одной формуле для коэффициента множественной детерминации, меры согласия в множественной регрессии.

В статистическом моделировании корреляционные матрицы, представляющие отношения между переменными, подразделяются на различные корреляционные структуры, которые различаются такими факторами, как количество параметров, необходимых для их оценки. Например, в заменяемой корреляционной матрице все пары переменных моделируются как имеющие одинаковую корреляцию, поэтому все недиагональные элементы матрицы равны друг другу. С другой стороны, авторегрессионная матрица часто используется, когда переменные представляют собой временной ряд, поскольку корреляции, вероятно, будут больше, когда измерения ближе по времени. Другие примеры включают независимый, неструктурированный, M-зависимый и Toeplitz.

В поисковом анализе данных, то иконография корреляций состоит в замене корреляционной матрицы на диаграмме, где «замечательные» корреляции представлены сплошной линией (положительная корреляция), или пунктирной линией (отрицательная корреляция).

Ближайшая действительная корреляционная матрица

В некоторых приложениях (например, при построении моделей данных только на основе частично наблюдаемых данных) требуется найти «ближайшую» корреляционную матрицу к «приблизительной» корреляционной матрице (например, матрица, которая обычно не имеет полуопределенной положительности из-за того, как она имеет вычислено).

В 2002 году Хайэм формализовал понятие близости с помощью нормы Фробениуса и предоставил метод вычисления ближайшей корреляционной матрицы с использованием алгоритма проекции Дикстры, реализация которого доступна в виде онлайн-веб-API.

Это вызвало интерес к предмету с новыми теоретическими (например, вычисление ближайшей корреляционной матрицы с факторной структурой) и численными (например, использование метода Ньютона для вычисления ближайшей корреляционной матрицы) результатами, полученными в последующие годы.

Некоррелированность и независимость случайных процессов

Аналогично для двух случайных процессов и: Если они независимы, то они некоррелированы. Противоположное этому утверждению может быть неверным. Даже если две переменные не коррелированы, они могут не быть независимыми друг от друга. { Икс т } т Т {\ displaystyle \ left \ {X_ {t} \ right \} _ {t \ in {\ mathcal {T}}}} { Y т } т Т {\ displaystyle \ left \ {Y_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}

Распространенные заблуждения

Корреляция и причинно-следственная связь

Основная статья: Корреляция не подразумевает причинно-следственной связи См. Также: Нормально распределенные и некоррелированные не подразумевают независимых

Традиционное изречение, что « корреляция не подразумевает причинной связи », означает, что корреляция не может использоваться сама по себе для вывода причинной связи между переменными. Это изречение не должно означать, что корреляции не могут указывать на потенциальное существование причинно-следственных связей. Однако причины, лежащие в основе корреляции, если таковые имеются, могут быть косвенными и неизвестными, а высокие корреляции также пересекаются с отношениями идентичности ( тавтологиями ), где не существует причинного процесса. Следовательно, корреляция между двумя переменными не является достаточным условием для установления причинно-следственной связи (в любом направлении).

Корреляция между возрастом и ростом у детей довольно прозрачна с точки зрения причинно-следственной связи, но корреляция между настроением и здоровьем людей менее очевидна. Приводит ли улучшение настроения к улучшению здоровья, или хорошее здоровье приводит к хорошему настроению, или и то, и другое? Или в основе обоих лежит какой-то другой фактор? Другими словами, корреляция может рассматриваться как свидетельство возможной причинной связи, но не может указывать на то, какой может быть причинная связь, если таковая имеется.

Простые линейные корреляции

Четыре набора данных с одинаковой корреляцией 0,816

Коэффициент корреляции Пирсона указывает на силу линейной связи между двумя переменными, но его значение, как правило, не полностью характеризует их взаимосвязь. В частности, если условное среднее из дано, обозначается, не является линейным в, коэффициент корреляции будет не в полной мере определить форму. Y {\ displaystyle Y} Икс {\ displaystyle X} E ( Y Икс ) {\ displaystyle \ operatorname {E} (Y \ mid X)} Икс {\ displaystyle X} E ( Y Икс ) {\ displaystyle \ operatorname {E} (Y \ mid X)}

Прилегающие изображение показывает разброс участков из квартет энскомбы, набор из четырех различных пар переменных, созданный Фрэнсис Анскомбами. Четыре переменные имеют одинаковое среднее значение (7,5), дисперсию (4,12), корреляцию (0,816) и линию регрессии ( y  = 3 + 0,5 x). Однако, как видно на графиках, распределение переменных сильно отличается. Первый (вверху слева), кажется, распределен нормально и соответствует тому, что можно было бы ожидать, рассматривая две коррелированные переменные и следуя предположению о нормальности. Второй (вверху справа) не распространяется нормально; хотя можно наблюдать очевидную взаимосвязь между двумя переменными, она не является линейной. В этом случае коэффициент корреляции Пирсона не указывает на то, что существует точная функциональная взаимосвязь: только степень, в которой эта взаимосвязь может быть аппроксимирована линейной зависимостью. В третьем случае (внизу слева) линейная зависимость идеальна, за исключением одного выброса, который оказывает достаточное влияние, чтобы снизить коэффициент корреляции с 1 до 0,816. Наконец, четвертый пример (внизу справа) показывает другой пример, когда одного выброса достаточно для получения высокого коэффициента корреляции, даже если связь между двумя переменными не является линейной. у {\ displaystyle y}

Эти примеры показывают, что коэффициент корреляции как сводная статистика не может заменить визуальный анализ данных. Иногда говорят, что примеры демонстрируют, что корреляция Пирсона предполагает, что данные следуют нормальному распределению, но это верно лишь отчасти. Корреляцию Пирсона можно точно рассчитать для любого распределения, имеющего конечную матрицу ковариаций, которая включает большинство распределений, встречающихся на практике. Однако коэффициент корреляции Пирсона (вместе с выборочным средним и дисперсией) является достаточной статистикой только в том случае, если данные взяты из многомерного нормального распределения. В результате коэффициент корреляции Пирсона полностью характеризует взаимосвязь между переменными тогда и только тогда, когда данные взяты из многомерного нормального распределения.

Двумерное нормальное распределение

Если пара случайных величин подчиняется двумерному нормальному распределению, условное среднее является линейной функцией от, а условное среднее является линейной функцией от. Коэффициент корреляции между и, наряду с предельными средними и дисперсиями и, определяет эту линейную зависимость: ( Икс , Y ) {\ displaystyle (X, Y)} E ( Икс Y ) {\ displaystyle \ operatorname {E} (X \ mid Y)} Y {\ displaystyle Y} E ( Y Икс ) {\ displaystyle \ operatorname {E} (Y \ mid X)} Икс {\ displaystyle X} ρ Икс , Y {\ displaystyle \ rho _ {X, Y}} Икс {\ displaystyle X} Y {\ displaystyle Y} Икс {\ displaystyle X} Y {\ displaystyle Y}

E ( Y Икс ) знак равно E ( Y ) + ρ Икс , Y σ Y Икс - E ( Икс ) σ Икс , {\ displaystyle \ operatorname {E} (Y \ mid X) = \ operatorname {E} (Y) + \ rho _ {X, Y} \ cdot \ sigma _ {Y} {\ frac {X- \ operatorname {E } (X)} {\ sigma _ {X}}},}

где и - ожидаемые значения и, соответственно, и и - стандартные отклонения и, соответственно. E ( Икс ) {\ displaystyle \ operatorname {E} (X)} E ( Y ) {\ displaystyle \ operatorname {E} (Y)} Икс {\ displaystyle X} Y {\ displaystyle Y} σ Икс {\ displaystyle \ sigma _ {X}} σ Y {\ displaystyle \ sigma _ {Y}} Икс {\ displaystyle X} Y {\ displaystyle Y}

Стандартная ошибка

Если и являются случайными величинами, стандартная ошибка связана с корреляцией: Икс {\ displaystyle x} у {\ displaystyle y}

S E р знак равно 1 - р 2 ( п - 2 ) {\ displaystyle SE_ {r} = {\ frac {1-r ^ {2}} {\ sqrt {(n-2)}}}}

где - корреляция и количество отсчетов. р {\ displaystyle r} п {\ displaystyle n}

Смотрите также

Дополнительная информация: Корреляция (значения)

использованная литература

дальнейшее чтение

  • Cohen, J.; Cohen P.; Уэст, С.Г. и Эйкен, Л.С. (2002). Применил множественный регрессионный / корреляционный анализ для поведенческих наук (3-е изд.). Психология Press. ISBN   978-0-8058-2223-6.
  • «Корреляция (в статистике)», Математическая энциклопедия, EMS Press, 2001 [1994]
  • Острейхер, Дж. И Д.Р. (26 февраля 2015 г.). Plague of Equals: научный триллер о международных болезнях, политике и открытиях лекарств. Калифорния: Omega Cat Press. п. 408. ISBN   978-0963175540.

внешние ссылки

Последняя правка сделана 2023-03-29 08:50:05
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте