Корреляция и зависимость

редактировать
Статистическая концепция Несколько наборов точек (x, y) с коэффициентом корреляции Пирсона x и y для каждой задавать. Корреляция отражает шумность и направление линейной связи (верхний ряд), но не наклон этой связи (середина) и многие аспекты нелинейных отношений (внизу). NB: фигура в центре имеет наклон 0, но в этом случае коэффициент корреляции не определен, потому что дисперсия Y равна нулю.

В статистике, корреляция или зависимость - это любая статистическая взаимосвязь, причинная или нет, между двумя случайными величинами или двумерными данными. В самом широком смысле корреляция - это любая статистическая ассоциация, хотя обычно она относится к степени, в которой пара переменных линейно связана. Знакомые примеры зависимых явлений включают корреляцию между ростом родителей и их потомков, а также корреляцию между ценой товара и количеством, которое потребители готовы купить, как это изображено в так так называемая кривая спроса.

Корреляции полезны, потому что они могут указывать на прогнозирующую взаимосвязь, которую можно использовать на практике. Например, электроэнергетическая компания может производить меньше электроэнергии в мягкий день из-за корреляции между спросом на электроэнергию и погодой. В этом примере существует причинно-следственная связь, потому что экстремальные погодные условия заставляют людей использовать больше электроэнергии для обогрева или охлаждения. Однако, как правило, наличия корреляции недостаточно, чтобы сделать вывод о наличии причинно-следственной связи (т. Е. корреляция не подразумевает причинную связь ).

Формально случайные величины являются зависимыми, если они не удовлетворяют математическому свойству вероятностной независимости. Выражаясь неформальным языком, корреляция является синонимом зависимости. Однако при использовании в техническом смысле корреляция относится к любому из нескольких конкретных типов математических операций между тестируемыми переменными и их соответствующими ожидаемыми значениями. По сути, корреляция - это мера того, как две или более переменных связаны друг с другом. Существует несколько коэффициентов корреляции, часто обозначаемых ρ {\ displaystyle \ rho}\rho или r {\ displaystyle r}r, измеряющих степень корреляции. Наиболее распространенным из них является коэффициент корреляции Пирсона, который чувствителен только к линейной зависимости между двумя переменными (которая может присутствовать, даже если одна переменная является нелинейной функцией другой). Другие коэффициенты корреляции, такие как ранговая корреляция Спирмена, были разработаны так, чтобы быть более надежными, чем коэффициенты Пирсона, то есть более чувствительными к нелинейным отношениям. Взаимная информация также может применяться для измерения зависимости между двумя переменными.

Содержание

  • 1 Коэффициент произведения-момента Пирсона
    • 1.1 Определение
    • 1.2 Свойство симметрии
    • 1.3 Корреляция и независимость
    • 1.4 Выборочный коэффициент корреляции
  • 2 Пример
  • 3 Ранговые коэффициенты корреляции
  • 4 Другие меры зависимости между случайными величинами
  • 5 Чувствительность к распределению данных
  • 6 Корреляционные матрицы
  • 7 Некоррелированность и независимость случайных процессов
  • 8 Распространенные заблуждения
    • 8.1 Корреляция и причинная связь
    • 8.2 Простые линейные корреляции
  • 9 Двумерное нормальное распределение
  • 10 См. Также
  • 11 Ссылки
  • 12 Дополнительная литература
  • 13 Внешние ссылки

Коэффициент произведения-момента Пирсона

Примеры диаграмм рассеяния различные наборы данных с различными коэффициентами корреляции.

Определение

Наиболее известной мерой зависимости между двумя величинами является коэффициент корреляции продукта-момента Пирсона (PPMCC), или «коэффициент корреляции Пирсона», обычно называемый просто "коэффициент корреляции fficient ". Математически это определяется как качество подгонки наименьших квадратов к исходным данным. Он получается путем принятия отношения ковариации двух рассматриваемых переменных в нашем наборе числовых данных, нормированного на квадратный корень из их дисперсий. С математической точки зрения, можно просто разделить ковариацию двух переменных на произведение их стандартных отклонений. Карл Пирсон разработал коэффициент на основе похожей, но немного другой идеи, предложенной Фрэнсисом Гальтоном.

Коэффициент корреляции произведения-момента Пирсона пытается установить линию наилучшего соответствия на основе набора данных двух переменных по существу Отображение ожидаемых значений и результирующего коэффициента корреляции Пирсона указывает, насколько далеко фактический набор данных находится от ожидаемых значений. В зависимости от знака коэффициента корреляции нашего Пирсона мы можем получить либо отрицательную, либо положительную корреляцию, если существует какая-либо связь между переменными нашего набора данных.

Коэффициент корреляции населения ρ X, Y {\ displaystyle \ rho _ {X, Y}}{\displaystyle \rho _{X,Y}}между двумя случайными величинами X { \ displaystyle X}Xи Y {\ displaystyle Y}Yс ожидаемыми значениями μ X {\ displaystyle \ mu _ {X}}\mu _{X}и μ Y {\ displaystyle \ mu _ {Y}}{\displaystyle \mu _{Y}}и стандартные отклонения σ X {\ displaystyle \ sigma _ {X }}\sigma _{X}и σ Y {\ displaystyle \ sigma _ {Y}}\sigma_Yопределяется как

ρ X, Y = corr ⁡ (X, Y) = cov ⁡ (Икс, Y) σ Икс σ Y знак равно Е ⁡ [(X - μ X) (Y - μ Y)] σ X σ Y {\ Displaystyle \ rho _ {X, Y} = \ operatorname {corr} (X, Y) = {\ operatorname {cov} (X, Y) \ over \ sigma _ {X} \ sigma _ {Y}} = {\ operatorname {E} [(X- \ mu _ {X}) (Y - \ mu _ {Y})] \ over \ sigma _ {X} \ sigma _ {Y}}}{\displaystyle \rho _{X,Y}=\operatorname {corr} (X,Y)={\operatorname {cov} (X,Y) \over \sigma _{X}\sigma _{Y}}={\operatorname {E} [(X-\mu _{X})(Y-\mu _{Y})] \over \sigma _{X}\sigma _{Y}}}

где E {\ displaystyle \ operatorname {E}}\operatorname {E} - это ожидаемое значение оператор, cov {\ displaystyle \ operatorname {cov}}\operatorname {cov} означает ковариацию, а corr {\ displaystyle \ operatorname {corr }}\operatorname {corr}- широко используемое альтернативное обозначение коэффициента корреляции. Корреляция Пирсона определяется, только если оба стандартных отклонения конечны и положительны. Альтернативная формула исключительно в терминах моментов:

ρ X, Y = E ⁡ (XY) - E ⁡ (X) E ⁡ (Y) E ⁡ (X 2) - E ⁡ (X) 2 ⋅ E ⁡ ( Y 2) - Е ⁡ (Y) 2 {\ displaystyle \ rho _ {X, Y} = {\ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y) \ over {\ sqrt {\ operatorname {E} (X ^ {2}) - \ operatorname {E} (X) ^ {2}}} \ cdot {\ sqrt {\ operatorname {E} (Y ^ {2}) - \ operatorname {E} (Y) ^ {2}}}}}{\displaystyle \rho _{X,Y}={\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y) \over {\sqrt {\operatorname {E} (X^{2})-\operatorname {E} (X)^{2}}}\cdot {\sqrt {\operatorname {E} (Y^{2})-\operatorname {E} (Y)^{2}}}}}

Свойство симметрии

Коэффициент корреляции симметричный: corr ⁡ (X, Y) = corr ⁡ (Y, X) {\ displaystyle \ operatorname {corr} (X, Y) = \ operatorname {corr} (Y, X)}{\displaystyle \operatorname {corr} (X,Y)=\operatorname {corr} (Y,X)}. Это подтверждается коммутативным свойством умножения.

Корреляция и независимость

Следствием неравенства Коши – Шварца является то, что абсолютное значение коэффициента корреляции Пирсона не превышает 1. Следовательно, значение коэффициента корреляции находится в диапазоне от -1 до +1. Коэффициент корреляции равен +1 в случае идеальной прямой (возрастающей) линейной зависимости (корреляции), -1 в случае идеальной обратной (убывающей) линейной зависимости (антикорреляция ) и некоторое значение в открытый интервал (- 1, 1) {\ displaystyle (-1,1)}(-1,1)во всех остальных случаях, указывающий на степень линейной зависимости между переменными. По мере приближения к нулю взаимосвязь уменьшается (ближе к некоррелированной). Чем ближе коэффициент к -1 или 1, тем сильнее корреляция между переменными.

Если переменные независимы, коэффициент корреляции Пирсона равен 0, но обратное неверно, поскольку коэффициент корреляции обнаруживает только линейные зависимости между двумя переменными.

X, Y независимый ⇒ ρ X, Y = 0 (X, Y некоррелированный) ρ X, Y = 0 (X, Y некоррелированный) ⇏ X, Y независимый {\ displaystyle {\ begin {выровненный} X, Y { \ text {independent}} \ quad \ Rightarrow \ quad \ rho _ {X, Y} = 0 \ quad (X, Y {\ text {uncorrelated}}) \\\ rho _ {X, Y} = 0 \ quad (X, Y {\ text {uncorrelated}}) \ quad \ nRightarrow \ quad X, Y {\ text {independent}} \ end {выравнивается}}}{\displaystyle {\begin{aligned}X,Y{\text{ independent}}\quad \Rightarrow \quad \rho _{X,Y}=0\quad (X,Y{\text{ uncorrelated}})\\\rho _{X,Y}=0\quad (X,Y{\text{ uncorrelated}})\quad \nRightarrow \quad X,Y{\text{ independent}}\end{aligned}}}

Например, предположим, что случайная величина X {\ displaystyle X}Xсимметрично распределено относительно нуля, а Y = X 2 {\ displaystyle Y = X ^ {2}}{\displaystyle Y=X^{2}}. Тогда Y {\ displaystyle Y}Yполностью определяется X {\ displaystyle X}X, так что X {\ displaystyle X}Xи Y {\ displaystyle Y}Yполностью зависимы, но их корреляция равна нулю; они некоррелированы. Однако в особом случае, когда X {\ displaystyle X}Xи Y {\ displaystyle Y}Yявляются вместе нормально, некоррелированность эквивалент независимости.

Несмотря на то, что некоррелированные данные не обязательно подразумевают независимость, можно проверить независимость случайных величин, если их взаимная информация равна 0.

Выборочный коэффициент корреляции

Дана серия измерений n {\ displaystyle n}nпары (X i, Y i) {\ displaystyle (X_ {i}, Y_ {i})}{\displaystyle (X_{i},Y_{i})}проиндексировано по i = 1,…, n {\ displaystyle i = 1, \ ldots, n}i=1,\ldots,n, коэффициент корреляции выборки может использоваться для оценки корреляции Пирсона для совокупности ρ X, Y {\ displaystyle \ rho _ {X, Y}}{\displaystyle \rho _{X,Y}}между X {\ displaystyle X}Xи Y {\ displaystyle Y }Y. Коэффициент корреляции выборки определяется как

rxy = def ∑ i = 1 n (xi - x ¯) (yi - y ¯) (n - 1) sxsy = ∑ i = 1 n (xi - x ¯) (yi - y ¯) ∑ я знак равно 1 N (xi - x ¯) 2 ∑ я = 1 n (yi - y ¯) 2, {\ displaystyle r_ {xy} \ quad {\ overset {\ underset {\ mathrm {def} } {}} {=}} \ quad {\ frac {\ sum \ limits _ {i = 1} ^ {n} (x_ {i} - {\ bar {x}}) (y_ {i} - {\ bar {y}})} {(n-1) s_ {x} s_ {y}}} = {\ frac {\ sum \ limits _ {i = 1} ^ {n} (x_ {i} - {\ bar {x}}) (y_ {i} - {\ bar {y}})} {\ sqrt {\ sum \ limits _ {i = 1} ^ {n} (x_ {i} - {\ bar {x }}) ^ {2} \ sum \ limits _ {i = 1} ^ {n} (y_ {i} - {\ bar {y}}) ^ {2}}}},}{\displaystyle r_{xy}\quad {\overset {\underset {\mathrm {def} }{}}{=}}\quad {\frac {\sum \limits _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{(n-1)s_{x}s_{y}}}={\frac {\sum \limits _{i=1}^{n}(x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sqrt {\sum \limits _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\sum \limits _{i=1}^{n}(y_{i}-{\bar {y}})^{2}}}},}

где x ¯ {\ displaystyle {\ overline {x}}}{\overline {x}}и y ¯ {\ displaystyle {\ overline {y}}}{\overline {y}}- это образец означает из X {\ displaystyle X}Xи Y {\ displaystyle Y}Yи sx {\ displaystyle s_ {x}}s_{x}и sy {\ displaystyle s_ {y}}s_{y}- скорректированные стандартные отклонения выборки из X {\ displaystyle X}Xи Y {\ displaystyle Y}Y.

Эквивалентное выражение Эсси для rxy {\ displaystyle r_ {xy}}r_{xy}равны

rxy = ∑ xiyi - nx ¯ y ¯ nsx ′ sy ′ = n ∑ xiyi - ∑ xi ∑ yin ∑ xi 2 - (∑ xi) 2 n ∑ yi 2 - (∑ yi) 2. {\ displaystyle {\ begin {align} r_ {xy} = {\ frac {\ sum x_ {i} y_ {i} -n {\ bar {x}} {\ bar {y}}} {ns'_ {x} s '_ {y}}} \\ [5pt] = {\ frac {n \ sum x_ {i} y_ {i} - \ sum x_ {i} \ sum y_ {i}} {{\ sqrt {n \ sum x_ {i} ^ {2} - (\ sum x_ {i}) ^ {2}}} ~ {\ sqrt {n \ sum y_ {i} ^ {2} - (\ sum y_ { i}) ^ {2}}}}}. \ end {align}}}{\displaystyle {\begin{aligned}r_{xy}={\frac {\sum x_{i}y_{i}-n{\bar {x}}{\bar {y}}}{ns'_{x}s'_{y}}}\\[5pt]={\frac {n\sum x_{i}y_{i}-\sum x_{i}\sum y_{i}}{{\sqrt {n\sum x_{i}^{2}-(\sum x_{i})^{2}}}~{\sqrt {n\sum y_{i}^{2}-(\sum y_{i})^{2}}}}}.\end{aligned}}}

где sx ′ {\ displaystyle s '_ {x}}{\displaystyle s'_{x}}и sy ′ {\ displaystyle s '_ {y}}{\displaystyle s'_{y}}- нескорректированные стандартные отклонения выборки из X {\ displaystyle X}Xи Y { \ displaystyle Y}Y.

Если x {\ displaystyle x}xи y {\ displaystyle y}yявляются результатами измерений, которые содержат ошибку измерения, реалистичный ограничения на коэффициент корреляции не от -1 до +1, а в меньшем диапазоне. Для случая линейной модели с одной независимой переменной коэффициент детерминации (R в квадрате) является квадратом rxy {\ displaystyle r_ {xy}}r_{xy}, Коэффициент произведения-момента Пирсона.

Пример

Рассмотрим совместное распределение вероятностей X {\ displaystyle X}Xи Y {\ displaystyle Y}Yприведено в таблице ниже.

п ⁡ (X = x, Y = y) {\ displaystyle \ operatorname {P} (X = x, Y = y)}{\displaystyle \operatorname {P} (X=x,Y=y)}y = - 1 {\ displaystyle y = -1}y=-1y = 0 {\ displaystyle y = 0}y=0y = 1 {\ displaystyle y = 1}y=1
x = 0 {\ displaystyle x = 0}x=00 {\ displaystyle 0}{\displaystyle 0}1 / 3 {\ displaystyle 1/3}1/30 {\ displaystyle 0}{\displaystyle 0}
x = 1 {\ displaystyle x = 1}x=11/3 {\ displaystyle 1/3}1/30 {\ displaystyle 0}{\displaystyle 0}1/3 {\ displaystyle 1/3}1/3

Для этого совместного распределения предельные распределения равны:

P ⁡ (X = x) = {1/3 для x = 0 2/3 для x = 1 {\ displaystyle \ operatorname {P} (X = x) = {\ begin {cases} 1/3 \ quad {\ text {for}} x = 0 \\ 2/3 \ quad {\ text { for}} x = 1 \ end {cases}}}{\displaystyle \operatorname {P} (X=x)={\begin{cases}1/3\quad {\text{for }}x=0\\2/3\quad {\text{for }}x=1\end{cases}}}
P ⁡ (Y = y) = {1/3 для y = - 1 1/3 для y = 0 1/3 для y = 1 {\ displaystyle \ operatorname {P} (Y = y) = {\ begin {cases} 1/3 \ quad {\ text {for}} y = -1 \\ 1/3 \ quad {\ text {for}} y = 0 \\ 1/3 \ quad {\ text {for}} y = 1 \ end {cases}}}{\displaystyle \operatorname {P} (Y=y)={\begin{cases}1/3\quad {\text{for }}y=-1\\1/3\quad {\text{for }}y=0\\1/3\quad {\text{for }}y=1\end{cases}}}

Это дает следующие ожидания и отклонения:

μ X = 2/3 {\ displaystyle \ mu _ {X} = 2/3}{\displaystyle \mu _{X}=2/3}
μ Y = 0 {\ displaystyle \ mu _ {Y} = 0}{\displaystyle \mu _{Y}=0}
σ Икс 2 = 2/9 {\ Displaystyle \ sigma _ {X} ^ {2} = 2/9}{\displaystyle \sigma _{X}^{2}=2/9}
σ Y 2 = 2/3 {\ Displaystyle \ sigma _ {Y} ^ {2} = 2/3}{\displaystyle \sigma _{Y}^{2}=2/3}

Следовательно:

ρ X, Y = 1 σ X σ YE ⁡ [(X - μ X) (Y - μ Y)] = 1 σ X σ Y ∑ x, y (x - μ X) (y - μ Y) P ⁡ (X = x, Y = y) = (1 - 2/3) (- 1 - 0) 1 3 + (0 - 2 / 3) (0–0) 1 3 + (1–2/3) (1–0) 1 3 = 0. {\ displaystyle {\ begin {align} \ rho _ {X, Y} = {\ frac { 1} {\ sigma _ {X} \ sigma _ {Y}}} \ operatorname {E} [(X- \ mu _ {X}) (Y- \ mu _ {Y})] \\ [5pt] = {\ frac {1} {\ sigma _ {X} \ sigma _ {Y}}} \ sum _ {x, y} {(x- \ mu _ {X}) (y- \ mu _ {Y}) \ operatorname {P} (X = x, Y = y)} \\ [5pt] = (1-2 / 3) (- 1-0) {\ frac {1} {3}} + (0- 2/3) (0-0) {\ frac {1} {3}} + (1-2 / 3) (1-0) {\ frac {1} {3}} = 0. \ end {выровнено} }}{\displaystyle {\begin{aligned}\rho _{X,Y}={\frac {1}{\sigma _{X}\sigma _{Y}}}\operatorname {E} [(X-\mu _{X})(Y-\mu _{Y})]\\[5pt]={\frac {1}{\sigma _{X}\sigma _{Y}}}\sum _{x,y}{(x-\mu _{X})(y-\mu _{Y})\operatorname {P} (X=x,Y=y)}\\[5pt]=(1-2/3)(-1-0){\frac {1}{3}}+(0-2/3)(0-0){\frac {1}{3}}+(1-2/3)(1-0){\frac {1}{3}}=0.\end{aligned} }}

Коэффициенты ранговой корреляции

Коэффициенты ранговой корреляции, такие как коэффициент ранговой корреляции Спирмена и коэффициент ранговой корреляции Кендалла (τ) измеряют степень, в которой, по мере увеличения одной переменной другая переменная имеет тенденцию к увеличению, не требуя этого увеличения должны быть представлены линейной зависимостью. Если по мере увеличения одной переменной другая уменьшается, коэффициенты ранговой корреляции будут отрицательными. Обычно эти коэффициенты ранговой корреляции рассматриваются как альтернативы коэффициенту Пирсона, используемому либо для уменьшения объема вычислений, либо для того, чтобы сделать коэффициент менее чувствительным к ненормальности в распределениях. Однако у этого взгляда мало математического обоснования, поскольку коэффициенты ранговой корреляции измеряют другой тип взаимосвязи, чем коэффициент корреляции продукта-момента Пирсона, и их лучше всего рассматривать как меры другого типа ассоциации, а не как альтернативный показатель коэффициента корреляции населения.

Чтобы проиллюстрировать природу ранговой корреляции и ее отличие от линейной корреляции, рассмотрим следующие четыре пары чисел (x, y) {\ displaystyle (x, y)}(x,y):

(0, 1), (10, 100), (101, 500), (102, 2000).

При переходе от каждой пары к следующей паре x {\ displaystyle x}xувеличивается, как и y {\ displaystyle y}y. Эта связь идеальна в том смысле, что увеличение x {\ displaystyle x}xвсегда сопровождается увеличением y {\ displaystyle y}y. Это означает, что у нас есть идеальная ранговая корреляция, и коэффициенты корреляции Спирмена и Кендалла равны 1, тогда как в этом примере коэффициент корреляции произведение-момент Пирсона равен 0,7544, что указывает на то, что точки находятся далеко от прямой линии. Таким же образом, если y {\ displaystyle y}yвсегда уменьшается, когда x {\ displaystyle x}xувеличивается, коэффициенты ранговой корреляции будут равны -1, а коэффициент корреляции произведение-момент Пирсона может быть или не быть близким к -1, в зависимости от того, насколько близки точки к прямой. Хотя в крайних случаях идеальной ранговой корреляции оба коэффициента равны (оба +1 или оба -1), обычно это не так, и поэтому значения двух коэффициентов не могут быть осмысленно сравнены. Например, для трех пар (1, 1) (2, 3) (3, 2) коэффициент Спирмена равен 1/2, а коэффициент Кендалла равен 1/3.

Другие меры зависимости между случайными величинами

Информация, предоставляемая коэффициентом корреляции, недостаточна для определения структуры зависимости между случайными величинами. Коэффициент корреляции полностью определяет структуру зависимости только в очень частных случаях, например, когда распределение является многомерным нормальным распределением . (См. Диаграмму выше.) В случае эллиптических распределений он характеризует (гипер-) эллипсы одинаковой плотности; однако он не полностью характеризует структуру зависимости (например, многомерное t-распределение , степени свободы определяют уровень хвостовой зависимости).

Корреляция расстояния была введена для устранения недостатка корреляции Пирсона, заключающейся в том, что она может быть нулевой для зависимых случайных величин; корреляция нулевого расстояния подразумевает независимость.

Рандомизированный коэффициент зависимости - это эффективная с вычислительной точки зрения мера зависимости между многомерными случайными величинами, основанная на копуле. RDC инвариантен по отношению к нелинейным вычислениям случайных величин, способен обнаруживать широкий спектр функциональных паттернов ассоциации и принимает нулевое значение при независимости.

Для двух двоичных переменных отношение шансов измеряет их зависимость и принимает диапазон неотрицательных чисел, возможно бесконечность: [0, + ∞] {\ displaystyle [0, + \ infty]}{\displaystyle [0,+\infty ]}. Связанная статистика, такая как Y Юла и Q Юла, нормализует это до корреляционного диапазона [- 1, 1] {\ displaystyle [-1,1]}[-1, 1]. Отношение шансов обобщается с помощью логистической модели для моделирования случаев, когда зависимые переменные являются дискретными и могут быть одна или несколько независимых переменных.

коэффициент корреляции, энтропийный взаимная информация, общая корреляция, двойная общая корреляция и полихорическая корреляция также способны обнаруживать более общие зависимости, как и рассмотрение связки между ними, в то время как коэффициент детерминации обобщает корреляцию коэффициент к множественной регрессии.

Чувствительность к распределению данных

Степень зависимости между переменными X {\ displaystyle X}Xи Y {\ displaystyle Y}Yне зависит от масштаба, в котором выражены переменные. То есть, если мы анализируем взаимосвязь между X {\ displaystyle X}Xи Y {\ displaystyle Y}Y, на большинство показателей корреляции преобразование X {\ displaystyle X}Xдо a + bX и Y {\ displaystyle Y}Yдо c + dY, где a, b, c и d - константы (b и d положительные). Это верно как для некоторых статистических данных по корреляции, так и для их популяционных аналогов. Некоторые статистические данные корреляции, такие как коэффициент ранговой корреляции, также инвариантны для монотонных преобразований предельных распределений X {\ displaystyle X}Xи / или Y {\ displaystyle Y}Y.

Пирсон / Spearman коэффициенты корреляции между X {\ displaystyle X}Xи Y {\ displaystyle Y}Yотображаются, когда диапазоны двух переменных не ограничены, и когда диапазон X {\ displaystyle X}Xограничен интервалом (0,1).

Большинство Меры корреляции чувствительны к способу выборки X {\ displaystyle X}Xи Y {\ displaystyle Y}Y. Зависимости становятся сильнее, если рассматривать их в более широком диапазоне значений. Таким образом, если мы рассмотрим коэффициент корреляции между ростом отцов и их сыновей по всем взрослым мужчинам и сравним его с тем же коэффициентом корреляции, вычисленным, когда отцы выбраны ростом от 165 до 170 см, корреляция будет слабее в последнем случае. Было разработано несколько методов, которые пытаются исправить ограничение диапазона в одной или обеих переменных, и обычно используются в метаанализе; наиболее распространенными являются уравнения Торндайка для случая II и случая III.

Различные используемые меры корреляции могут быть неопределенными для некоторых совместных распределений X и Y. Например, коэффициент корреляции Пирсона определяется в терминах моменты, и, следовательно, будет неопределенным, если моменты не определены. Всегда определяются показатели зависимости на основе квантилей . Статистика на основе выборки, предназначенная для оценки показателей зависимости совокупности, может иметь или не иметь желательные статистические свойства, такие как несмещенная или асимптотическая согласованность, в зависимости от пространственной структуры совокупности, из которой данные были отобраны.

Чувствительность к распределению данных может быть использована с пользой. Например, масштабированная корреляция предназначена для использования чувствительности к диапазону, чтобы выбрать корреляции между быстрыми компонентами временного ряда. Контролируемое сокращение диапазона значений позволяет отфильтровать корреляции в долгой шкале времени, и выявляются только корреляции в короткой шкале времени.

Корреляционные матрицы

Корреляционная матрица n {\ displaystyle n}nслучайных величин X 1,…, X n {\ displaystyle X_ { 1}, \ ldots, X_ {n}}X_{1},\ldots,X_{n}- это матрица n × n {\ displaystyle n \ times n}n\times n, (i, j) { \ displaystyle (i, j)}(i,j)запись: corr ⁡ (X i, X j) {\ displaystyle \ operatorname {corr} (X_ {i}, X_ {j})}{\displaystyle \operatorname {corr} (X_{i},X_ {j})}. Если используемые меры корреляции являются коэффициентами продукта-момента, матрица корреляции такая же, как ковариационная матрица для стандартизованных случайных величин X i / σ (X i) {\ displaystyle X_ {i} / \ sigma (X_ {i})}{\disp laystyle X_{i}/\sigma (X_{i})}для i = 1,…, n {\ displaystyle i = 1, \ dots, n}i=1,\dots,n. Это применимо как к матрице корреляций совокупности (в этом случае σ {\ displaystyle \ sigma}\sigma - стандартное отклонение совокупности), так и к матрице корреляций выборки (в этом случае σ {\ displaystyle \ sigma}\sigma обозначает стандартное отклонение выборки). Следовательно, каждая обязательно является положительно-полуопределенной матрицей. Более того, корреляционная матрица строго положительно определена, если ни одна переменная не может иметь все свои значения, точно сгенерированные как линейная функция значений других.

Матрица корреляции симметрична, поскольку корреляция между X i {\ displaystyle X_ {i}}X_{i}и X j {\ displaystyle X_ {j}}X_{j}совпадает с корреляцией между X j {\ displaystyle X_ {j}}X_{j}и X i {\ displaystyle X_ {i}}X_{i}.

матрицей корреляции появляется, например, в одной формуле для коэффициента множественной детерминации, меры согласия в множественной регрессии.

В статистическом моделировании, корреляционные матрицы, представляющие отношения между переменными подразделяются на различные структуры корреляции, которые различаются такими факторами, как количество параметров, необходимых для их оценки. Например, в заменяемой корреляционной матрице все пары переменных моделируются как имеющие одинаковую корреляцию, поэтому все недиагональные элементы матрицы равны друг другу. С другой стороны, авторегрессионная матрица часто используется, когда переменные представляют собой временной ряд, поскольку корреляции, вероятно, будут больше, когда измерения ближе по времени. Другие примеры включают независимый, неструктурированный, M-зависимый и Toeplitz.

Некоррелированность и независимость случайных процессов

Аналогично для двух случайных процессов {X t} t ∈ T {\ displaystyle \ left \ {X_ {t} \ right \} _ { t \ in {\ mathcal {T}}}}{\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}}и {Y t} t ∈ T {\ displaystyle \ left \ {Y_ {t} \ right \} _ {t \ in { \ mathcal {T}}}}{\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}}: если они независимы, то они некоррелированы.

Распространенные заблуждения

Корреляция и причинно-следственная связь

Обычные изложение, что «корреляция не подразумевает причинно-следственную связь » означает, что корреляция не может использоваться сама по себе для вывода причинно-следственной связи между переменными. Это изречение не следует понимать как то, что корреляции не могут указывать на возможное существование причинно-следственных связей. Однако причины, лежащие в основе корреляции, если таковые имеются, могут быть косвенными и неизвестными, а высокие корреляции также перекрываются с отношениями идентичность (тавтологиями ), где причинно-следственный процесс не существует. Следовательно, корреляция между двумя переменными не является достаточным условием для установления причинной связи (в любом направлении).

Корреляция между возрастом и ростом у детей довольно очевидна с точки зрения причинно-следственной связи, но корреляция между настроением и здоровьем людей менее очевидна. Приводит ли улучшение настроения к улучшению здоровья, или хорошее здоровье приводит к хорошему настроению, или и то, и другое? Или в основе обоих лежит какой-то другой фактор? Другими словами, корреляция может рассматриваться как свидетельство возможной причинной связи, но не может указывать на то, какой может быть причинная связь, если таковая имеется.

Простые линейные корреляции

Четыре набора данных с одинаковой корреляцией 0,816

Коэффициент корреляции Пирсона указывает на силу линейной взаимосвязи между двумя переменными, но его значение обычно не полностью характеризует их взаимосвязь. В частности, если условное среднее для Y {\ displaystyle Y}Yзадано X {\ displaystyle X}X, обозначается E ⁡ (Y ∣ X) {\ displaystyle \ operatorname {E} (Y \ mid X)}{\displaystyle \operatorname {E} (Y\mid X)}, не является линейным в X {\ displaystyle X}X, коэффициент корреляции не полностью определяет форму E ⁡ (Y ∣ X) {\ displaystyle \ operatorname {E} (Y \ mid X)}{\displaystyle \operatorname {E} (Y\mid X)}.

На соседнем изображении показаны диаграммы разброса квартет Анскомба, набор из четырех разных пар переменных, созданный Фрэнсисом Анскомб. Четыре переменных y {\ displaystyle y}yимеют одинаковое среднее значение (7,5), дисперсию (4,12), корреляцию (0,816) и линию регрессии (y = 3 + 0,5x). Однако, как видно на графиках, распределение переменных сильно отличается. Первый (вверху слева), кажется, распределен нормально и соответствует тому, что можно было бы ожидать, рассматривая две коррелированные переменные и следуя предположению о нормальности. Второй (вверху справа) не распространяется нормально; Хотя можно наблюдать очевидную связь между двумя переменными, она не является линейной. В этом случае коэффициент корреляции Пирсона не указывает на то, что существует точная функциональная связь: только степень, в которой эта связь может быть аппроксимирована линейной зависимостью. В третьем случае (внизу слева) линейная зависимость идеальна, за исключением одного выброса , который оказывает достаточное влияние, чтобы снизить коэффициент корреляции с 1 до 0,816. Наконец, четвертый пример (внизу справа) показывает другой пример, когда одного выброса достаточно для получения высокого коэффициента корреляции, даже если связь между двумя переменными не является линейной.

Эти примеры показывают, что коэффициент корреляции, как сводная статистика, не может заменить визуальный анализ данных. Иногда говорят, что примеры демонстрируют, что корреляция Пирсона предполагает, что данные следуют нормальному распределению, но это неверно.

Двумерное нормальное распределение

Если пара (X, Y) {\ displaystyle (X, Y)}(X,Y)случайных величин следует двумерному нормальному распределению, условному среднему E ⁡ (X ∣ Y) {\ displaystyle \ operatorname {E} (X \ mid Y)}\operatorname {E}(X\mid Y)является линейной функцией от Y {\ displaystyle Y}Yи условного среднего E ⁡ (Y ∣ X) {\ displaystyle \ operatorname {E} (Y \ mid X)}{\displaystyle \operatorname {E} (Y\mid X)}- линейная функция от X {\ displaystyle X}X. Коэффициент корреляции ρ X, Y {\ displaystyle \ rho _ {X, Y}}{\displaystyle \rho _{X,Y}}между X {\ displaystyle X}Xи Y { \ displaystyle Y}Yвместе с маргинальным средним значением и дисперсией X {\ displaystyle X}Xи Y {\ displaystyle Y}Y, определяет эту линейную зависимость:

E ⁡ (Y ∣ X) = E ⁡ (Y) + ρ X, Y ⋅ σ YX - E ⁡ (X) σ X, {\ displaystyle \ operatorname {E} (Y \ mid X) = \ operatorname {E} (Y) + \ rho _ {X, Y} \ cdot \ sigma _ {Y} {\ frac {X- \ operatorname {E} (X)} {\ sigma _ {X}}},}{\displaystyle \operatorname {E} (Y\mid X)=\operatorname {E} (Y)+\rho _{X,Y}\cdot \sigma _{Y}{\frac {X-\operatorname {E} (X)}{\sigma _{X}}},}

где E ⁡ (X) {\ displaystyle \ operatorname {E} (X)}\operatorname {E}(X)и E ⁡ (Y) {\ displaystyle \ operatorname {E} (Y)}{\displaystyle \operatorname {E} (Y)}- ожидаемые значения для X {\ displaystyle X}Xи Y {\ displaystyle Y} <337.>Yсоответственно, и σ X {\ displaystyle \ sigma _ {X}}\sigma _{X}и σ Y {\ displaystyle \ sigma _ {Y}}\sigma_Y- стандартные отклонения X {\ displaystyle X}Xи Y {\ displaystyle Y}Y, соответственно тивно.

См. Также

  • icon Портал математики

Ссылки

Дополнительная литература

  • Cohen, J.; Cohen P.; Вест, С.Г. Айкен, Л.С. (2002). Применял множественный регрессионный / корреляционный анализ для поведенческих наук (3-е изд.). Психология Press. ISBN 978-0-8058-2223-6.
  • , Энциклопедия математики, EMS Press, 2001 [1994]
  • Oestreicher, J. DR (26 февраля 2015 г.). Plague of Equals: научный триллер о международных болезнях, политике и открытиях лекарств. Калифорния: Omega Cat Press. п. 408. ISBN 978-0963175540.

Внешние ссылки

Искать корреляция или зависимость в Викисловаре, бесплатном словаре.
Викискладе есть материалы, связанные с корреляцией.
Викиверситет имеет учебные ресурсы по корреляции
Последняя правка сделана 2021-05-15 13:08:51
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте