Нормально распределенные и некоррелированные не подразумевают независимость

редактировать

В теории вероятностей, хотя простые примеры показывают, что линейная некоррелированность двух случайных величин, как правило, не подразумевает их независимость, иногда ошибочно полагают, что когда две случайные величины нормально распределены. Эта статья демонстрирует, что предположение о нормальном распределении не имеет таких последствий, хотя многомерное нормальное распределение , включая двумерное нормальное распределение, имеет.

Сказать, что пара (X, Y) {\ displaystyle (X, Y)}(X, Y) случайных величин имеет двумерное нормальное распределение, означает, что каждая линейная комбинация a X + b Y {\ displaystyle aX + bY}{\ displaystyle aX + bY} из X {\ displaystyle X}X и Y {\ displaystyle Y}Y для постоянных (то есть не случайных) коэффициентов a {\ displaystyle a}a и b {\ displaystyle b}b имеет одномерное нормальное распределение. В этом случае, если X {\ displaystyle X}X и Y {\ displaystyle Y}Y не коррелированы, то они независимы. Однако две случайные величины X {\ displaystyle X}X и Y {\ displaystyle Y}Y могут быть распределены вместе так, что каждая из них по отдельности незначительно нормально распределены, и они некоррелированы, но не независимы; примеры приведены ниже.

Содержание
  • 1 Примеры
    • 1.1 Симметричный пример
    • 1.2 Асимметричный пример
    • 1.3 Примеры с поддержкой почти везде в ℝ
  • 2 См. Также
  • 3 Ссылки
Примеры

Симметричный пример

Две нормально распределенные, некоррелированные, но зависимые переменные. Объединенный диапазон X {\ displaystyle X}X и Y {\ displaystyle Y}Y . Темнее означает более высокое значение функции плотности.

Предположим, что X {\ displaystyle X}X имеет нормальное распределение с ожидаемым значением 0 и дисперсией 1. Пусть W {\ displaystyle W}W имеют распределение Радемахера, так что W = 1 {\ displaystyle W = 1}{\ displaystyle W = 1} или W = - 1 {\ displaystyle W = -1}{\ displaystyle W = -1} , каждое с вероятностью 1/2, и предположим, что W {\ displaystyle W}W не зависит от X {\ стиль отображения X}X . Пусть Y = W X {\ displaystyle Y = WX}{\ displaystyle Y = WX} . Тогда

  • X {\ displaystyle X}X и Y {\ displaystyle Y}Y не коррелированы;
  • оба имеют одинаковое нормальное распределение; и
  • X {\ displaystyle X}X и Y {\ displaystyle Y}Y не являются независимыми.

Чтобы увидеть, что X {\ displaystyle X }X и Y {\ displaystyle Y}Y не коррелированы, можно принять во внимание ковариацию cov ⁡ (X, Y) {\ displaystyle \ operatorname {cov} (X, Y)}{\ displaystyle \ operatorname {cov} (X, Y)} : по определению это

cov ⁡ (X, Y) = E ⁡ (XY) - E ⁡ (X) E ⁡ (Y). {\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) - \ operatorname {E} (X) \ operatorname {E} (Y).}{\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) - \ имя оператора {E} (X) \ имя оператора {E} (Y).}

Тогда по определению случайного переменные X {\ displaystyle X}X , Y {\ displaystyle Y}Y и W {\ displaystyle W}W , а также независимость W {\ displaystyle W}W из X {\ displaystyle X}X , один имеет

cov ⁡ (X, Y) = E ⁡ (XY) - 0 = E ⁡ (Икс 2 W) знак равно E ⁡ (X 2) E ⁡ (W) = E ⁡ (X 2) ⋅ 0 = 0. {\ Displaystyle \ OperatorName {cov} (X, Y) = \ OperatorName {E} (XY) -0 = \ operatorname {E} (X ^ {2} W) = \ operatorname {E} (X ^ {2}) \ operatorname {E} (W) = \ operatorname {E} (X ^ { 2}) \ cdot 0 = 0.}{\ displaystyle \ operatorname {cov} (X, Y) = \ operatorname {E} (XY) -0 = \ operatorname {E} (X ^ { 2} W) = \ operatorname {E} (X ^ {2}) \ operatorname {E} (W) = \ operatorname {E} (X ^ {2}) \ cdot 0 = 0.}

Чтобы увидеть, что Y {\ displaystyle Y}Y имеет то же нормальное распределение, что и X {\ displaystyle X}X , рассмотрим

Pr (Y ≤ x) = E ⁡ (Pr (Y ≤ x ∣ W)) = Pr (X ≤ x) Pr (W = 1) + Pr (- X ≤ x) Pr (W Знак равно - 1) знак равно Φ (Икс) ⋅ 1 2 + Φ (Икс) ⋅ 1 2 {\ Displaystyle {\ begin {align} \ Pr (Y \ Leq x) {} = \ operatorname {E} (\ Pr ( Y \ leq x \ mid W)) \\ { } = \ Pr (X \ leq x) \ Pr (W = 1) + \ Pr (-X \ leq x) \ Pr (W = -1) \\ {} = \ Phi (x) \ cdot {\ frac {1} {2}} + \ Phi (x) \ cdot {\ frac {1} {2}} \ end {align}}}{\ displaystyle {\ begin {align} \ Pr (Y \ leq x) {} = \ operatorname {E} (\ Pr (Y \ leq x \ mid W)) \\ {} = \ Pr (X \ leq x) \ Pr (W = 1) + \ Pr (-X \ leq x) \ Pr (W = - 1) \\ {} = \ Phi (x) \ cdot {\ frac {1} {2}} + \ Phi (x) \ cdot {\ frac {1} {2}} \ end {align}}}

(поскольку X {\ displaystyle X}X и - X {\ displaystyle -X}{\ displaystyle -X} оба имеют одинаковое нормальное распределение), где Φ (x) {\ displaystyle \ Phi (x)}\ Phi (x) - это кумулятивная функция распределения нормального распределения.

Чтобы увидеть, что X {\ displaystyle X}X и Y {\ displaystyle Y}Y не являются независимыми, обратите внимание, что | Y | = | X | {\ displaystyle | Y | = | X |}{\ displaystyle | Y | = | X |} или что Pr ⁡ (Y>1 | X = 1/2) = Pr ⁡ (X>1 | X = 1/2) = 0 {\ displaystyle \ operatorname {Pr} (Y>1 | X = 1/2) = \ operatorname {Pr} (X>1 | X = 1/2) = 0}{\displaystyle \operatorname {Pr} (Y>1 | X = 1/2) = \ operatorname {Pr} (X>1 | X = 1/2) = 0} .

Наконец, распределение простой линейной комбинации X + Y {\ displaystyle X + Y}X + Y концентрирует положительную вероятность в 0: Pr ⁡ (X + Y = 0) = 1/2 {\ displaystyle \ operatorname {Pr} (X + Y = 0) = 1/2}{\ displaystyle \ operatorname {Pr } (X + Y = 0) = 1/2} . Следовательно случайная величина X + Y {\ displaystyle X + Y}X + Y не имеет нормального распределения, а также X {\ displaystyle X}X и Y {\ displaystyle Y}Y совместно не распределены нормально (по определению выше).

Пример асимметрии

Совместная плотность X {\ displaystyle X}X и Y {\ displaystyle Y}Y . Da rker указывает более высокое значение плотности.

Предположим, что X {\ displaystyle X}X имеет нормальное распределение с ожидаемым значением 0 и дисперсией 1. Пусть

Y = {X, если | X | ≤ c - X, если | X |>с {\ displaystyle Y = \ left \ {{\ begin {matrix} X {\ text {if}} \ left | X \ right | \ leq c \\ - X {\ text {if}} \ left | X \ right |>c \ end {matrix}} \ right.}Y=\left\{\begin{matrix} X \text{if } \left|X\right| \leq c \\ -X \text{if } \left|X\right|>c \ end {matrix} \ right.

где c {\ displaystyle c}c - положительное число, которое необходимо указать ниже. c {\ displaystyle c}c очень мало, тогда correlation corr ⁡ (X, Y) {\ displaystyle \ operatorname {corr} (X, Y)}{\ displaystyle \ operatorname {corr} (X, Y)} находится рядом с - 1 {\ displaystyle -1}-1 , если c {\ displaystyle c}c очень большой, то corr ⁡ (X, Y) {\ displaystyle \ operatorname {corr} (X, Y)}{\ displaystyle \ operatorname {corr} (X, Y)} близко к 1. Поскольку корреляция является непрерывной функцией от c {\ displaystyle c}c , теорема о промежуточном значении предполагает, что существует какое-то конкретное значение c {\ displaystyle c}c , которое делает корреляцию 0. Это значение примерно маты 1.54. В этом случае X {\ displaystyle X}X и Y {\ displaystyle Y}Y некоррелированы, но они явно не независимы, поскольку X {\ displaystyle X}X полностью определяет Y {\ displaystyle Y}Y .

. Чтобы увидеть, что Y {\ displaystyle Y}Y нормально распределен - действительно, его распределение совпадает с распределением X {\ displaystyle X}X - можно вычислить его кумулятивную функцию распределения :

Pr (Y ≤ x) = Pr ({| X | ≤ c и X ≤ x} или {| X |>c и - X ≤ x}) = Pr (| X | ≤ c и X ≤ x) + Pr (| X |>c и - X ≤ x) = Pr (| Икс | ≤ c и X ≤ x) + Pr (| X |>c и X ≤ x) = Pr (X ≤ x), {\ displaystyle {\ begin {align} \ Pr (Y \ Leq x) = \ Pr (\ {| X | \ leq c {\ text {and}} X \ leq x \} {\ text {или}} \ {| X |>c {\ text {and}} - X \ leq x \}) \\ = \ Pr (| X | \ leq c {\ text {and}} X \ leq x) + \ Pr (| X |>c {\ text {and}} - X \ leq x) \\ = \ Pr (| X | \ leq c {\ text {and}} X \ leq x) + \ Pr (| X |>c {\ text {and}} X \ leq x) \\ = \ Pr (X \ leq x), \ end {align}}}{\displaystyle {\begin{aligned}\Pr(Y\leq x)=\Pr(\{|X|\leq c{\text{ and }}X\leq x\}{\text{ or }}\{|X|>c {\ text {and}} - X \ leq x \}) \\ = \ Pr (| X | \ leq c {\ text {and}} X \ leq x) + \ Pr (| X |>c {\ text {and}} - X \ leq x) \\ = \ Pr (| X | \ leq c {\ text {and}} X \ leq x) + \ Pr (| X |>c {\ text {and}} X \ leq x) \\ = \ Pr (X \ leq x), \ end {align}}}

где предпоследнее равенство следует из симметрии распределения X {\ displaystyle X}X и симметрии условия, что | X | ≤ c {\ displaystyle | X | \ leq c}{\ displaystyle | X | \ leq c} .

В этом примере разница X - Y {\ displaystyle XY}{\ displaystyle XY} далека от нормального распределения, поскольку имеет существенное вероятность (около 0,88) того, что она равна 0. Напротив, нормальное распределение, будучи непрерывным распределением, не имеет дискретной части, то есть не концентрирует больше, чем нулевую вероятность в любой отдельной точке. Следовательно, X {\ displaystyle X}X и Y {\ displaystyle Y}Y не являются совместно нормально распределенными, хотя они обычно распределены по отдельности.

Примеры с поддержкой почти везде в ℝ

Хорошо известно, что соотношение C {\ displaystyle C}C двух независимых стандартных нормальных случайных отклонений X i {\ displaystyle X_ {i}}X_ {i} и Y i {\ displaystyle Y_ {i}}Y_ {i} имеет распределение Коши. С таким же успехом можно начать со случайной величины Коши C {\ displaystyle C}C и получить условное распределение Y i {\ displaystyle Y_ {i}}Y_ {i} чтобы удовлетворить требованию, чтобы X i = CY i {\ displaystyle X_ {i} = CY_ {i}}{\ displaystyle X_ {i} = CY_ {i}} с X i {\ displaystyle X_ {i}}X_ {i} и Y i {\ displaystyle Y_ {i}}Y_ {i} независимый и стандартный нормальный. Просчитывая математику, обнаруживаем, что

Y i = W i χ i 2 (k = 2) 1 + C 2 {\ displaystyle Y_ {i} = W_ {i} {\ sqrt {\ frac {\ chi _ { i} ^ {2} \ left (k = 2 \ right)} {1 + C ^ {2}}}}}{\ displaystyle Y_ {i} = W_ {i} {\ sqrt {\ frac {\ chi _ {i} ^ {2} \ left (k = 2 \ right)} {1 + C ^ {2}}}}}

где W i {\ displaystyle W_ {i}}W_ {i} - случайная величина Радемахера, а χ i 2 (k = 2) {\ displaystyle \ chi _ {i} ^ {2} \ left (k = 2 \ right)}{\ displaystyle \ chi _ {i} ^ {2} \ left (k = 2 \ right)} - Хи-квадрат случайная величина с двумя степенями свободы.

Рассмотрим два набора (X i, Y i) {\ displaystyle \ left (X_ {i}, Y_ {i} \ right)}{\ displaystyle \ left (X_ {i}, Y_ {i } \ right)} , i ∈ {1, 2} { \ Displaystyle i \ in \ left \ {1,2 \ right \}}{\ displaystyle i \ in \ left \ {1,2 \ right \}} . Обратите внимание, что C {\ displaystyle C}C не индексируется i {\ displaystyle i}я - то есть той же случайной величиной Коши C { \ displaystyle C}C используется в определении как (X 1, Y 1) {\ displaystyle \ left (X_ {1}, Y_ {1} \ right)}{\ displaystyle \ left (X_ {1}, Y_ {1} \ right)} и (X 2, Y 2) {\ displaystyle \ left (X_ {2}, Y_ {2} \ right)}{\ displaystyle \ left (X_ {2}, Y_ {2} \ right)} . Это совместное использование C {\ displaystyle C}C приводит к зависимостям между индексами: ни X 1 {\ displaystyle X_ {1}}X _ {{ 1}} , ни Y 1 {\ displaystyle Y_ {1}}Y _ {{1}} не зависит от Y 2 {\ displaystyle Y_ {2}}Y _ {{2}} . Тем не менее, все X i {\ displaystyle X_ {i}}X_ {i} и Y i {\ displaystyle Y_ {i}}Y_ {i} не коррелированы, поскольку все двумерные распределения имеют симметрию отражения по осям.

Ненормальные совместные распределения с нормальными краями.

На рисунке показаны диаграммы рассеяния выборок, взятых из вышеуказанного распределения. Это дает два примера двумерных распределений, которые некоррелированы и имеют нормальные предельные распределения, но не являются независимыми. На левой панели показано совместное распределение X 1 {\ displaystyle X_ {1}}X _ {{ 1}} и Y 2 {\ displaystyle Y_ {2}}Y _ {{2}} ; дистрибутив поддерживается везде, но не у истоков. На правой панели показано совместное распределение Y 1 {\ displaystyle Y_ {1}}Y _ {{1}} и Y 2 {\ displaystyle Y_ {2}}Y _ {{2}} ; распределение имеет поддержку везде, кроме осей, и имеет разрыв в начале координат: плотность расходится при приближении к началу координат по любому прямому пути, кроме осей.

См. Также
Ссылки
Последняя правка сделана 2021-05-31 12:40:10
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте