Независимость (теория вероятностей)

редактировать
Термин в теории вероятностей

Независимость - фундаментальное понятие в теории вероятностей, как в статистика и теория случайных процессов.

Два события являются независимыми, статистически независимыми или стохастически независимый, если наличие одного не влияет на вероятность появления другого (эквивалентно, не влияет на шансы ). Точно так же две случайные величины независимы, если реализация одной не влияет на распределение вероятностей другой.

При работе с коллекциями из более чем двух событий необходимо различать слабое и сильное понятие независимости. События называются попарно независимыми, если любые два события в коллекции независимы друг от друга, при этом говорится, что события взаимно независимы (или вместе независимы ) интуитивно означает, что каждое событие не зависит от любой комбинации других событий в коллекции. Аналогичное понятие существует для наборов случайных величин.

Название «взаимная независимость» (то же самое, что «коллективная независимость») кажется результатом педагогического выбора, просто чтобы отличить более сильное понятие от «попарной независимости», которое является более слабым понятием. В современной литературе по теории вероятностей, статистике и случайным процессам более сильное понятие называется просто независимость без модификатора. Он сильнее, поскольку независимость подразумевает попарную независимость, но не наоборот.

Содержание
  • 1 Определение
    • 1.1 Для событий
      • 1.1.1 Два события
      • 1.1.2 Вероятность журнала и информационное содержание
      • 1.1.3 Шансы
      • 1.1.4 Более двух события
    • 1.2 Для вещественных случайных величин
      • 1.2.1 Две случайные величины
      • 1.2.2 Более двух случайных величин
    • 1.3 Для вещественных случайных векторов
    • 1.4 Для случайных процессов
      • 1.4.1 Для одного случайного процесса
      • 1.4.2 Для двух случайных процессов
    • 1.5 Независимые σ-алгебры
  • 2 Свойства
    • 2.1 Самостоятельность
    • 2.2 Ожидание и ковариация
    • 2.3 Характеристическая функция
  • 3 Примеры
    • 3.1 Игра в кости
    • 3.2 Вытягивание карт
    • 3.3 Попарная и взаимная независимость
    • 3.4 Взаимная независимость
  • 4 Условная независимость
    • 4.1 Для событий
    • 4.2 Для случайных величин
  • 5 См. Также
  • 6 Ссылки
  • 7 Внешние ссылки
Определение

Для событий

Два события

Два события A {\ displaystyle A}Aи B {\ displaystyle B}Bнезависимы (часто пишется как A ⊥ B {\ displaystyle A \ perp B}A\perp Bили A ⊥ ⊥ B {\ displaystyle A \ perp \! \! \! \ Perp B }A\perp \!\!\!\perp B) тогда и только тогда, когда их совместная вероятность равна произведению их вероятностей:

P (A ∩ B) = P (A) P (B) {\ displaystyle \ mathrm {P} (A \ cap B) = \ mathrm {P} (A) \ mathrm {P} (B)}\mathrm{P}(A \cap B) = \mathrm{P}(A)\mathrm{P}(B)

(Eq.1)

Почему это определяет независимость, становится ясно, если переписать с помощью условные вероятности :

P (A ∩ B) = P (A) P (B) ⟺ P (A) = P (A ∩ B) P (B) = P (A ∣ B) {\ displaystyle \ mathrm {P} (A \ cap B) = \ mathrm {P} (A) \ mathrm {P} (B) \ iff \ mathrm {P} (A) = {\ frac {\ mathrm {P} (A \ cap B)} {\ mathrm {P} (B)}} = \ mathrm {P} (A \ mid B)}{\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B)\iff \mathrm {P} (A)={\frac {\mathrm {P} (A\cap B)}{\mathrm {P} (B)}}=\mathrm {P} (A\mid B)}.

и аналогично

P (A ∩ B) = P (A) P (B) ⟺ п (В) знак равно п (В ∣ A) {\ Displaystyle \ mathrm {P} (A \ cap B) = \ mathrm {P} (A) \ mathrm {P} (B) \ iff \ mathrm {P} (B) = \ mathrm {P} (B \ mid A)}{\displaystyle \mathrm {P} (A\cap B)=\mathrm {P} (A)\mathrm {P} (B)\iff \mathrm {P} (B)=\mathrm {P} (B\mid A)}.

Таким образом, появление B {\ displaystyle B}Bне влияет на вероятность A { \ Displaystyle A}A, наоборот. Хотя производные выражения могут показаться более интуитивными, они не являются предпочтительным определением, поскольку условные вероятности могут быть неопределенными, если P (A) {\ displaystyle \ mathrm {P} (A)}{\displaystyle \mathrm {P} (A)}или P (B) {\ displaystyle \ mathrm {P} (B)}{\displaystyle \mathrm {P} (B)}равны 0. Кроме того, из предпочтительного определения симметрии ясно, что когда A {\ displaystyle A}Aне зависит от B {\ displaystyle B}B, B {\ displaystyle B}Bтакже не зависит от A {\ displaystyle A}A.

логарифмической вероятности и информационное содержание

Заявленное в терминах логарифмической вероятности, два события являются независимыми тогда и только тогда, когда логарифмическая вероятность совместного события является суммой логарифмической вероятности отдельных событий:

журнал ⁡ п (A ∩ В) знак равно журнал ⁡ п (A) + журнал ⁡ п (B) {\ displaystyle \ log \ mathrm {P} (A \ cap B) = \ log \ mathrm {P} (A) + \ log \ mathrm {P} (B)}{\displaystyle \log \mathrm {P} (A\cap B)=\log \mathrm {P} (A)+\log \mathrm {P} (B)}

В теории информации отрицательная логарифмическая вероятность интерпретируется как информационное содержание, и таким образом, два события независимы тогда и только тогда, когда информационное содержание объединенного события равно сумме информационного содержания отдельных событий:

I (A ∩ B) = I (A) + I (B) {\ displaystyle \ mathrm {I} (A \ cap B) = \ mathrm {I} (A) + \ mathrm {I} (B)}{\displaystyle \mathrm {I} (A\cap B)=\mathrm {I} (A)+\mathrm {I} (B)}

Подробнее см. Информационное содержание § Аддитивность независимых событий.

Коэффициенты

Выраженные в терминах коэффициентов, два события независимы тогда и только тогда, когда отношение шансов из A {\ displaystyle A}Aи B {\ displaystyle B}Bравно единице (1). Аналогично вероятности это эквивалентно тому, что условные шансы равны безусловным:

O (A ∣ B) = O (A) и O (B ∣ A) = O (B), {\ displaystyle O ( A \ mid B) = O (A) {\ text {и}} O (B \ mid A) = O (B),}{\displaystyle O(A\mid B)=O(A){\text{ and }}O(B\mid A)=O(B),}

или к вероятности одного события, учитывая, что другое событие такое же в качестве шансов события, если другое событие не произойдет:

O (A ∣ B) = O (A ∣ ¬ B) и O (B ∣ A) = O (B ∣ ¬ A). {\ displaystyle O (A \ mid B) = O (A \ mid \ neg B) {\ text {and}} O (B \ mid A) = O (B \ mid \ neg A).}{\displaystyle O(A\mid B)=O(A\mid \neg B){\text{ and }}O(B\mid A)=O(B\mid \neg A).}

отношение шансов можно определить как

O (A ∣ B): O (A ∣ ¬ B), {\ displaystyle O (A \ mid B): O (A \ mid \ neg B),}{\displayst yle O(A\mid B):O(A\mid \neg B),}

или симметрично для шансов B {\ displaystyle B}Bпри A {\ displaystyle A}A, и, таким образом, равен 1 тогда и только тогда, когда события независимы.

Более двух событий

Конечный набор событий {A i} i = 1 n {\ displaystyle \ {A_ {i} \} _ {i = 1} ^ {n}}{\displaystyle \{A_{i}\}_{i=1}^{n}}является попарно независимым, если каждая пара событий независима, то есть тогда и только тогда, когда для всех различных пар индексов m, k {\ displaystyle m к}{\displaystyle m,k},

п (A м ∩ A К) знак равно п (A м) P (A k) {\ displaystyle \ mathrm {P} (A_ {m} \ cap A_ {k}) = \ mathrm {P } (A_ {m}) \ mathrm {P} (A_ {k})}{\displaystyle \mathrm {P} (A_{m}\cap A_{k})=\mathrm {P} (A_{m})\mathrm {P} (A_{k})}

(Eq.2)

Конечный набор событий взаимно независимый, если каждое событие не зависит от любое пересечение других событий, то есть, если и только если для каждого k ≤ n {\ displaystyle k \ leq n}k\leq nи для каждого k {\ displaystyle k}k -элементное подмножество событий {B i} i = 1 k {\ displaystyle \ {B_ {i} \} _ {i = 1} ^ {k}}{\displaystyle \{B_{i}\}_{i=1}^{k}}из {A i} i = 1 n {\ displaystyle \ {A_ {i} \} _ {i = 1} ^ {n}}{\displaystyle \{A_{i}\}_{i=1}^{n}},

P (⋂ i = 1 k B i) = ∏ i = 1 К п (В я) {\ Displaystyle \ mathrm {P} \ left (\ bigcap _ {я = 1} ^ {k} B_ {i} \ right) = \ prod _ {i = 1} ^ {k} \ mathrm {P} (B_ {i})}{\displaystyle \mathrm {P} \left(\bigcap _{i=1}^{k}B_{i}\right)=\prod _{i=1}^{k}\mathrm {P} (B_{i})}

(Ур. 3)

Это называется правилом умножения для независимых событий. Обратите внимание, что это не одно условие, включающее только произведение всех вероятностей всех отдельных событий (контрпример см. В ниже); это должно выполняться для всех подмножеств событий.

Для более чем двух событий взаимно независимый набор событий является (по определению) попарно независимым; но обратное не обязательно верно (контрпример см. ниже).

Для случайных величин с действительным знаком

Две случайные величины

Две случайные величины X {\ displaystyle X}Xи Y {\ displaystyle Y}Yявляются независимымитогда и только тогда, когда ( если и е) порожденные ими элементы π-системы независимы; то есть для каждого x {\ displaystyle x}xи y {\ displaystyle y}y, события {X ≤ x} { \ displaystyle \ {X \ leq x \}}{\displaystyle \{X\leq x\}}и {Y ≤ y} {\ displaystyle \ {Y \ leq y \}}{\displaystyle \{Y\leq y\}}являются независимыми событиями (как определено выше в Eq.1). То есть X {\ displaystyle X}Xи Y {\ displaystyle Y}Yс кумулятивными функциями распределения FX (x) {\ displaystyle F_ {X} (x)}F_X(x)и FY (y) {\ displaystyle F_ {Y} (y)}F_Y(y), независимы если и только если комбинированная случайная величина (X, Y) {\ displaystyle (X, Y)}(X,Y)имеет совместную кумулятивную функцию распределения

FX, Y (x, y) = FX (x) FY (y) для всех x, y {\ displaystyle F_ {X, Y} (x, y) = F_ {X} (x) F_ {Y} (y) \ quad {\ text {для всех}} x, y}{\displaystyle F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y)\quad {\text{for all }}x,y}

(Eq.4)

или эквивалентно, если плотности вероятности f X (x) {\ displaystyle f_ {X} ( x)}f_{X}(x)и f Y (y) {\ displaystyle f_ {Y} (y)}f_Y(y)и совместная плотность вероятности f X, Y (x, y) {\ displaystyle f_ {X, Y} (x, y)}f_{{X,Y}}(x,y)существование,

f X, Y (x, y) = f X (x) f Y (y) для всех x, y {\ displaystyle f_ {X, Y} (x, y) = f_ {X} (x) f_ {Y} (y) \ quad {\ text {for all}} x, y}{\displaystyle f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y)\quad {\text{for all }}x,y}.

Подробнее чем две случайные величины

Конечное множество n {\ displaystyle n}nслучайные величины {X 1,…, X n} {\ displaystyle \ {X_ {1}, \ ldots, X_ {n} \}}{\displaystyle \{X_{1},\ldots,X_{n}\}}является попарно независимым тогда и только тогда, когда каждая пара случайных величин независима. Даже если набор случайных величин попарно независим, он не обязательно является взаимно независимым, как определено ниже.

Конечный набор n {\ displaystyle n}nслучайных величин {X 1,…, X n} {\ displaystyle \ {X_ {1}, \ ldots, X_ {n} \}}{\displaystyle \{X_{1},\ldots,X_{n}\}}является взаимно независимым тогда и только тогда, когда для любой последовательности чисел {x 1,…, xn} {\ displaystyle \ {x_ {1}, \ ldots, x_ {n} \}}{\displaystyle \{x_{1},\ldots,x_{n}\}}, события {X 1 ≤ x 1},…, {X n ≤ xn} {\ displaystyle \ {X_ {1 } \ leq x_ {1} \}, \ ldots, \ {X_ {n} \ leq x_ {n} \}}{\displaystyle \{X_{1}\leq x_{1}\},\ldots,\{X_{n}\leq x_{n}\}}являются взаимно независимыми событиями (как определено выше в Eq.3 ). Это эквивалентно следующему условию для совместной кумулятивной функции распределения FX 1,…, X n (x 1,…, xn) {\ displaystyle F_ {X_ {1}, \ ldots, X_ {n}} ( x_ {1}, \ ldots, x_ {n})}{\displaystyle F_{X_{1},\ldots,X_{n}}(x_{1},\ldots,x_{n})}. Конечный набор n {\ displaystyle n}nслучайных величин {X 1,…, X n} {\ displaystyle \ {X_ {1}, \ ldots, X_ {n} \}}{\displaystyle \{X_{1},\ldots,X_{n}\}}является взаимно независимым тогда и только тогда, когда

FX 1,…, X n (x 1,…, xn) = FX 1 (x 1) ⋅… ⋅ FX n (xn) для всех x 1,…, xn {\ displaystyle F_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = F_ {X_ { 1}} (x_ {1}) \ cdot \ ldots \ cdot F_ {X_ {n}} (x_ {n}) \ quad {\ text {для всех}} x_ {1}, \ ldots, x_ {n} }{\displaystyle F_{X_{1},\ldots,X_{n}}(x_{1},\ldots,x_{n})=F_{X_{1}}(x_{1})\cdot \ldots \cdot F_{X_{n}}(x_{n})\quad {\text{for all }}x_{1},\ldots,x_{n}}

(Eq.5)

Обратите внимание, что здесь нет необходимости требовать, чтобы распределение вероятностей факторизовалось для всех возможных k - {\ displaystyle k-}{\displaystyle k-}подмножеств элементов, как в случай для событий n {\ displaystyle n}n. Это не требуется, потому что, например, FX 1, X 2, X 3 (x 1, x 2, x 3) = FX 1 (x 1) ⋅ FX 2 (x 2) ⋅ FX 3 (x 3) {\ displaystyle F_ {X_ {1) }, X_ {2}, X_ {3}} (x_ {1}, x_ {2}, x_ {3}) = F_ {X_ {1}} (x_ {1}) \ cdot F_ {X_ {2} } (x_ {2}) \ cdot F_ {X_ {3}} (x_ {3})}{\displaystyle F_{X_{1},X_{2},X_{3}}(x_{1},x_{2},x_{3})=F_{X_{1}}(x_{1})\cdot F_{X_{2}}(x_{2})\cdot F_{X_{3}}(x_{3})}подразумевает FX 1, X 3 (x 1, x 3) = FX 1 (x 1) ⋅ FX 3 (x 3) {\ displaystyle F_ {X_ {1}, X_ {3}} (x_ {1}, x_ {3}) = F_ {X_ {1}} (x_ {1}) \ cdot F_ {X_ {3}} (x_ {3})}{\displaystyle F_{X_{1},X_{3}}(x_{1},x_{3})=F_{X_{1}}(x_ {1})\cdot F_{X_{3}}(x_{3})}.

Теоретически склонный к измерениям может предпочесть замену событий {X ∈ A} {\ displaystyle \ {X \ in A \}}{\displaystyle \{X\in A\}}для событий {X ≤ x} {\ displaystyle \ {X \ leq x \}}\{X\leq x\}в приведенном выше определении, где A {\ displaystyle A}A- любой набор Бореля. Это определение в точности эквивалентно приведенному выше, когда значения случайных величин являются действительными числами. Его преимущество заключается в том, что он работает также для комплексных случайных величин или для случайных величин, принимающих значения в любом измеримом пространстве (которое включает в себя топологические пространства, снабженные соответствующими σ-алгебрами).

Для случайных векторов с действительными значениями

Два случайных вектора X = (X 1,..., X m) T {\ displaystyle \ mathbf {X} = (X_ {1 },..., X_ {m}) ^ {T}}{\displaystyle \mathbf {X} =(X_{1},...,X_{m})^{T}}и Y = (Y 1,..., Y n) T {\ displaystyle \ mathbf {Y} = ( Y_ {1},..., Y_ {n}) ^ {T}}{\displaystyle \mathbf {Y} =(Y_{1},...,Y_{n})^{T}}называются независимыми if

FX, Y (x, y) = FX (x) ⋅ FY ( y) для всех x, y {\ displaystyle F _ {\ mathbf {X, Y}} (\ mathbf {x, y}) = F _ {\ mathbf {X}} (\ mathbf {x}) \ cdot F _ {\ mathbf {Y}} (\ mathbf {y}) \ quad {\ text {для всех}} \ mathbf {x}, \ mathbf {y}}{\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y})=F_{\mathbf {X} }(\mathbf {x})\cdot F_{\mathbf {Y} }(\mathbf {y})\quad {\text{for all }}\mathbf {x},\mathbf {y} }

(Eq.6)

где FX (Икс) {\ Displaystyle F _ {\ mathbf {X}} (\ mathbf {x})}{\displaystyle F_{\mathbf {X} }(\mathbf {x})}и FY (y) {\ displaystyle F _ {\ mathbf {Y}} (\ mathbf {y})}{\displaystyle F_{\mathbf {Y} }(\mathbf {y})}обозначают совокупные функции распределения X {\ displaystyle \ mathbf {X}}\mathbf {X} и Y {\ displaystyle \ mathbf {Y}}\mathbf {Y} и FX, Y (x, y) {\ displaystyle F _ {\ mathbf {X, Y}} (\ mathbf {x, y})}{\displaystyle F_{\mathbf {X,Y} }(\mathbf {x,y})}обозначает их соединение кумулятивная функция распределения. Независимость X {\ displaystyle \ mathbf {X}}\mathbf {X} и Y {\ displaystyle \ mathbf {Y}}\mathbf {Y} часто обозначается X ⊥ ⊥ Y {\ displaystyle \ mathbf {X} \ perp \! \! \! \ Perp \ mathbf {Y}}{\displaystyle \mathbf {X} \perp \!\!\!\perp \mathbf {Y} }. Написанные покомпонентно, X {\ displaystyle \ mathbf {X}}\mathbf {X} и Y {\ displaystyle \ mathbf {Y}}\mathbf {Y} называются независимыми, если

FX 1,…, X m, Y 1,…, Y n (x 1,…, xm, y 1,…, yn) = FX 1,…, X m (x 1,…, xm) ⋅ FY 1,…, Y n (y 1,…, yn) для всех x 1,…, xm, y 1,…, yn {\ displaystyle F_ {X_ {1}, \ ldots, X_ {m}, Y_ {1}, \ ldots, Y_ {n}} (x_ {1}, \ ldots, x_ {m}, y_ {1}, \ ldots, y_ {n}) = F_ {X_ {1}, \ ldots, X_ {m }} (x_ {1}, \ ldots, x_ {m}) \ cdot F_ {Y_ {1}, \ ldots, Y_ {n}} (y_ {1}, \ ldots, y_ {n}) \ quad { \ text {для всех}} x_ {1}, \ ldots, x_ {m}, y_ {1}, \ ldots, y_ {n}}{\ displaystyle F_ {X_ {1}, \ ldots, X_ {m}, Y_ {1}, \ ldots, Y_ {n}}(x_{1},\ldots,x_{m},y_{1},\ldots,y_{n})=F_{X_{1},\ldots,X_{m}}(x_{ 1},\ldots,x_{m})\cdot F_{Y_{1},\ldots,Y_{n}}(y_{1},\ldots,y_{n})\quad {\text{for all }}x_{1},\ldots,x_{m},y_{1},\ldots,y_{n}}.

Для стохастических процессов

Для одного случайного процесса

Определение независимости может быть расширено от случайных векторов до случайного процесса. Таким образом, для независимого случайного процесса требуется, чтобы случайные величины, полученные путем выборки процесса в любое n {\ displaystyle n}nраз t 1,…, tn {\ displaystyle t_ { 1}, \ ldots, t_ {n}}t_{1},\ldots,t_{n}- независимые случайные величины для любых n {\ displaystyle n}n.

Формально, случайный процесс {X t} t ∈ T {\ displaystyle \ left \ {X_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}}называется независимым, если и только если для всех n ∈ N {\ displaystyle n \ in \ mathbb {N}}n\in \mathbb{N}и для всех t 1,…, tn ∈ T {\ displaystyle t_ {1}, \ ldots, t_ {n} \ in {\ mathcal {T}}}{\displaystyle t_{1},\ldots,t_{n}\in {\mathcal {T}}}

FX t 1,…, X tn (x 1,…, xn) = FX t 1 (x 1) ⋅… ⋅ FX tn (xn) для всех x 1,…, xn {\ displaystyle F_ {X_ {t_ {1}}, \ ldots, X_ {t_ {n}}} (x_ {1}, \ ldots, x_ {n}) = F_ {X_ {t_ {1}}} (x_ {1}) \ cdot \ ldots \ cdot F_ {X_ {t_ {n}}} (x_ {n}) \ quad {\ text {для всех}} x_ {1}, \ ldots, x_ {n} }{\displaystyle F_{X_{t_{1}},\ldots,X_{t_{n}}}(x_{1},\ldots,x_{n})=F_{X_{t_{1}}}(x_{1})\cdot \ldots \cdot F_{X_{t_{n}}}(x_{n})\quad {\text{for all }}x_{1},\ldots,x_{n}}

(уравнение 7)

где FX t 1,…, X tn (x 1,…, xn) = P (X (t 1) ≤ x 1,…, X (tn) ≤ xn) {\ displaystyle F_ {X_ {t_ {1}}, \ ldots, X_ {t_ {n}}} (x_ {1}, \ ldots, x_ {n}) = \ mathrm {P} (X (t_ {1 }) \ leq x_ {1}, \ ldots, X (t_ {n}) \ leq x_ {n})}{\displaystyle F_{X_{t_{1}},\ldots,X_{t_{n}}}(x_{1},\ldots,x_{n})=\mathrm {P} (X(t_{1})\leq x_{1},\ldots,X(t_{n})\leq x_{n})}. Независимость случайного процесса - это свойство внутри стохастического процесса, а не между двумя случайными процессами.

Для двух случайных процессов

Независимость двух случайных процессов - это свойство двух случайных процессов {X t} t ∈ T {\ displaystyle \ left \ {X_ {t} \ право \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}}и {Y t} t ∈ T {\ displaystyle \ left \ {Y_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}}, которые определены в одном вероятностном пространстве (Ω, F, P) {\ displaystyle (\ Omega, {\ mathcal {F}) }, P)}(\Omega,{\mathcal {F}},P). Формально, два случайных процесса {X t} t ∈ T {\ displaystyle \ left \ {X_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}}и {Y t} t ∈ T {\ displaystyle \ left \ {Y_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}}называются независимым, если для всех n ∈ N {\ displaystyle n \ in \ mathbb {N}}n\in \mathbb{N}и для всех t 1,…, tn ∈ T {\ displaystyle t_ {1}, \ ldots, t_ {n} \ in {\ mathcal {T}}}{\displaystyle t_{1},\ldots,t_{n}\in {\mathcal {T}}}, случайные векторы (X (t 1),…, X (tn)) {\ displaystyle (X ( t_ {1}), \ ldots, X (t_ {n}))}{\displaystyle (X(t_{1}),\ldots,X(t_{n}))}и (Y (t 1),…, Y (tn)) {\ displaystyle (Y (t_ { 1}), \ ldots, Y (t_ {n}))}{\displaystyle (Y(t_{1}),\ldots,Y(t_{n}))}независимы, т.е. если

FX t 1,…, X tn, Y t 1,…, Y tn (x 1,…, Xn, y 1,…, yn) = FX t 1,…, X tn (x 1,…, xn) ⋅ FY t 1,…, Y tn (y 1,…, yn) для всех x 1,…, Xn {\ displaystyle F_ {X_ {t_ {1}}, \ ldots, X_ {t_ {n}}, Y_ {t_ {1}}, \ ldots, Y_ {t_ {n}}} (x_ { 1}, \ ldots, x_ {n}, y_ {1}, \ ldots, y_ {n}) = F_ {X_ {t_ {1}}, \ ldots, X_ {t_ {n}}} (x_ {1 }, \ ldots, x_ {n}) \ cdot F_ {Y_ {t_ {1 }}, \ ldots, Y_ {t_ {n}}} (y_ {1}, \ ldots, y_ {n}) \ quad {\ text {для всех}} x_ {1}, \ ldots, x_ {n} }{\displaystyle F_{X_{t_{1}},\ldots,X_{t_{n}},Y_{t_{1}},\ldots,Y_{t_{n}}}(x_{1},\ldots,x_{n},y_{1},\ldots,y_{n})=F_{X_{t_{1}},\ldots,X_{t_{n}}}(x_{1},\ldots,x_{n})\cdot F_{Y_{t_{1}},\ldots,Y_{t_{n}}}(y_{1},\ldots,y_{n})\quad {\text{for all }}x_{1},\ldots,x_{n}}

(Ур.8)

Независимые σ-алгебры

Определения, приведенные выше (Ур.1 и Ур. 2 ) оба обобщаются следующим определением независимости для σ-алгебр. Пусть (Ω, Σ, P) {\ displaystyle (\ Omega, \ Sigma, \ mathrm {P})}{\displaystyle (\Omega,\Sigma,\mathrm {P})}будет вероятностным пространством и пусть A {\ displaystyle {\ mathcal {A}}}{\mathcal {A}}и B {\ displaystyle {\ mathcal {B}}}{\mathcal {B}}- две под-σ-алгебры Σ {\ displaystyle \ Sigma }\Sigma . A {\ displaystyle {\ mathcal {A}}}{\mathcal {A}}и B {\ displaystyle {\ mathcal {B}}}{\mathcal {B}}считаются независимый если всякий раз, когда A ∈ A {\ displaystyle A \ in {\ mathcal {A}}}A\in {\mathcal {A}}и B ∈ B {\ displaystyle B \ in {\ mathcal {B}}}B\in {\mathcal {B}},

P (A ∩ B) = P (A) P (B). {\ displaystyle \ mathrm {P} (A \ cap B) = \ mathrm {P} (A) \ mathrm {P} (B).}\mathrm{P}(A \cap B) = \mathrm{P}(A) \mathrm{P}(B).

Аналогично, конечное семейство σ-алгебр (τ я) i ∈ I {\ displaystyle (\ tau _ {i}) _ {i \ in I}}(\tau_i)_{i\in I}, где I {\ displaystyle I}I- индексное множество, называется независимым тогда и только тогда, когда

(A i) i ∈ I ∈ ∏ i ∈ I τ i: P (⋂ i ∈ IA i) = ∏ i ∈ IP ( A i) {\ displaystyle \ forall \ left (A_ {i} \ right) _ {i \ in I} \ in \ prod \ nolimits _ {i \ in I} \ tau _ {i} \: \ \ mathrm { P} \ left (\ bigcap \ nolimits _ {i \ in I} A_ {i} \ right) = \ prod \ nolimits _ {i \ in I} \ mathrm {P} \ left (A_ {i} \ right) }\forall \left(A_i\right)_{i\in I} \in \prod\nolimits_{i\in I}\tau_i \ : \ \mathrm{P}\left(\bigcap\nolimits_{i\in I}A_i\right) = \prod\nolimits_{i\in I}\mathrm{P}\left(A_i\right)

и бесконечное семейство σ-алгебр называется независимым, если все его конечные подсемейства независимы.

Новое определение напрямую связано с предыдущими:

  • Два события независимы (в старом смысле) тогда и только тогда, когда генерируемые ими σ-алгебры независимы ( в новом смысле). Σ-алгебра, порожденная событием E ∈ Σ {\ displaystyle E \ in \ Sigma}E\in \Sigma , по определению
σ ({E}) = {∅, E, Ω ∖ E, Ω}. {\ displaystyle \ sigma (\ {E \}) = \ {\ emptyset, E, \ Omega \ setminus E, \ Omega \}.}\sigma (\{E\})=\{\emptyset,E,\Omega \setminus E,\Omega \}.
  • Две случайные величины X {\ displaystyle X}Xи Y {\ displaystyle Y}Y, определенные в Ω {\ displaystyle \ Omega}\Omega , являются независимыми (в старом смысле) тогда и только тогда, когда Порождаемые ими σ-алгебры независимы (в новом смысле). Σ-алгебра, генерируемая случайной величиной X {\ displaystyle X}X, принимающей значения в некотором измеримом пространстве S {\ displaystyle S}Sсостоит по определению из всех подмножеств Ω {\ displaystyle \ Omega}\Omega в форме X - 1 (U) {\ displaystyle X ^ {- 1} (U) }{\displaystyle X^{-1}(U)}, где U {\ displaystyle U}U- любое измеримое подмножество S {\ displaystyle S}S.

Используя это определение, легко показать что если X {\ displaystyle X}Xи Y {\ displaystyle Y}Yявляются случайными величинами и Y {\ displaystyle Y}Yявляется константой, тогда X {\ displaystyle X}Xи Y {\ displaystyle Y}Yнезависимы, поскольку σ-алгебра генерируется константой случайным образом переменная - это тривиальная σ-алгебра {∅, Ω} {\ displaystyle \ {\ varnothing, \ Omega \}}{\displaystyle \{\varnothing,\Omega \}}. События с нулевой вероятностью не могут повлиять на независимость, поэтому независимость также сохраняется, если Y {\ displaystyle Y}Yявляется только Pr- почти наверняка константой.

Свойства

Самостоятельность

Обратите внимание, что событие не зависит от самого себя тогда и только тогда, когда

P (A) = P (A ∩ A) = P (A) ⋅ п (A) ⇔ P (A) = 0 или P (A) = 1 {\ displaystyle \ mathrm {P} (A) = \ mathrm {P} (A \ cap A) = \ mathrm {P } (A) \ cdot \ mathrm {P} (A) \ Leftrightarrow \ mathrm {P} (A) = 0 {\ text {или}} \ mathrm {P} (A) = 1}{\displaystyle \mathrm {P} (A)=\mathrm {P} (A\cap A)=\mathrm {P} (A)\cdot \mathrm {P} (A)\Leftrightarrow \mathrm {P} (A)=0{\text{ or }}\mathrm {P} (A)=1}.

Таким образом, событие не зависит от самого себя тогда и только тогда, когда оно почти наверняка встречается или его дополнение почти наверняка встречается; этот факт полезен при доказательстве законов нуля – единицы.

Ожидание и ковариация

Если X {\ displaystyle X}Xи Y {\ displaystyle Y }Y- независимые случайные величины, тогда оператор ожидания E {\ displaystyle \ operatorname {E}}\operatorname {E} имеет свойство

E ⁡ [ XY] = E ⁡ [X] E ⁡ [Y], {\ displaystyle \ operatorname {E} [XY] = \ operatorname {E} [X] \ operatorname {E} [Y],}{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y],}

и ковариация cov ⁡ [X, Y] {\ displaystyle \ operatorname {cov} [X, Y]}{\displaystyle \operatorname {cov} [X,Y]}равна нулю, как следует из

cov ⁡ [X, Y] = E ⁡ [XY] - E ⁡ [X] E ⁡ [Y] {\ displaystyle \ operatorname {cov} [X, Y] = \ operatorname {E} [XY] - \ operatorname {E} [X] \ operatorname {E} [Y]}{\displaystyle \operatorname {cov} [X,Y]=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]}.

Обратное неверно: если ковариация двух случайных величин равна 0, они все равно могут быть независимыми. См. некоррелированный.

Аналогично для двух случайных процессов {X t} t ∈ T {\ displaystyle \ left \ {X_ {t} \ right \} _ {t \ in {\ mathcal {T}} }}{\displaystyle \left\{X_{t}\right\}_{t\in {\mathcal {T}}}}и {Y t} t ∈ T {\ displaystyle \ left \ {Y_ {t} \ right \} _ {t \ in {\ mathcal {T}}}}{\displaystyle \left\{Y_{t}\right\}_{t\in {\mathcal {T}}}}: если они независимы, то они некоррелированы.

Характеристическая функция

Две случайные величины X {\ displaystyle X}Xи Y {\ displaystyle Y}Yнезависимы тогда и только тогда, когда характеристическая функция случайного вектора (X, Y) {\ displaystyle (X, Y)}(X,Y)удовлетворяет

φ (X, Y) (t, s) = φ X (t) ⋅ φ Y (s) {\ displaystyle \ varphi _ {(X, Y)} (t, s) = \ varphi _ {X} (t) \ cdot \ varphi _ {Y} (s)}{\displaystyle \varphi _{(X,Y)}(t,s)=\varphi _{X}(t)\cdot \varphi _{Y}(s)}.

В частности, характеристическая функция их суммы является произведением их предельных характеристических функций:

φ X + Y ( T) знак равно φ Икс (T) ⋅ φ Y (T), {\ Displaystyle \ varphi _ {X + Y} (t) = \ varphi _ {X} (t) \ cdot \ varphi _ {Y} (t),}\varphi_{X+Y}(t) = \varphi_X(t)\cdot\varphi_Y(t),

, хотя обратное утверждение неверно. Случайные переменные, удовлетворяющие последнему условию, называются субнезависимыми.

Примеры

Бросание кубиков

Событие получения 6 при первом броске кубика и событие получения 6 второй раз независимы. Напротив, событие получения 6 при первом броске кубика и событие, когда сумма чисел, полученных при первом и втором испытании, равна 8, не являются независимыми.

Вытягивание карт

Если две карты вытянуты с заменой из колоды карт, событие вытягивания красной карты в первом испытании и вытягивания красной карты во втором испытании считается независимый. Напротив, если две карты вытягиваются без замены из колоды карт, событие вытягивания красной карты в первом испытании и вытягивания красной карты во втором испытании не является независимым, потому что колода, в которой была красная карта удаленная карта имеет пропорционально меньше красных карточек.

Парная и взаимная независимость

Попарно независимые, но не взаимно независимые события. Взаимно независимые события.

Рассмотрим два показанных пространства вероятностей. В обоих случаях P (A) = P (B) = 1/2 {\ displaystyle \ mathrm {P} (A) = \ mathrm {P} (B) = 1/2}{\displaystyle \mathrm {P} (A)=\mathrm {P} (B)=1/2}и P (C) = 1/4 {\ displaystyle \ mathrm {P} (C) = 1/4}{\displaystyle \mathrm {P} (C)=1/4}. Случайные величины в первом пространстве попарно независимы, потому что P (A | B) = P (A | C) = 1/2 = P (A) {\ displaystyle \ mathrm {P} (A | B) = \ mathrm {P} (A | C) = 1/2 = \ mathrm {P} (A)}{\displaystyle \mathrm {P} (A|B)=\mathrm {P} (A|C)=1/2=\mathrm {P} (A)}, P (B | A) = P (B | C) = 1/2 = P (B) { \ Displaystyle \ mathrm {P} (B | A) = \ mathrm {P} (B | C) = 1/2 = \ mathrm {P} (B)}{\displaystyle \mathrm {P} (B|A)=\mathrm {P} (B|C)=1/2=\mathrm {P} (B)}и P ( С | А) знак равно п (С | В) знак равно 1/4 = п (С) {\ Displaystyle \ mathrm {P} (C | A) = \ mathrm {P} (C | B) = 1/4 = \ mathrm {P} (C)}{\displaystyle \mathrm {P} (C|A)=\mathrm {P} (C|B)=1/4=\mathrm {P} (C)}; но три случайные величины не являются взаимно независимыми. Случайные величины во втором пространстве являются как попарно независимыми, так и взаимно независимыми. Чтобы проиллюстрировать разницу, рассмотрите возможность использования двух событий. В попарно независимом случае, хотя любое одно событие не зависит от каждого из двух других по отдельности, оно не является независимым от пересечения двух других:

P (A | BC) = 4 40 4 40 + 1 40 = 4 5 ≠ п (A) {\ displaystyle \ mathrm {P} (A | BC) = {\ frac {\ frac {4} {40}} {{\ frac {4} {40}} + {\ frac { 1} {40}}}} = {\ tfrac {4} {5}} \ neq \ mathrm {P} (A)}\mathrm{P}(A|BC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(A)
P (B | AC) = 4 40 4 40 + 1 40 = 4 5 ≠ п (В) {\ displaystyle \ mathrm {P} (B | AC) = {\ frac {\ frac {4} {40}} {{\ frac {4} {40}} + {\ frac {1} {40}}}} = {\ tfrac {4} {5}} \ neq \ mathrm {P} (B)}\mathrm{P}(B|AC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(B)
P (C | AB) = 4 40 4 40 + 6 40 = 2 5 ≠ P (C) {\ displaystyle \ mathrm {P} (C | AB) = {\ frac {\ frac {4} {40}} {{\ frac {4} {40}} + {\ frac {6} {40 }}}} = {\ tfrac {2} {5}} \ neq \ mathrm {P} (C)}\mathrm{P}(C|AB) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{6}{40}} = \tfrac{2}{5} \ne \mathrm{P}(C)

Однако во взаимно независимом случае

P (A | BC) = 1 16 1 16 + 1 16 = 1 2 = п (A) {\ Displaystyle \ mathrm {P} (A | BC) = {\ frac {\ frac {1} {16}} {{\ frac {1} {16}} + {\ frac {1} {16}}}} = {\ tfrac {1} {2}} = \ mathrm {P} (A)}\mathrm{P}(A|BC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(A)
P (B | AC) = 1 16 1 16 + 1 16 = 1 2 = P (B) {\ d isplaystyle \ mathrm {P} (B | AC) = {\ frac {\ frac {1} {16}} {{\ frac {1} {16}} + {\ frac {1} {16}}}} = {\ tfrac {1} {2}} = \ mathrm {P} (B)}\mathrm{P}(B|AC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(B)
P (C | AB) = 1 16 1 16 + 3 16 = 1 4 = P (C) {\ displaystyle \ mathrm {P} (C | AB) = {\ frac {\ frac {1} {16}} {{\ frac { 1} {16}} + {\ frac {3} {16}}}} = {\ tfrac {1} {4}} = \ mathrm {P} (C)}\mathrm{P}(C|AB) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{3}{16}} = \tfrac{1}{4} = \mathrm{P}(C)

Взаимная независимость

Можно создать пример из трех событий, в котором

P (A ∩ B ∩ C) = P (A) P (B) P (C), {\ displaystyle \ mathrm {P} (A \ cap B \ cap C) = \ mathrm {P} (A) \ mathrm {P} (B) \ mathrm {P} (C),}\mathrm{P}(A \cap B \cap C) = \mathrm{P}(A)\mathrm{P}(B)\mathrm{P}(C),

и все же никакие два из трех событий не являются попарно независимыми (и, следовательно, множество событий не являются взаимно независимыми). Этот пример показывает, что взаимная независимость включает требования к продуктам вероятностей всех комбинаций событий, а не только отдельных событий, как в этом примере.

Условная независимость

Для событий

События A {\ displaystyle A}Aи B {\ displaystyle B}Bусловно независимы при событии C {\ displaystyle C}C, когда

P (A ∩ B ∣ C) = P (A ∣ C) ⋅ P (B ∣ C) {\ displaystyle \ mathrm {P} (A \ cap B \ mid C) = \ mathrm {P} (A \ mid C) \ cdot \ mathrm {P} (B \ mid C)}{\displaystyle \mathrm {P} (A\cap B\mid C)=\mathrm {P} (A\mid C)\cdot \mathrm {P} (B\mid C)}.

для случайного переменные

Интуитивно две случайные величины X {\ displaystyle X}Xи Y {\ displaystyle Y}Yусловно независимы при заданном Z {\ displaystyle Z}Z, если когда-то известен Z {\ displaystyle Z}Z, значение Y {\ displaystyle Y}Yне добавляет никакой дополнительной информации о X {\ displaystyle X}X. Например, два измерения X {\ displaystyle X}Xи Y {\ displaystyle Y}Yодной и той же базовой величины Z {\ displaystyle Z}Zне являются независимыми, но они условно независимы с учетом Z {\ displaystyle Z}Z(если ошибки в двух измерениях не связаны каким-либо образом).

Формальное определение условной независимости основано на идее условных распределений. Если X {\ displaystyle X}X, Y {\ displaystyle Y}Yи Z {\ displaystyle Z}Zявляются дискретными случайными величинами, затем мы определяем X {\ displaystyle X}Xи Y {\ displaystyle Y}Yкак условно независимые с учетом Z {\ displaystyle Z }Zесли

P (X ≤ x, Y ≤ y | Z = z) = P (X ≤ x | Z = z) ⋅ P (Y ≤ y | Z = z) {\ displaystyle \ mathrm {P} (X \ leq x, Y \ leq y \; | \; Z = z) = \ mathrm {P} (X \ leq x \; | \; Z = z) \ cdot \ mathrm {P } (Y \ Leq y \; | \; Z = z)}\mathrm{P}(X \le x, Y \le y\;|\;Z = z) = \mathrm{P}(X \le x\;|\;Z = z) \cdot \mathrm{P}(Y \le y\;|\;Z = z)

для всех x {\ displaystyle x}x, y {\ displaystyle y}yи z {\ displaystyle z}zтакой, что P (Z = z)>0 {\ displaystyle \ mathrm {P} (Z = z)>0}{\displaystyle \mathrm {P} (Z=z)>0} . С другой стороны, если случайные переменные непрерывный и имеют совместную функцию плотности вероятности f XYZ (x, y, z) {\ displa ystyle f_ {XYZ} (x, y, z)}{\displaystyle f_{XYZ}(x,y,z)}, затем X {\ displaystyle X}Xи Y {\ displaystyle Y}Yявляются условно независимыми заданными Z {\ displaystyle Z}Z, если

f XY | Z (x, y | z) = f X | Z (x | z) ⋅ f Y | Z (Y | Z) {\ Displaystyle F_ {XY | Z} (х, y | z) = F_ {X | Z} (x | z) \ cdot f_ {Y | Z} (y | z)}{\displaystyle f_{XY|Z}(x,y|z)=f_{X|Z}(x|z)\cdot f_{Y|Z}(y|z)}

для всех действительных чисел x {\ displaystyle x}x, y {\ displaystyle y}yи z {\ displaystyle z}zтаких, что е Z (z)>0 {\ displaystyle f_ {Z} (z)>0}{\displaystyle f_{Z}(z)>0} .

Если дискретный X {\ displaystyle X}Xи Y {\ displaystyle Y}Yусловно независимы при заданном Z {\ displaystyle Z}Z, тогда

P (X = x | Y = y, Z = z) = P ( X = x | Z = z) {\ displaystyle \ mathrm {P} (X = x | Y = y, Z = z) = \ mathrm {P} (X = x | Z = z)}\mathrm{P}(X = x | Y = y, Z = z) = \mathrm{P}(X = x | Z = z)

для любого x {\ displaystyle x}x, y {\ displaystyle y}yи z {\ displaystyle z}zс P (Z = z)>0 {\ displaystyle \ mathrm {P} (Z = z)>0}{\displaystyle \mathrm {P} (Z=z)>0} . То есть, условное распределение для X {\ displaystyle X}Xс учетом Y {\ displaystyle Y}Yи Z {\ displaystyle Z}Zто же самое, что и заданный только Z {\ displaystyle Z}Z. Аналогичное уравнение справедливо для условных функций плотности вероятности в непрерывном случае.

Независимость можно рассматривать как особый вид условной независимости, поскольку вероятность можно рассматривать как своего рода условную вероятность при отсутствии событий.

См. Также
Ссылки
Внешние ссылки
  • СМИ, относящиеся к Статистической зависимости на Wikimedia Commons
Последняя правка сделана 2021-05-23 13:11:39
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте