Совместное распределение вероятностей

редактировать
X {\ displaystyle X}Икс Y {\ displaystyle Y}Y p (X) {\ displaystyle p (X)}p (X) p (Y) {\ displaystyle p (Y)}p (Y) Многие образцы наблюдений (черные) показаны на основе совместного распределения вероятностей. Также показаны предельные плотности.

Для случайных величин X, Y,… {\ displaystyle X, Y, \ ldots}{\ displaystyle X, Y, \ ldots} , которые определены на вероятностное пространство, совместное распределение вероятностей для X, Y,… {\ displaystyle X, Y, \ ldots}{\ displaystyle X, Y, \ ldots} является вероятностью распределение, которое дает вероятность того, что каждый из X, Y,… {\ displaystyle X, Y, \ ldots}{\ displaystyle X, Y, \ ldots} попадает в любой конкретный диапазон или дискретный набор значений, указанных для этой переменной. В случае только двух случайных величин это называется двумерным распределением, но эта концепция обобщается на любое количество случайных величин, давая многомерное распределение .

Совместное распределение вероятностей может быть выражено либо в терминах совместной кумулятивной функции распределения, либо в терминах совместной функции плотности вероятности (в случае непрерывных переменных ) или совместной вероятности функция масс (в случае дискретных переменных). Их, в свою очередь, можно использовать для поиска двух других типов распределений: предельное распределение, дающее вероятности для любой из переменных без ссылки на какие-либо конкретные диапазоны значений для других переменных, и условное распределение вероятностей, дающее вероятности для любого подмножества переменных, обусловленных конкретными значениями остальных переменных.

Содержание
  • 1 Примеры
    • 1.1 Вытягивание из урны
    • 1.2 Подбрасывание монеты
    • 1.3 Катание матрицы
    • 1.4 Пример из реальной жизни:
  • 2 Предельное распределение вероятностей
  • 3 Соединение кумулятивная функция распределения
  • 4 Совместная функция плотности или функция масс
    • 4.1 Дискретный случай
    • 4.2 Непрерывный случай
    • 4.3 Смешанный случай
  • 5 Дополнительные свойства
    • 5.1 Совместное распределение для независимых переменных
    • 5.2 Совместное распределение для условно зависимых переменных
    • 5.3 Ковариация
    • 5.4 Корреляция
  • 6 Важные именованные распределения
  • 7 См. Также
  • 8 Ссылки
  • 9 Внешние ссылки
Примеры

Вытягивание из урны

Предположим, что каждая из двух урн содержит в два раза больше красных шаров, чем синих шаров, и не содержит других, и предположим, что из каждой урны случайным образом выбирается один шар, причем два броска не зависят друг от друга. Пусть A {\ displaystyle A}A и B {\ displaystyle B}B будут дискретными случайными величинами, связанными с результатами розыгрыша из первой и второй урн. соответственно. Вероятность вытащить красный шар из любой из урн составляет 2/3, а вероятность вытащить синий шар - 1/3. Совместное распределение вероятностей можно представить в виде следующей таблицы:

A=RedA=BlueP (B)
B = Red( 2/3) (2/3) = 4/9(1/3) (2/3) = 2/94/9 + 2/9 = 2/3
B = Синий(2/3)(1/3)=2/9(1/3) (1/3) = 1/92/9 + 1/9 = 1/3
P (A)4/9+2/9=2/32/9 + 1/9 = 1/3

Каждая из четырех внутренних ячеек показывает вероятность конкретной комбинации результатов двух ничьих; эти вероятности являются совместным распределением. В любой одной ячейке вероятность возникновения конкретной комбинации (поскольку ничьи независимы) является произведением вероятности указанного результата для A и вероятности указанного результата для B. Сумма вероятностей в этих четырех ячейках равна 1, как это всегда верно для вероятностных распределений.

Более того, последняя строка и последний столбец дают предельное распределение вероятностей для A и предельное распределение вероятностей для B соответственно. Например, для A первая из этих ячеек дает сумму вероятностей того, что A будет красным, независимо от того, какая вероятность для B в столбце над ячейкой возникает, как 2/3. Таким образом, предельное распределение вероятностей для A {\ displaystyle A}A дает A {\ displaystyle A}A безусловные вероятности на B {\ displaystyle B }B на полях таблицы.

Подбрасывание монет

Рассмотрим подбрасывание двух справедливых монет ; пусть A {\ displaystyle A}A и B {\ displaystyle B}B будут дискретными случайными величинами, связанными с результатами первого и второго подбрасывания монеты соответственно. Каждый подбрасывание монеты представляет собой испытание Бернулли и имеет распределение Бернулли. Если на монете отображается «орел», то соответствующая случайная величина принимает значение 1, в противном случае - значение 0. Вероятность каждого из этих исходов равна 1/2, поэтому маргинальные (безусловные) функции плотности равны

P (A) = 1/2 для A ∈ {0, 1}; {\ Displaystyle P (A) = 1/2 \ quad {\ text {for}} \ quad A \ in \ {0,1 \};}{\ displaystyle P (A) = 1/2 \ quad {\ text {for}} \ quad A \ in \ {0,1 \};}
P (B) = 1/2 для B ∈ {0, 1}. {\ displaystyle P (B) = 1/2 \ quad {\ text {for}} \ quad B \ in \ {0,1 \}.}{\ displaystyle P ( B) = 1/2 \ quad {\ текст {for}} \ quad B \ in \ {0,1 \}.}

Совместная функция массы вероятности A {\ displaystyle A}A и B {\ displaystyle B}B определяет вероятности для каждой пары результатов. Все возможные исходы:

(A = 0, B = 0), (A = 0, B = 1), (A = 1, B = 0), (A = 1, B = 1). {\ displaystyle (A = 0, B = 0), (A = 0, B = 1), (A = 1, B = 0), (A = 1, B = 1).}{\ displaystyle (A = 0, B = 0), (A = 0, B = 1), (A = 1, B = 0), (A = 1, B = 1).}

Поскольку каждый результат равновероятно, что совместная функция массы вероятностей станет

P (A, B) = 1/4 для A, B ∈ {0, 1}. {\ displaystyle P (A, B) = 1/4 \ quad {\ text {for}} \ quad A, B \ in \ {0,1 \}.}{\ displaystyle P ( A, B) = 1/4 \ quad {\ text {for}} \ quad A, B \ in \ {0,1 \}.}

Поскольку подбрасывание монеты независимое, шарнир функция массы вероятности является произведением маргиналов:

P (A, B) = P (A) P (B) для A, B ∈ {0, 1}. {\ Displaystyle P (A, B) = P (A) P (B) \ quad {\ text {for}} \ quad A, B \ in \ {0,1 \}.}{\ displaystyle P (A, B) = P (A) P (B) \ quad {\ text {for}} \ quad A, B \ in \ {0,1 \}.}

Катание кубика

Рассмотрим результат броска кубика и пусть A = 1 {\ displaystyle A = 1}A = 1 , если число четное (например, 2, 4 или 6) и A = 0 {\ displaystyle A = 0}A = 0 в противном случае. Кроме того, пусть B = 1 {\ displaystyle B = 1}В = 1 , если число простое (например, 2, 3 или 5) и B = 0 {\ displaystyle B = 0}B = 0 иначе.

123456
A010101
B011010

Тогда совместное распределение A {\ displaystyle A}A и B {\ displaystyle B}B , выраженное как функция массы вероятности, равно

P (A = 0, B = 0) = P {1} = 1 6, P (A = 1, B = 0) = P {4, 6} = 2 6, {\ displaystyle \ mathrm {P} (A = 0, B = 0) = P \ {1 \} = {\ frac {1} {6}}, \ quad \ quad \ mathrm {P} (A = 1, B = 0) = P \ { 4,6 \} = {\ frac {2} {6}},}{\ displaystyle \ mathrm {P} (A = 0, B = 0) = P \ {1 \} = {\ frac {1} {6}}, \ quad \ quad \ mathrm {P} (A = 1, B = 0) = P \ {4,6 \} = {\ frac {2} {6}},}
P (A = 0, B = 1) = P {3, 5} = 2 6, P (A = 1, B = 1) = P {2} = 1 6. {\ Displaystyle \ mathrm {P} (A = 0, B = 1) = P \ {3,5 \} = {\ frac {2} {6}}, \ quad \ quad \ mathrm {P} (A = 1, B = 1) = P \ {2 \} = {\ frac {1} {6}}.}{\ displaystyle \ mathrm {P} (A = 0, B = 1) = P \ {3,5 \} = {\ frac {2} {6}}, \ quad \ quad \ mathrm {P} (A = 1, B = 1) = P \ {2 \} = {\ frac {1} {6}}.}

Сумма этих вероятностей обязательно равна 1, поскольку вероятность некоторой комбинации A {\ displaystyle A}A и B {\ displaystyle B}B встречается 1.

Пример из реальной жизни:

Рассмотрим производственное предприятие, которое заполняет пластиковые бутылки со стиральным порошком. Измеряется вес каждой бутылки (Y) и объем содержащегося в ней стирального порошка (X).

Предельное распределение вероятностей

Если в случайном эксперименте определяется более одной случайной величины, важно различать совместное распределение вероятностей X и Y и распределение вероятностей каждой переменной в отдельности. Индивидуальное распределение вероятностей случайной величины называется ее предельным распределением вероятностей. В общем, маргинальное распределение вероятностей X может быть определено из совместного распределения вероятностей X и других случайных величин.

Если совместная функция плотности вероятности случайной величины X и Y равна f X, Y (x, y) {\ displaystyle f_ {X, Y} (x, y)}е _ {{X, Y}} (x, y) , функция предельной плотности вероятности для X и Y равна:

f X (x) = ∫ f XY (x, y) dy {\ displaystyle f_ {X} (x) = \ int f_ {XY} ( х, у) \; dy}{\ displaystyle f_ {X } (х) = \ int f_ {XY} (x, y) \; dy} , е Y (y) = ∫ е XY (x, y) dx {\ displaystyle f_ {Y} (y) = \ int f_ {XY} (x, y) \; dx}{\ displaystyle f_ {Y} (y) = \ int f_ {XY} (x, y) \; dx}

, где первый интеграл берется по всем точкам в диапазоне (X, Y), для которых X = x, а второй интеграл по всем точкам в диапазоне (X, Y), для которых Y = y.

Совместная кумулятивная функция распределения

Для пары случайных величин X, Y {\ displaystyle X, Y}X, Y совместная кумулятивная функция распределения (CDF) FXY {\ displaystyle F_ {XY}}{\ displaystyle F_ {XY}} задается как

FX, Y (x, y) = P ⁡ (X ≤ x, Y ≤ y) {\ displaystyle F_ {X, Y} (x, y) = \ operatorname {P} (X \ leq x, Y \ leq y)}{\ displaystyle F_ {X, Y} (x, y) = \ operatorname {P} (X \ leq x, Y \ leq y)}

(Eq.1)

где правая часть представляет вероятность, что случайная величина X {\ di splaystyle X}Икс принимает значение, меньшее или равное x {\ displaystyle x}x и, что Y {\ displaystyle Y}Y принимает значение, меньшее или равное y {\ displaystyle y}y .

для N {\ displaystyle N}N случайных величин X 1,…, XN {\ displaystyle X_ {1}, \ ldots, X_ {N}}X_1, \ ldots, X_N , объединенный CDF FX 1,…, XN {\ displaystyle F_ {X_ {1}, \ ldots, X_ {N} }}{\ displaystyle F_ {X_ {1}, \ ldots, X_ {N}}} задается как

FX 1,…, XN (x 1,…, x N) = P ⁡ (X 1 ≤ x 1,…, XN ≤ x N) {\ displaystyle F_ {X_ {1}, \ ldots, X_ {N}} (x_ {1}, \ ldots, x_ {N}) = \ operatorname {P} (X_ {1} \ leq x_ {1}, \ ldots, X_ {N} \ leq x_ {N})}{\ displaystyle F_ {X_ {1}, \ ldots, X_ {N}} (x_ {1}, \ ldots, x_ {N}) = \ operatorname {P} ( X_ {1} \ leq x_ {1}, \ ldots, X_ {N} \ leq x_ {N})}

(Eq.2)

Интерпретация N {\ displaystyle N}N случайных величин как случайного вектора X = (X 1,…, XN) T {\ displaystyle \ mathbf {X} = (X_ {1}, \ ldots, X_ {N}) ^ {T}}{\ displaystyle \ mathbf {X} = (X_ { 1}, \ ldots, X_ {N}) ^ {T}} дает более короткое обозначение:

FX (x) = P ⁡ (X 1 ≤ x 1,…, XN ≤ x N) {\ displaystyle F _ {\ mathbf {X}} (\ mathbf {x}) = \ operatorname { P} (X_ {1} \ leq x_ {1}, \ ldots, X_ {N } \ leq x_ {N})}{\ Displaystyle F _ {\ mathbf {X}} (\ mathbf {x}) = \ operatorname {P} (X_ {1} \ leq x_ {1}, \ ldots, X_ {N} \ leq x_ {N})}
Совместная функция плотности или функция масс

Дискретный случай

Совместная вероятностная функция масс двух дискретных случайных переменные X, Y {\ displaystyle X, Y}X, Y :

p X, Y (x, y) = P (X = xand Y = y) {\ displaystyle p_ {X, Y} (x, y) = \ mathrm {P} (X = x \ \ mathrm {and} \ Y = y)}{\ displaystyle p_ {X, Y} (x, y) = \ mathrm {P} (X = x \ \ mathrm {и } \ Y = y)}

(Eq.3)

или записано в терминах условного распределения

p X, Y (x, y) = P (Y = y ∣ X = x) ⋅ P (X = x) = P (X = x ∣ Y = y) ⋅ P (Y = y) { \ Displaystyle p_ {X, Y} (x, y) = \ mathrm {P} (Y = y \ mid X = x) \ cdot \ mathrm {P} (X = x) = \ mathrm {P} (X = Икс \ середина Y = Y) \ CDOT \ mathrm {P} (Y = Y)}{\ displaystyle p_ {X, Y} (x, y) = \ mathrm {P} (Y = y \ mid X = x) \ cdot \ mathrm {P} (X = x) = \ mathrm {P} (X = x \ mid Y = y) \ cdot \ mathrm {P} (Y = y)}

где P (Y = Y ∣ X = x) {\ Displaystyle \ mathrm {P} (Y = y \ mid X = x)}\ mathrm {P} (Y = y \ mid X = x) - вероятность для Y = y {\ displaystyle Y = y}Y = y при условии, что X = x { \ displaystyle X = x}X = x .

Обобщением предыдущего случая с двумя переменными является совместное распределение вероятностей n {\ displaystyle n \,}n \, дискретных случайных величин X 1, X 2,…, X n {\ displaystyle X_ {1}, X_ {2}, \ dots, X_ {n}}X_ {1}, X_ {2}, \ dots, X_ {n} который равен:

p X 1,…, X n ( x 1,…, xn) = P (X 1 = x 1 и… и X n = xn) {\ displaystyle p_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = \ mathrm {P} (X_ {1} = x_ {1} {\ text {and}} \ dots {\ text {and}} X_ {n} = x_ {n})}{\ displaystyle p_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = \ mathrm {P} (X_ {1} = x_ {1} {\ text {и} } \ dots {\ text {и}} X_ {n} = x_ {n})}

(Уравнение 4)

или эквивалентно

p X 1,…, X n (x 1,…, xn) = P (X 1 = x 1) ⋅ P (X 2 = x 2 ∣ X 1 = x 1) ⋅ P (X 3 = x 3 ∣ X 1 = x 1, X 2 = x 2)… ⋅ P (X n = xn ∣ X 1 = x 1, X 2 = x 2,…, X n - 1 = xn - 1). {\ displaystyle {\ begin {align} p_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = \ mathrm {P} (X_ {1} = x_ {1}) \ cdot \ mathrm {P} (X_ {2} = x_ {2} \ mid X_ {1} = x_ {1}) \\ \ cdot \ mathrm {P} (X_ {3} = x_ {3} \ mid X_ {1} = x_ {1}, X_ {2} = x_ {2}) \\ \ dots \\ \ cdot P (X_ {n} = x_ {n} \ mid X_ {1} = x_ {1}, X_ {2} = x_ {2}, \ dots, X_ {n-1} = x_ {n-1}). \ End {align}}}{\ displaystyle {\ begin {align} p_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = \ mathrm {P} (X_ {1} = x_ {1}) \ cdot \ mathrm {P} (X_ {2} = x_ {2} \ mid X_ {1} = x_ {1}) \\ \ cdot \ mathrm {P} (X_ {3} = x_ {3} \ mid X_ {1} = x_ {1}, X_ {2} = x_ {2}) \\ \ точки \\ \ cdot P (X_ {n} = x_ {n} \ mid X_ {1} = x_ {1}, X_ {2} = x_ {2}, \ dots, X_ {n-1} = x_ {n-1}). \ end {align}}} .

Это удостоверение известно как цепное правило вероятности.

Поскольку это вероятности, мы имеем в случае двух переменных

∑ я ∑ j P (X = xi и Y = yj) = 1, {\ displaystyle \ sum _ {i} \ sum _ {j} \ mathrm {P} (X = x_ {i} \ \ mathrm {and} \ Y = y_ {j}) = 1, \,}\ sum _ {i} \ sum _ {j} \ mathrm {P} (X = x_ {i} \ \ mathrm {и} \ Y = y_ {j}) = 1, \,

, который является обобщением для n {\ displaystyle n \,}n \, дискретные случайные величины X 1, X 2,…, X n {\ displaystyle X_ {1}, X_ {2}, \ dots, X_ { n}}X_ {1}, X_ {2}, \ dots, X_ {n} до

∑ i ∑ j… ∑ k P (X 1 = x 1 i, X 2 = x 2 j,…, X n = xnk) = 1. {\ displaystyle \ sum _ {i} \ sum _ {j} \ dots \ sum _ {k} \ mathrm {P} (X_ {1} = x_ {1i}, X_ {2} = x_ {2j}, \ dots, X_ { n} = x_ {nk}) = 1. \;}\ sum _ {i} \ sum _ {j} \ dots \ sum _ {k} \ mathrm {P} (X_ {1} = x_ {1i}, X_ {2} = x_ {2j}, \ dots, X_ {n} = x_ {nk}) = 1. \;

Непрерывный случай

совместная вероятность де Функция nsity f X, Y (x, y) {\ displaystyle f_ {X, Y} (x, y)}е _ {{X, Y}} (x, y) для двух непрерывных случайных величин определяется как производная совместной кумулятивной функции распределения (см. Eq.1):

f X, Y (x, y) = ∂ 2 FX, Y (x, y) ∂ Икс ∂ Y {\ Displaystyle F_ {X, Y} (x, y) = {\ frac {\ partial ^ {2} F_ {X, Y} (x, y)} {\ partial x \ partial y}}}{\ displaystyle f_ {X, Y } (x, y) = {\ frac {\ partial ^ {2} F_ {X, Y} (x, y)} {\ partial x \ partial y}}}

(уравнение 5)

Это равно:

f X, Y (x, y) = f Y ∣ X (y ∣ x) f X (x) = f X ∣ Y (x ∣ Y) е Y (y) {\ displaystyle f_ {X, Y} (x, y) = f_ {Y \ mid X} (y \ mid x) f_ {X} (x) = f_ {X \ mid Y } (x \ mid y) f_ {Y} (y)}{\ displaystyle f_ { X, Y} (x, y) = f_ {Y \ mid X} (y \ mid x) f_ {X} (x) = f_ {X \ mid Y} (x \ mid y) f_ {Y} (y)}

где f Y ∣ X (y ∣ x) {\ displaystyle f_ {Y \ mid X} (y \ mid x)}{\ displaystyle f_ {Y \ mid X} (y \ mid x)} и f X ∣ Y (x ∣ y) {\ displaystyle f_ {X \ mid Y} (x \ mid y)}{\ displaystyle f_ {X \ mid Y} (x \ mid y)} - это условные распределения из Y {\ displaystyle Y}Y с учетом X = x {\ displaystyle X = x}X = x и из X {\ displaystyle X}Икс задано Y = y {\ displaystyle Y = y}Y = y соответственно, и f X (x) {\ displaystyle f_ {X} (x)}f_ {X} (x) и f Y (y) {\ displaystyle f_ {Y} (y)}f_Y (y) - это предельные распределения для X {\ displaystyle X }Икс и Y {\ displaystyle Y}Y соответственно.

Определение естественным образом распространяется на более чем две случайные величины:

f X 1,…, X n (x 1,…, xn) = ∂ n FX 1,…, X n (x 1, …, Xn) ∂ x 1… ∂ xn {\ displaystyle f_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = {\ frac {\ partial ^ {n} F_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n})} {\ partial x_ {1} \ ldots \ partial x_ {n}}} }{\ displaystyle f_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n}) = {\ frac {\ partial ^ {n} F_ {X_ {1}, \ ldots, X_ {n}} (x_ {1}, \ ldots, x_ {n})} {\ partial x_ {1} \ ldots \ partial x_ {n}}}}

(Eq.6)

Опять же, поскольку это распределения вероятностей, мы имеем

∫ x ∫ yf X, Y (x, y) dydx = 1 {\ displaystyle \ int _ {x} \ int _ {y} f_ {X, Y} (x, y) \; dy \; dx = 1}{\ displaystyle \ int _ {x} \ int _ {y} f_ {X, Y} (x, y) \; dy \; dx = 1}

соответственно

∫ x 1… ∫ xnf X 1,…, X n (x 1,…, xn) dxn… dx 1 = 1 {\ displaystyle \ int _ {x_ {1}} \ ldots \ int _ {x_ {n}} f_ {X_ {1}, \ ldots, X_ {n}} (x_ { 1}, \ ldots, x_ {n}) \; dx_ {n} \ ldots \; dx_ {1} = 1}{\ displaystyle \ int _ {x_ {1}} \ ldots \ int _ {x_ {n}} f_ {X_ {1}, \ ldots, X_ { n}} (x_ {1}, \ ldots, x_ {n}) \; dx_ {n} \ ldots \; dx_ {1} = 1}

Смешанный случай

«Плотность смешанного стыка» может быть определена, если одна или несколько случайных величин непрерывны, а другие случайные величины дискретны. С одной переменной каждого типа мы имеем

f X, Y (x, y) = f X ∣ Y (x ∣ y) P (Y = y) = P (Y = y ∣ X = x) f X ( Икс). {\ Displaystyle {\ begin {align} f_ {X, Y} (x, y) = f_ {X \ mid Y} (x \ mid y) \ mathrm {P} (Y = y) = \ mathrm {P} (Y = y \ mid X = x) f_ {X} (x). \ End {align}}}{\ displaystyle {\ begin {align} f_ {X, Y} (x, y) = f_ {X \ mid Y} (x \ mid y) \ mathrm {P} (Y = y) = \ mathrm {P} (Y = y \ mid X = x) f_ {X} (x). \ end {align}}}

Один пример ситуации, в которой можно найти непрерывное кумулятивное распределение одной случайной величины и другая случайная переменная, которая является дискретной, возникает, когда кто-то желает использовать логистическую регрессию для прогнозирования вероятности двоичного результата Y, обусловленного значением непрерывно распределенного результата X {\ displaystyle X}Икс . При нахождении кумулятивного распределения этого двоичного результата необходимо использовать "смешанную" плотность соединений, поскольку входные переменные (X, Y) {\ displaystyle (X, Y)}(X, Y) изначально были определены в таком способ, которым нельзя коллективно присвоить ему ни функцию плотности вероятности, ни функцию массы вероятности. Формально f X, Y (x, y) {\ displaystyle f_ {X, Y} (x, y)}е _ {{X, Y}} (x, y) - это функция плотности вероятности (X, Y) { \ displaystyle (X, Y)}(X, Y) относительно показателя продукта на соответствующем поддерживает из X {\ displaystyle X}Икс и Y {\ displaystyle Y}Y . Затем любое из этих двух разложений можно использовать для восстановления совместной кумулятивной функции распределения:

F X, Y (x, y) = ∑ t ≤ y ∫ s = - ∞ x f X, Y (s, t) d s. {\ displaystyle {\ begin {align} F_ {X, Y} (x, y) = \ sum \ limits _ {t \ leq y} \ int _ {s = - \ infty} ^ {x} f_ {X, Y} (s, t) \; ds. \ End {align}}}{\ displaystyle {\ begin {al igned} F_ {X, Y} (x, y) = \ sum \ limits _ {t \ leq y} \ int _ {s = - \ infty} ^ {x} f_ {X, Y} (s, t) \; ds. \ end {align}}}

Определение обобщается на смесь произвольного числа дискретных и непрерывных случайных величин.

Дополнительные свойства

Совместное распределение для независимых переменных

Обычно две случайные величины X {\ displaystyle X}Икс и Y {\ displaystyle Y}Y являются независимыми тогда и только тогда, когда совместная кумулятивная функция распределения удовлетворяет

FX, Y (x, y) = FX (x) ⋅ FY (y) {\ displaystyle F_ {X, Y} (x, y) = F_ {X} (x) \ cdot F_ {Y} (y)}{\ displaystyle F_ {X, Y} (x, y) = F_ {X} (x) \ cdot F_ {Y} (y)}

Две дискретные случайные величины X {\ displaystyle X}Икс и Y {\ displaystyle Y}Y независимы тогда и только тогда, когда совместная функция масс вероятности удовлетворяет

P (X = x и Y = y) = P (X = Икс) ⋅ п (Y = Y) {\ Displaystyle P (X = х \ {\ t_dv {и}} \ Y = y) = P (X = x) \ cdot P (Y = y)}{\ displaystyle P (X = x \ {\ t_dv {and}} \ Y = y) = P (X = x) \ cdot P (Y = y)}

для все x {\ displaystyle x}x и y {\ displaystyle y}y .

По мере того как количество независимых случайных событий растет, соответствующее значение совместной вероятности быстро уменьшается до нуля, согласно отрицательный экспоненциальный закон.

Аналогично, две абсолютно непрерывные случайные величины независимы тогда и только тогда, когда

f X, Y (x, y) = f X (x) ⋅ f Y (y) {\ displaystyle f_ {X, Y} (x, y) = f_ {X} (x) \ cdot f_ {Y} (y)}{ \ displaystyle f_ {X, Y} (x, y) = f_ {X} (x) \ cdot f_ {Y} (y)}

для всех x {\ displaystyle x}x и y {\ displaystyle y}y . Это означает, что получение любой информации о значении одной или нескольких случайных величин приводит к условному распределению любой другой переменной, которое идентично ее безусловному (маргинальному) распределению; таким образом, никакая переменная не предоставляет никакой информации ни о какой другой переменной.

Совместное распределение для условно зависимых переменных

Если подмножество A {\ displaystyle A}A переменных X 1, ⋯, X n { \ displaystyle X_ {1}, \ cdots, X_ {n}}X_ {1}, \ cdots, X_ {n} является условно зависимым с учетом другого подмножества B {\ displaystyle B}B из них переменных, то функция массы вероятности совместного распределения равна P (X 1,…, X n) {\ displaystyle \ mathrm {P} (X_ {1}, \ ldots, X_ {n})}\ mathrm {P} (X_ {1}, \ ldots, X_ {n}) . P (X 1,…, X n) {\ displaystyle \ mathrm {P} (X_ {1}, \ ldots, X_ {n})}\ mathrm {P} (X_ {1}, \ ldots, X_ {n}) равно P (B) ⋅ п (A ∣ В) {\ Displaystyle P (B) \ cdot P (A \ mid B)}P (B) \ cdot P (A \ mid B) . Следовательно, он может быть эффективно представлен распределениями вероятностей более низкой размерности P (B) {\ displaystyle P (B)}P (B) и P (A ∣ B) {\ displaystyle P ( A \ mid B)}P (A \ mid B) . Такие отношения условной независимости могут быть представлены с помощью байесовской сети или функций копул.

Ковариация

Когда две или более случайные величины определены в вероятностном пространстве, полезно опишите, как они различаются вместе; то есть полезно измерить взаимосвязь между переменными. Распространенной мерой связи между двумя случайными величинами является ковариация. Ковариация - это мера линейной связи между случайными величинами. Если связь между случайными величинами является нелинейной, ковариация может не зависеть от этой связи.

Ковариация между случайной величиной X и Y, обозначенная как cov (X, Y), составляет:

σ XY = E [(X - μ x) (Y - μ y)] = E (XY) - μ Икс μ Y {\ Displaystyle \ sigma _ {XY} = E [(X- \ mu _ {x}) (Y- \ mu _ {y})] = E (XY) - \ mu _ {x} \ mu _ {y}}{\ displaystyle \ sigma _ {XY} = E [(X- \ mu _ {x}) (Y- \ mu _ {y})] = E (XY) - \ mu _ {x} \ mu _ {y}}

Correlation

Существует еще один показатель взаимосвязи между двумя случайными величинами, который часто легче интерпретировать, чем ковариацию.

Корреляция просто масштабирует ковариацию на произведение стандартного отклонения каждой переменной. Следовательно, корреляция - это безразмерная величина, которую можно использовать для сравнения линейных отношений между парами переменных в разных единицах измерения. Если точки в совместном распределении вероятностей X и Y, которые получают положительную вероятность, имеют тенденцию падать вдоль линии положительного (или отрицательного) наклона, ρ XY находится около +1 (или -1). Если ρ XY равно +1 или -1, можно показать, что точки в совместном распределении вероятностей, которые получают положительную вероятность, попадают точно вдоль прямой линии. Две случайные величины с ненулевой корреляцией называются коррелированными. Подобно ковариации, корреляция - это мера линейной связи между случайными величинами.

Корреляция между случайной величиной X и Y, обозначенная как

ρ XY = cov (X, Y) V (X) V (Y) = σ XY σ X σ Y {\ displaystyle \ rho _ {XY} = {\ frac {cov (X, Y)} {\ sqrt {V (X) V (Y)}}} = {\ frac {\ sigma _ {XY}} {\ sigma _ {X} \ sigma _ {Y}}}}{\ displaystyle \ rho _ {XY} = {\ frac {cov (X, Y)} {\ sqrt {V (X) V (Y)}}} = {\ frac {\ sigma _ {XY}} {\ sigma _ {X} \ sigma _ {Y}}}}

Важные именованные распределения

Именованные совместные распределения, которые часто встречаются в статистике, включают многомерное нормальное распределение, многомерное стабильное распределение, полиномиальное распределение, отрицательное полиномиальное распределение, многомерное гипергеометрическое распределение и эллиптическое распределение.

См. также
Ссылки
Внешние ссылки

Последняя правка сделана 2021-05-25 03:17:24
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте