Условное ожидание

редактировать

В теории вероятностей, условное ожидание, условное ожидаемое значение, или условное среднее случайной величины - это ее ожидаемое значение - значение, которое оно будет принимать «в среднем» за произвольно большое количество вхождений - при условии, что известен определенный набор «условий». Если случайная величина может принимать только конечное число значений, «условия» таковы, что переменная может принимать только подмножество этих значений. Более формально, в случае, когда случайная величина определена в дискретном вероятностном пространстве, «условия» представляют собой раздел этого вероятностного пространства.

Для нескольких случайных величин, если одна случайная переменная означает независимую от всех остальных - как по отдельности, так и вместе - означает, что каждое условное ожидание равно (безусловному) ожидаемому значению случайной величины. Это всегда верно, если переменные независимы, но средняя независимость - более слабое условие.

В зависимости от характера обусловливания условное ожидание может быть либо самой случайной величиной, либо фиксированным значением. С двумя случайными величинами, если математическое ожидание случайной величины X {\ displaystyle X}Xвыражается условным для другой случайной величины Y {\ displaystyle Y}Y( без указания конкретного значения Y {\ displaystyle Y}Y), тогда ожидание X {\ displaystyle X}Xусловно на Y { \ displaystyle Y}Y, обозначаемый E (X ∣ Y) {\ displaystyle E (X \ mid Y)}{\displaystyle E(X\mid Y)}, является функцией случайной величины Y {\ displaystyle Y}Yи, следовательно, сам является случайной величиной. В качестве альтернативы, если ожидание X {\ displaystyle X}Xвыражается условным при возникновении конкретного значения Y {\ displaystyle Y}Y, обозначенного y {\ displaystyle y}y, тогда условное ожидание E (X ∣ Y = y) {\ displaystyle E (X \ mid Y = y)}{\displaystyle E(X\mid Y=y)}равно фиксированное значение.

Содержание

  • 1 Примеры
    • 1.1 Пример 1: Прокатка в штампе
    • 1.2 Пример 2: Данные об осадках
  • 2 История
  • 3 Классическое определение
    • 3.1 Условное ожидание относительно события
    • 3.2 Условное ожидание относительно случайной величины
  • 4 Формальное определение
    • 4.1 Условное ожидание относительно суб-σ-алгебры
    • 4.2 Условное ожидание относительно случайной величины
    • 4.3 Обсуждение
  • 5 Условие как факторизация
  • 6 Вычисление
  • 7 Основные свойства
  • 8 См. Также
    • 8.1 Законы вероятности
  • 9 Примечания
  • 10 Ссылки
  • 11 Внешние ссылки

Примеры

Пример 1: Бросок кубика

Рассмотрим бросок честного кубика и пусть A = 1, если число четное (например, 2, 4 или 6) и A = 0 в противном случае. Кроме того, пусть B = 1, если число простое (например, 2, 3 или 5), и B = 0 в противном случае.

123456
A010101
B011010

Безусловное ожидание A равно E [A] = (0 + 1 + 0 + 1 + 0 + 1) / 6 = 1/2 {\ displaystyle E [A] = (0 + 1 + 0 + 1 + 0 + 1) / 6 = 1/2}{\displaystyle E[A]=(0+1+0+1+0+1)/6=1/2}, но ожидание A при условии B = 1 (т. Е. При условии, что результат броска кубика равен 2, 3 или 5) составляет E [A ∣ B = 1] = (1 + 0 + 0) / 3 = 1/3 {\ displaystyle E [A \ mid B = 1] = (1 + 0 + 0) / 3 = 1/3}{\displaystyle E[A\mid B=1]=(1+0+0)/3=1/3}, а ожидание A при условии B = 0 (т. Е. При условии, что результат броска кубика равен 1, 4 или 6) равен E [A ∣ B = 0] = (0 + 1 + 1) / 3 = 2/3 {\ displaystyle E [A \ mid B = 0] = (0 + 1 + 1) / 3 = 2/3}{\displaystyle E[A\mid B=0]=(0+1+1)/3=2/3}. Точно так же математическое ожидание B при A = 1 равно E [B ∣ A = 1] = (1 + 0 + 0) / 3 = 1/3 {\ displaystyle E [B \ mid A = 1] = (1 + 0 + 0) / 3 = 1/3}{\displaystyle E[B\mid A=1]=(1+0+0)/3=1/3}, а ожидание B при условии A = 0 равно E [B ∣ A = 0] = (0 + 1 + 1) / 3 = 2/3 {\ displaystyle E [B \ mid A = 0] = (0 + 1 + 1) / 3 = 2/3}{\displaystyle E[B\mid A=0]=(0+1+1)/3=2/3}.

Пример 2: данные об осадках

Предположим, мы иметь ежедневные данные об осадках (мм осадков каждый день), собранные метеостанцией каждый день десятилетнего (3652 дня) периода с 1 января 1990 г. по 31 декабря 1999 г. Безусловное ожидание количества осадков в течение неопределенного дня - среднее количество осадков за эти 3652 дня. Условное ожидание количества осадков для неустановленного иначе дня, который, как известно, должен быть (условным) в марте, представляет собой среднее количество осадков за все 310 дней десятилетнего периода, который выпадает в марте. А условное ожидание количества осадков в дни, датированные 2 марта, - это среднее количество осадков, выпавших за десять дней с этой конкретной датой.

История

Родственная концепция условной вероятности восходит, по крайней мере, к Лапласу, который рассчитывал условные распределения. Это Андрей Колмогоров в 1933 году формализовал его с помощью теоремы Радона – Никодима. В работах Пола Халмоса и Джозефа Л. Дуба с 1953 года условное ожидание было обобщено до его современного определения с использованием суб-σ-алгебр.

Классического определения

Условное ожидание относительно события

В классической теории вероятностей условное ожидание X {\ displaystyle X}Xзадано событие H {\ displaystyle H}H(которое может быть событием Y = y {\ displaystyle Y = y}Y=yдля случайной переменной Y {\ displaystyle Y}Y) - это среднее значение X {\ displaystyle X}Xпо всем результатам в H {\ displaystyle H}H, то есть

E ⁡ (X ∣ H) = ∑ ω ∈ HX (ω) | H |, {\ displaystyle \ operatorname {E} (X \ mid H) = {\ frac {\ sum _ {\ omega \ in H} X (\ omega)} {| H |}},}{\displaystyle \operatorname {E} (X\mid H)={\frac {\sum _{\omega \in H}X(\omega)}{|H|}},}

где | H | {\ displaystyle | H |}|H|- мощность из H {\ displaystyle H}H.

Сумма выше может быть сгруппирована по различным значениям X ( ω) {\ displaystyle X (\ omega)}X(\omega), чтобы получить сумму в диапазоне X {\ displaystyle {\ mathcal {X}}}{\mathcal {X}}из X {\ displaystyle X}X

E ⁡ (X ∣ H) = ∑ x ∈ X x | {ω ∈ H ∣ X (ω) = x} | | H |. {\ displaystyle \ operatorname {E} (X \ mid H) = \ sum _ {x \ in {\ mathcal {X}}} x \, {\ frac {| \ {\ omega \ in H \ mid X (\ omega) = x \} |} {| H |}}.}{\displaystyle \operatorname {E} (X\mid H)=\sum _{x\in {\mathcal {X}}}x\,{\frac {|\{\omega \in H\mid X(\omega)=x\}|}{|H|}}.}

В современной теории вероятностей, когда H {\ displaystyle H}Hявляется событием со строго положительной вероятностью, это Можно дать аналогичную формулу. Это особенно верно для дискретной случайной величины Y {\ displaystyle Y}Yи для y {\ displaystyle y}yв диапазон Y {\ displaystyle Y}Y, если событие H {\ displaystyle H}Hравно Y = y {\ displaystyle Y = y}Y=y. Пусть (Ω, F, P) {\ displaystyle (\ Omega, {\ mathcal {F}}, P)}(\Omega,{\mathcal {F}},P)будет вероятностным пространством, X {\ displaystyle X}X- случайная величина в этом вероятностном пространстве, а H ∈ F {\ displaystyle H \ in {\ mathcal {F}}}{\displaystyle H\in {\mathcal {F}}}событие со строго положительной вероятностью P (H)>0 {\ displaystyle P (H)>0}{\displaystyle P(H)>0} . Затем условное ожидание X {\ displaystyle X}Xс учетом события H { \ displaystyle H}Hравно

E ⁡ (X ∣ H) = E ⁡ (1 HX) P (H) = ∫ X xd P (x ∣ H), {\ displaystyle \ operatorname {E } (X \ mid H) = {\ frac {\ operatorname {E} (1_ {H} X)} {P (H)}} = \ int _ {\ mathcal {X}} x \, \ mathrm {d } P (x \ mid H),}{\displaystyle \operatorname {E} (X\mid H)={\frac {\operatorname {E} (1_{H}X)}{P(H)}}=\int _{\mathcal {X}}x\,\mathrm {d} P(x\mid H),}

где X {\ displaystyle {\ mathcal {X}}}{\mathcal {X}}- это диапазон X {\ displaystyle X}Xи P (⋅ ∣ H) {\ displaystyle P (\ cdot \ mid H)}{\displaystyle P(\cdot \mid H)}- это мера вероятности определена для каждого набора A {\ displaystyle A}A, как P (A ∣ H) = P (A ∩ H) / P (H) {\ displaystyle P ( A \ mid H) = P (A \ cap H) / P (H)}{\displaystyle P(A\mid H)=P(A\cap H)/P(H)}, условная вероятность A {\ displaystyle A}Aпри H {\ displaystyle H}H.

Когда P (H) = 0 {\ displaystyle P (H) = 0}{\displaystyle P(H)=0}(что обычно бывает, если Y {\ displaystyle Y}Y- это непрерывная случайная величина, а H {\ displaystyle H}H- событие Y = y {\ displaystyle Y = y}Y=y), парадокс Бореля – Колмогорова демонстрирует неоднозначность попытки определить условную вероятность, зная о событии H {\ displaystyle H}H. Приведенная выше формула показывает, что эта проблема переходит в условное ожидание. Таким образом, вместо этого определяется только условное ожидание относительно σ-алгебры или случайной величины.

Условное ожидание относительно случайной величины

Если Y - дискретная случайная величина в том же вероятностном пространстве (Ω, F, P) {\ displaystyle (\ Omega, { \ mathcal {F}}, P)}(\Omega,{\mathcal {F}},P)с диапазоном Y {\ displaystyle {\ mathcal {Y}}}{\mathcal {Y}}, тогда условное ожидание X относительно Y это функция E (X ∣ Y) (⋅) {\ displaystyle E (X \ mid Y) (\ cdot)}{\displaystyle E(X\mid Y)(\cdot)}переменной y ∈ Y {\ displaystyle y \ в {\ mathcal {Y}}}{\displaystyle y\in {\mathcal {Y}}}, определенном как

E ⁡ (X ∣ Y) (y) = E ⁡ (X ∣ Y = y). {\ displaystyle \ operatorname {E} (X \ mid Y) (y) = \ operatorname {E} (X \ mid Y = y).}{\displaystyle \operatorname {E} (X\mid Y)(y)=\operatorname {E} (X\mid Y=y).}

Существует близкая функция из Ω {\ displaystyle \ Omega}\Omega до Y {\ displaystyle {\ mathcal {Y}}}{\mathcal {Y}}определяется как

E ⁡ (X ∣ σ (Y)) (ω) = E ⁡ (X ∣ Y = Y (ω)). {\ displaystyle \ operatorname {E} (X \ mid \ sigma (Y)) (\ omega) = \ operatorname {E} (X \ mid Y = Y (\ omega)).}{\displaystyle \operatorname {E} (X\mid \sigma (Y))(\omega)=\operatorname {E} (X\mid Y=Y(\omega)).}

Эта функция, которая является отличается от предыдущего, является условным математическим ожиданием X относительно σ-алгебры, порожденной Y. Они связаны соотношением

E ⁡ (X ∣ σ (Y)) = E ⁡ (X ∣ Y) ∘ Y. {\ displaystyle \ operatorname {E} (X \ mid \ sigma (Y)) = \ operatorname {E} (X \ mid Y) \ circ Y.}{\displaystyle \operatorname {E} (X\mid \sigma (Y))=\operatorname {E} (X\mid Y)\circ Y.}

где ∘ {\ displaystyle \ circ}\circ означает композиция функций.

Как упоминалось выше, если Y является непрерывной случайной величиной, невозможно определить E ⁡ (X ∣ Y) {\ displaystyle \ operatorname {E } (X \ mid Y)}{\displaystyle \operatorname {E} (X\mid Y)}этим методом. Как объясняется в парадоксе Бореля – Колмогорова, мы должны указать, какая ограничивающая процедура дает множество Y = y. Если пространство событий Ω {\ displaystyle \ Omega}\Omega имеет функцию расстояния, то одна процедура для этого следующая: определить набор H y ε = {ω ∣ ‖ Y (ω) - y ‖ < ε } {\displaystyle H_{y}^{\varepsilon }=\{\omega \mid \|Y(\omega)-y\|<\varepsilon \}}{\displaystyle H_{y}^{\varepsilon }=\{\omega \mid \|Y(\omega)-y\|<\varepsilon \}}, предположим, что каждый H y ε {\ displaystyle H_ {y} ^ {\ varepsilon}}{\displaystyle H_{y}^{\varepsilon }}является P-измеримым и что П (ЧАС Y ε)>0 {\ Displaystyle P (Н_ {y} ^ {\ varepsilon})>0}{\displaystyle P(H_{y}^{\varepsilon })>0} для всех ε>0 {\ displaystyle \ varepsilon>0}\varepsilon>0, затем условное ожидание относительно H y ε {\ displaystyle H_ {y} ^ {\ varepsilon}}{\displaystyle H_{y}^{\varepsilon }}четко определен. Возьмем предел как ε {\ displaystyle \ varepsilon}\varepsilon стремится к 0 и определим

g (y) = lim ε → 0 E ⁡ (X ∣ H y ε). {\ displaystyle g (y) = \ lim _ {\ varepsilon \ to 0} \ operatorname {E} (X \ mid H_ {y} ^ {\ varepsilon}).}{\displaystyle g(y)=\lim _{\varepsilon \to 0}\operatorname {E} (X\mid H_{y}^{\varepsilon }).}

Замена этого ограничивающего процесса на Производная Радона – Никодима дает аналогичное определение, которое работает в более общем смысле.

Формальное определение

Условное ожидание относительно под-σ-алгебры

Условное ожидание относительно σ-алгебры: в этом примере вероятностное пространство (Ω, F, P) {\ displaystyle (\ Omega, {\ mathcal {F}}, P)}(\Omega,{\mathcal {F}},P)- интервал [0,1] с мерой Лебега. Мы определяем следующие σ-алгебры: A = F {\ displaystyle {\ mathcal {A}} = {\ mathcal {F}}}{\displaystyle {\mathcal {A}}={\mathcal {F}}}; B {\ displaystyle {\ mathcal {B}}}{\mathcal {B}}- σ-алгебра, порожденная интервалами с концами 0, ¼, ½, ¾, 1; и C {\ displaystyle {\ mathcal {C}}}{\mathcal {C}}- σ-алгебра, генерируемая интервалами с конечными точками 0, ½, 1. Здесь условное ожидание фактически является средним по минимальные множества σ-алгебры.

Рассмотрим следующее:

  • (Ω, F, P) {\ displaystyle (\ Omega, {\ mathcal {F}}, P)}(\Omega,{\mathcal {F}},P)является вероятностным пространством.
  • X: Ω → R n {\ displaystyle X \ двоеточие \ Omega \ to \ mathbb {R} ^ {n}}{\displaystyle X\colon \Omega \to \mathbb {R} ^{n}}является случайной величиной на этом вероятностном пространстве с конечным математическим ожиданием.
  • H ⊆ F {\ displaystyle {\ mathcal {H}} \ substeq {\ mathcal {F}}}{\displaystyle {\mathcal {H}}\subseteq {\mathcal {F}}}является под- σ -алгебра из F {\ displaystyle {\ mathcal {F}}}{\mathcal {F}}.

Поскольку H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}является вложенным σ {\ displaystyle \ sigma}\sigma -алгебра F {\ displaystyle {\ mathcal {F}}}{\mathcal {F}}, функция X: Ω → R n {\ displaystyle X \ двоеточие \ Omega \ to \ mathbb {R} ^ {n}}{\displaystyle X\colon \Omega \to \mathbb {R} ^{n}}обычно не H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}-измеримо, поэтому существование интегралов вида ∫ H X d P | H {\ textstyle \ int _ {H} X \, dP | _ {\ mathcal {H}}}{\textstyle \int _{H}X\,dP|_{\mathcal {H}}}, где H ∈ H {\ displaystyle H \ in {\ mathcal {H} }}{\displaystyle H\in {\mathcal {H}}}и P | H {\ displaystyle P | _ {\ mathcal {H}}}{\displaystyle P|_{\mathcal {H}}}является ограничением P {\ displaystyle P}Pдо H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}, не может быть заявлено в общем. Однако локальные средние значения ∫ HX d P {\ textstyle \ int _ {H} X \, dP}{\textstyle \int _{H}X\,dP}можно восстановить в (Ω, H, P | H) {\ displaystyle (\ Omega, {\ mathcal {H}}, P | _ {\ mathcal {H}})}{\displaystyle (\Omega,{\mathcal {H}},P|_{\mathcal {H}})}с помощью условного ожидания. A условное ожидание X с учетом H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}, обозначается как E ⁡ (X ∣ H) {\ displaystyle \ имя оператора {E} (X \ mid {\ mathcal {H}})}{\displaystyle \operatorname {E} (X\mid {\mathcal {H}})}, является любой H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}-измеримой функцией Ω → R n {\ displaystyle \ Omega \ to \ mathbb {R} ^ {n}}\Omega \to \mathbb{R}^n, который удовлетворяет:

∫ HE ⁡ (X ∣ H) d P = ∫ HX d P {\ displaystyle \ int _ {H} \ operatorname {E} (X \ mid {\ mathcal {H}}) \, \ mathrm {d} P = \ int _ {H} X \, \ mathrm {d} P }{\displaystyle \int _{H}\operatorname {E} (X\mid {\mathcal {H}})\,\mathrm {d} P=\int _{H}X\,\mathrm {d} P}

для каждого H ∈ H {\ displaystyle H \ in {\ mathcal {H}}}H\in {\mathcal {H}}.

Существование E ⁡ (X ∣ H) {\ displaystyle \ operatorname {E} (X \ mid {\ mathcal {H}})}{\displaystyle \operatorname {E} (X\mid {\mathcal {H}})}можно установить, отметив, что μ X: F ↦ ∫ FX d P {\ textstyle \ mu ^ {X} \ двоеточие F \ mapsto \ int _ {F} X \, \ mathrm {d} P}{\textstyle \mu ^{X}\colon F\mapsto \int _{F}X\,\mathrm {d} P}для F ∈ F {\ displaystyle F \ in {\ mathcal {F}}}F\in {\mathcal {F}}является конечной мерой на (Ω, F) {\ displaystyle (\ Omega, {\ mathcal {F}})}(\Omega, \mathcal{F}), которая абсолютно непрерывна с соответствующими от t до P {\ displaystyle P}P. Если h {\ displaystyle h}h- это естественная инъекция из H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}в F {\ displaystyle {\ mathcal {F}}}{\mathcal {F}}, тогда μ X ∘ h = μ X | H {\ displaystyle \ mu ^ {X} \ circ h = \ mu ^ {X} | _ {\ mathcal {H}}}{\displaystyle \mu ^{X}\circ h=\mu ^{X}|_{\mathcal {H}}}- это ограничение μ X {\ displaystyle \ mu ^ {X}}{\displaystyle \mu ^{X}}до H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}и P ∘ h = P | H {\ displaystyle P \ circ h = P | _ {\ mathcal {H}}}{\displaystyle P\circ h=P|_{\mathcal {H}}}- ограничение P {\ displaystyle P}Pна H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}. Кроме того, μ X ∘ h {\ displaystyle \ mu ^ {X} \ circ h}{\displaystyle \mu ^{X}\circ h}абсолютно непрерывно относительно P ∘ h {\ displaystyle P \ circ h}{\displaystyle P\circ h}, потому что условие

P ∘ час (H) = 0 ⟺ P (h (H)) = 0 {\ displaystyle P \ circ h (H) = 0 \ iff P (h (H)) = 0}{\displaystyle P\circ h(H)=0\iff P(h(H))=0}

означает

μ Икс (час (H)) = 0 ⟺ μ X ∘ час (H) = 0. {\ displaystyle \ mu ^ {X} (h (H)) = 0 \ iff \ mu ^ {X} \ circ h (H) = 0.}{\displaystyle \mu ^{X}(h(H))=0\iff \mu ^{X}\circ h(H)=0.}

Таким образом,

E ⁡ (X ∣ H) = d μ X | H d P | ЧАС знак равно d (μ Икс ∘ час) d (п ∘ час), {\ displaystyle \ operatorname {E} (X \ mid {\ mathcal {H}}) = {\ frac {\ mathrm {d} \ mu ^ { X} | _ {\ mathcal {H}}} {\ mathrm {d} P | _ {\ mathcal {H}}}} = {\ frac {\ mathrm {d} (\ mu ^ {X} \ circ h)} {\ mathrm {d} (P \ circ h)}},}{\displaystyle \operatorname {E} (X\mid {\mathcal {H}})={\frac {\mathrm {d} \mu ^{X}|_{\mathcal {H}}}{\mathrm {d} P|_{\mathcal {H}}}}={\frac {\mathrm {d} (\mu ^{X}\circ h)}{\mathrm {d} (P\circ h)}},}

где производные - это производные Радона – Никодима мер.

Условное ожидание по отношению к случайной величине

В дополнение к вышесказанному рассмотрим

Пусть g: U → R n {\ displaystyle g \ двоеточие U \ to \ mathbb {R} ^ {n}}{\displaystyle g\colon U\to \mathbb {R} ^{n}}быть Σ {\ displaystyle \ Sigma}\Sigma -измеримой функцией такой что для каждой Σ {\ displaystyle \ Sigma}\Sigma -измеримой функции f: U → R n {\ displaystyle f \ двоеточие U \ to \ mathbb {R} ^ {n} }{\displaystyle f\colon U\to \mathbb {R} ^{n}},

g (Y) f (Y) d P = ∫ X f (Y) d P. {\ displaystyle \ int g (Y) f (Y) \, \ mathrm {d} P = \ int Xf (Y) \, \ mathrm {d} P.}{\displaystyle \int g(Y)f(Y)\,\mathrm {d} P=\int Xf(Y)\,\mathrm {d} P.}

Тогда измеримая функция g { \ displaystyle g}g, обозначается как E ⁡ (X ∣ Y) {\ displaystyle \ operatorname {E} (X \ mid Y)}{\displaystyle \operatorname {E} (X\mid Y)}, является условное ожидание из X задано Y {\ displaystyle Y}Y.

Это определение эквивалентно определению условного ожидания относительно под- σ {\ displaystyle \ sigma}\sigma -поле F {\ displaystyle {\ mathcal {F}}}{\mathcal {F}}(см. выше), определенное прообразом Σ по Y. Если мы определим

ЧАС = Y - 1 (Σ) = {Y - 1 (B): B ∈ Σ}, {\ displaystyle {\ mathcal {H}} = Y ^ {- 1} (\ Sigma) = \ {Y ^ {-1} (B): B \ in \ Sigma \},}{\displaystyle {\mathcal {H}}=Y^{-1}(\Sigma)=\{Y^{-1}(B):B\in \Sigma \},}

, затем

E ⁡ (X ∣ Y) ∘ Y = E ⁡ (X ∣ H) = d (μ X ∘ Y - 1) d (п ∘ Y - 1) ∘ Y {\ displaystyle \ operatorname {E} (X \ mid Y) \ circ Y = \ operatorname {E} (X \ mid {\ mathcal {H}}) = {\ frac {\ mathrm {d} (\ mu ^ {X} \ circ Y ^ {- 1})} {\ mathrm {d} (P \ circ Y ^ {- 1})}} \ circ Y}{\displaystyle \operatorname {E} (X\mid Y)\circ Y=\operatorname {E} (X\mid {\mathcal {H}})={\frac {\mathrm {d} (\mu ^{X}\circ Y^{-1})}{\mathrm {d} (P\circ Y^{-1})}}\circ Y}.

Обсуждение

  • Это не конструкция живое определение; нам просто дано необходимое свойство, которому должно удовлетворять условное ожидание.
    • Определение E ⁡ (X ∣ H) {\ displaystyle \ operatorname {E} (X \ mid {\ mathcal {H}})}{\displaystyle \operatorname {E} (X\mid {\mathcal {H}})}может напоминать определение E ⁡ (Икс ∣ H) {\ displaystyle \ operatorname {E} (X \ mid H)}{\displaystyle \operatorname {E} (X\mid H)}для события H {\ displaystyle H}Hно это очень разные объекты. Первая - это H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}-измеримая функция Ω → R n {\ displaystyle \ Omega \ to \ mathbb {R} ^ {n }}\Omega \to \mathbb{R}^n, а последний является элементом R n {\ displaystyle \ mathbb {R} ^ {n}}\mathbb {R} ^{n}и E ⁡ (X ∣ H) П (Икс ∈ ЧАС) знак равно ∫ ЧАС d П знак равно ∫ ОН ⁡ (Икс ∣ Н) d P {\ Displaystyle \ Operatorname {E} (X \ середина Н) \ P (X \ в H) = \ int _ { H} X \, \ mathrm {d} P = \ int _ {H} \ operatorname {E} (X \ mid {\ mathcal {H}}) \, \ mathrm {d} P}{\displaystyle \operatorname {E} (X\mid H)\ P(X\in H)=\int _{H}X\,\mathrm {d} P=\int _{H}\operatorname {E} (X\mid {\mathcal {H}})\,\mathrm {d} P}для H ∈ H {\ displaystyle H \ in {\ mathcal {H}}}{\displaystyle H\in {\mathcal {H}}}.
    • Существование функции условного ожидания может быть доказано с помощью теоремы Радона – Никодима. Достаточным условием является наличие (безусловного) ожидаемого значения для X.
    • Можно показать, что уникальность почти наверняка : то есть версии одного и того же условного ожидания будут отличаться только на набор нулевой вероятности.
  • σ-алгебра H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}управляет "степенью детализации" кондиционирования. Условное ожидание E (X ∣ H) {\ displaystyle E (X \ mid {\ mathcal {H}})}{\displaystyle E(X\mid {\mathcal {H}})}над более тонкой (большей) σ-алгеброй H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}сохраняет информацию о вероятностях более крупного класса событий. Условное ожидание по более грубой (меньшей) σ-алгебре усредняет по большему количеству событий.

Условие как факторизация

В приведенном выше определении условного ожидания учитывается тот факт, что Y {\ displaystyle Y}Y- реальный случайный элемент не имеет значения. Пусть (U, Σ) {\ displaystyle (U, \ Sigma)}(U,\Sigma)- измеримое пространство, где Σ {\ displaystyle \ Sigma}\Sigma - σ -алгебра по U {\ displaystyle U}U. A U {\ displaystyle U}U-значный случайный элемент представляет собой измеримую функцию Y: Ω → U {\ displaystyle Y \ двоеточие \ Omega \ to U}{\displaystyle Y\colon \Omega \to U}, т.е. Y - 1 (B) ∈ F {\ displaystyle Y ^ {- 1} (B) \ in {\ mathcal {F}}}{\displaystyle Y^{-1}(B)\in {\mathcal {F}}}для всех B ∈ Σ { \ Displaystyle B \ in \ Sigma}B\in \Sigma. Распределение Y {\ displaystyle Y}Yявляется мерой вероятности PY: Σ → R {\ displaystyle P_ {Y}: \ Sigma \ to \ mathbb {R}}{\displaystyle P_{Y}:\Sigma \to \mathbb {R} }определяется как метод продвижения вперед Y ∗ P {\ displaystyle Y _ {*} P}{\displaystyle Y_{*}P}, то есть такой, что PY (B) = P (Y - 1 (B)) {\ displaystyle P_ {Y} (B) = P (Y ^ {- 1} (B))}{\displaystyle P_{Y}(B)=P(Y^{-1}(B))}.

Теорема . Если X: Ω → R {\ displaystyle X: \ Omega \ to \ mathbb {R}}X:\Omega \to \mathbb {R} является интегрируемой случайной величиной, то существует уникальный интегрируемый случайный элемент E ⁡ ( Икс ∣ Y): U → R {\ displaystyle \ operatorname {E} (X \ mid Y): U \ to \ mathbb {R}}\operatorname {E}(X\mid Y):U\to {\mathbb {R}}, определяется PY {\ displaystyle P_ {Y }}{\displaystyle P_{Y}}почти наверняка, так что

∫ Y - 1 (B) X d P = ∫ BE ⁡ (X ∣ Y) d PY, {\ displaystyle \ int _ {Y ^ {- 1 } (B)} X \, \ mathrm {d} P = \ int _ {B} \ operatorname {E} (X \ mid Y) \, \ mathrm {d} P_ {Y},}{\displaystyle \int _{Y^{-1}(B)}X\,\mathrm {d} P=\int _{B}\operatorname {E} (X\mid Y)\,\mathrm {d} P_{Y},}

для всех B ∈ Σ {\ displaystyle B \ in \ Sigma}B\in \Sigma .

Контрольный эскиз . Пусть μ: Σ → R {\ displaystyle \ mu: \ Sigma \ to \ mathbb {R}}\mu :\Sigma \to {\mathbb {R}}таково, что μ (B) = ∫ Y - 1 (B) X d P {\ textstyle \ mu (B) = \ int _ {Y ^ {- 1} (B)} X \, \ mathrm {d} P}{\textstyle \mu (B)=\int _{Y^{-1}(B)}X\,\mathrm {d} P}. Тогда μ {\ displaystyle \ mu}\mu является мерой со знаком, которая абсолютно непрерывна по отношению к P Y {\ displaystyle P_ {Y}}{\displaystyle P_{Y}}. Действительно, PY (B) = 0 {\ displaystyle P_ {Y} (B) = 0}{\displaystyle P_{Y}(B)=0}означает именно то, что P (Y - 1 (B)) = 0 {\ displaystyle P (Y ^ {- 1} (B)) = 0}{\displaystyle P(Y^{-1}(B))=0}, и поскольку интеграл интегрируемой функции на множестве вероятности 0 равен 0, это доказывает абсолютную непрерывность. Теорема Радона – Никодима затем доказывает существование плотности μ {\ displaystyle \ mu}\mu относительно PY {\ displaystyle P_ {Y}}{\displaystyle P_{Y}}. Эта плотность равна E ⁡ (X ∣ Y) {\ displaystyle \ operatorname {E} (X \ mid Y)}\operatorname {E}(X\mid Y). ◻ {\ displaystyle \ square}\square

по сравнению с условным ожиданием относительно суб- σ-алгебры, выполняется

E ⁡ (X ∣ Y) ∘ Y = E ⁡ (X ∣ Y - 1 (Σ)). {\ displaystyle \ operatorname {E} (X \ mid Y) \ circ Y = \ operatorname {E} \ left (X \ mid Y ^ {- 1} \ left (\ Sigma \ right) \ right).}\operatorname{E}(X \mid Y) \circ Y= \operatorname{E}\left(X \mid Y^{-1} \left(\Sigma\right)\right).

Мы можем дополнительно интерпретировать это равенство, рассмотрев абстрактную формулу замены переменных для преобразования интеграла в правой части в интеграл по Ω:

∫ Y - 1 (B) X d P = ∫ Y - 1 (B) (E ⁡ (X ∣ Y) ∘ Y) d P. {\ displaystyle \ int _ {Y ^ {- 1} (B)} X \, \ mathrm {d} P = \ int _ {Y ^ {- 1} (B)} (\ operatorname {E} (X \ mid Y) \ circ Y) \, \ mathrm {d} P.}{\displaystyle \int _{Y^{-1}(B)}X\,\mathrm {d} P=\int _{Y^{-1}(B)}(\operatorname {E} (X\mid Y)\circ Y)\,\mathrm {d} P.}

Уравнение означает, что интегралы от X {\ displaystyle X}Xи композиции E ⁡ (Икс ∣ Y) ∘ Y {\ displaystyle \ operatorname {E} (X \ mid Y) \ circ Y}\operatorname {E}(X\mid Y)\circ Yнад множествами формы Y - 1 (B) {\ displaystyle Y ^ {-1} (B)}Y^{{-1}}(B)для B ∈ Σ {\ displaystyle B \ in \ Sigma}B\in \Sigma идентичны.

Это уравнение можно интерпретировать как указание на то, что следующая диаграмма в среднем коммутативна.

A diagram, commutative in an average sense.

Вычисление

Когда X и Y оба являются дискретными случайными величинами, то условное ожидание X с учетом события Y = y можно рассматривать как функцию y для y в диапазоне элемента Y:

E ⁡ (X ∣ Y = y) = ∑ x ∈ X x P (X = x ∣ Y = y) = ∑ x ∈ X x P (X = x, Y = y) P (Y знак равно Y), {\ Displaystyle \ OperatorName {E} (X \ mid Y = y) = \ sum _ {x \ in {\ mathcal {X}}} x \, P (X = x \ mid Y = y) = \ sum _ {x \ in {\ mathcal {X}}} x \, {\ frac {P (X = x, Y = y)} {P (Y = y)}},}{\displaystyle \operatorname {E} (X\mid Y=y)=\sum _{x\in {\mathcal {X}}}x\,P(X=x\mid Y=y)=\sum _{x\in {\mathcal {X}}}x\,{\frac {P(X=x,Y=y)}{P(Y=y)}},}

где X {\ displaystyle {\ mathcal {X}}}{\mathcal {X}}- это диапазон X.

Если X - непрерывная случайная величина, в то время как Y остается дискретной переменной, условное ожидание равно

E ⁡ (X ∣ Y = y) = ∫ X xf X (x ∣ Y = y) dx, {\ displaystyle \ operatorname {E} (X \ mid Y = y) = \ int _ {\ mathcal {X}} xf_ {X} (x \ mid Y = y) \, \ mathrm {d} x,}{\displaystyle \operatorname {E} (X\mid Y=y)=\int _{\mathcal {X}}xf_{X}(x\mid Y=y)\,\mathrm {d} x,}

с f X (x ∣ Y = Y) знак равно е Икс, Y (Икс, Y) P (Y = Y) {\ Displaystyle F_ {X} (х \ середина Y = Y) = {\ гидроразрыва {F_ {X, Y} (х, у)} {P (Y = y)}}}{\displaystyle f_{X}(x\mid Y=y)={\frac {f_{X,Y}(x,y)}{P(Y=y)}}}(где f X, Y (x, y) дает t he плотность соединения X и Y), являющаяся условной плотностью X при Y = y.

Если и X, и Y являются непрерывными случайными величинами, то условное ожидание будет

E ⁡ (X ∣ Y = y) = ∫ X xf X ∣ Y (x ∣ y) dx, {\ displaystyle \ operatorname {E} (X \ mid Y = y) = \ int _ {\ mathcal {X}} xf_ {X \ mid Y} (x \ mid y) \, \ mathrm {d} x,}{\displaystyle \operatorname {E} (X\mid Y=y)=\int _{\mathcal {X}}xf_{X\mid Y}(x\mid y)\,\mathrm {d} x,}

где е Икс ∣ Y (Икс ∣ Y) = е Икс, Y (x, y) f Y (y) {\ displaystyle f_ {X \ mid Y} (x \ mid y) = {\ frac {f_ {X, Y} (x, y)} {f_ {Y} (y)}}}{\displaystyle f_{X\mid Y}(x\mid y)={\frac {f_{X,Y}(x,y)}{f_{Y}(y)}}}(где f Y (y) дает плотность Y).

Основные свойства

Все следующие формулы следует понимать почти наверняка. Σ-алгебра H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}может быть заменена случайной величиной Z {\ displaystyle Z}Z.

  • Выделение независимых факторов:
    • Если X {\ displaystyle X}Xявляется независимым от H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}, затем E (X ∣ H) = E (X) {\ displaystyle E (X \ mid {\ mathcal {H}}) = E (X)}{\displaystyle E(X\mid {\mathcal {H}})=E(X)}.
Доказательство

Пусть B ∈ H {\ Displaystyle B \ in {\ mathcal {H}}}{\displaystyle B\in {\mathcal {H}}}. Тогда X {\ displaystyle X}Xне зависит от 1 B {\ displaystyle 1_ {B}}1_{B}, поэтому мы получаем, что

∫ BX d P = E (X 1 B) = E (X) E (1 B) = E (X) P (B) = ∫ BE (X) d P. {\ Displaystyle \ int _ {B} X \, dP = E (X1_ {B}) = E (X) E (1_ {B}) = E (X) P (B) = \ int _ {B} E (X) \, dP.}{\displaystyle \int _{B}X\,dP=E(X1_{B})=E(X)E(1_{B})=E(X)P(B)=\int _{B}E(X)\,dP.}

Таким образом, определению условного ожидания удовлетворяет постоянная случайная величина E (X) {\ displaystyle E (X)}E(X), как требуется.

    • Если X {\ displaystyle X}Xне зависит от σ (Y, H) {\ displaystyle \ sigma (Y, {\ mathcal {H}})}\sigma (Y,{\mathcal {H}}), тогда E (XY ∣ H) = E (X) E (Y ∣ H) {\ displaystyle E (XY \ mid {\ mathcal {H}}) = E (X) \, E (Y \ mid {\ mathcal {H}})}{\displaystyle E(XY\mid {\mathcal {H}})=E(X)\,E(Y\mid {\mathcal {H}})}. Обратите внимание, что это не обязательно так, если X {\ displaystyle X}Xне зависит только от H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}и из Y {\ displaystyle Y}Y.
    • Если X, Y {\ displaystyle X, Y}X,Yнезависимы, G, H {\ displaystyle {\ mathcal {G }}, {\ mathcal {H}}}{\mathcal {G}},{\mathcal {H}}независимы, X {\ displaystyle X}Xне зависят от H {\ displaystyle {\ mathcal {H }}}{\mathcal {H}}и Y {\ displaystyle Y}Yне зависит от G {\ displaystyle {\ mathcal {G}}}{\mathcal {G}}, тогда E (E (XY ∣ G) ∣ H) = E (X) E (Y) = E (E (XY ∣ H) ∣ G) {\ displaystyle E (E (XY \ mid {\ mathcal { G}}) \ mid {\ mathcal {H}}) = E (X) E (Y) = E (E (XY \ mid {\ mathcal {H}}) \ mid {\ mathcal {G}})}{\displaystyle E(E(XY\mid {\mathcal {G}})\mid {\mathcal {H}})=E(X)E(Y)=E(E(XY\mid {\mathcal {H}})\mid {\mathcal {G}})}.
  • Стабильность:
    • Если X {\ displaystyle X}Xравно H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}- измеримо, то E (X ∣ H) = X {\ displaystyle E (X \ mid {\ mathcal {H}}) = X}{\displaystyle E(X\mid {\mathcal {H}})=X}.
    • Если Z - случайная величина, то E ⁡ ( f (Z) ∣ Z) = f (Z) {\ Displaystyle \ OperatorName {E} (е (Z) \ середина Z) = f (Z)}\operatorname {E}(f(Z)\mid Z)=f(Z). В простейшей форме это говорит: E ⁡ (Z ∣ Z) = Z {\ displaystyle \ operatorname {E} (Z \ mid Z) = Z}\operatorname {E}(Z\mid Z)=Z.
  • Извлечение известных факторов:
    • Если X {\ displaystyle X}Xравно H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}-measurable, то E (XY ∣ H) = XE (Y ∣ H) {\ displaystyle E (XY \ mid {\ mathcal {H}}) = X \, E (Y \ mid {\ mathcal {H}})}{\displaystyle E(XY\mid {\mathcal {H}})=X\,E(Y\mid {\mathcal {H}})}.
    • Если Z является случайным переменной, тогда E ⁡ (е (Z) Y ∣ Z) = f (Z) E ⁡ (Y ∣ Z) {\ displaystyle \ operatorname {E} (f (Z) Y \ mid Z) = f ( Z) \ operatorname {E} (Y \ mid Z)}\operatorname {E}(f(Z)Y\mid Z)=f(Z)\operatorname {E}(Y\mid Z).
  • Закон общего ожидания : E (E (X ∣ H)) = E (X) {\ displaystyle E (E (X \ mid {\ mathcal {H}})) = E (X)}E(E(X\mid {\mathcal {H}}))=E(X).
  • Свойство башни:
    • Для суб-σ-алгебр H 1 ⊂ H 2 ⊂ F {\ displaystyle {\ mathcal {H}} _ {1} \ subset {\ mathcal {H}} _ {2} \ subset {\ mathcal {F}}}{\mathcal {H}}_{1}\subset {\mathcal {H}}_{2}\subset {\mathcal {F}}у нас есть E (E (X ∣ H 2) ∣ ЧАС 1) знак равно Е (Икс ∣ ЧАС 1) {\ Displaystyle E (Е (Х \ mid {\ mathcal {H}} _ {2}) \ mid {\ mathcal {H}} _ {1}) = E (X \ mid {\ mathcal {H}} _ {1})}{\displaystyle E(E(X\mid {\mathcal {H}}_{2})\mid {\mathcal {H}}_{1})=E(X\mid {\mathcal {H}}_{1})}.
      • Особый случай - когда Z является H {\ dis playstyle {\ mathcal {H}}}{\mathcal {H}}-измеримая случайная величина. Тогда σ (Z) ⊂ H {\ displaystyle \ sigma (Z) \ subset {\ mathcal {H}}}{\displaystyle \sigma (Z)\subset {\mathcal {H}}}и, следовательно, E (E (X ∣ H) ∣ Z) Знак равно E (Икс ∣ Z) {\ displaystyle E (E (X \ mid {\ mathcal {H}}) \ mid Z) = E (X \ mid Z)}{\displaystyle E(E(X\mid {\mathcal {H}})\mid Z)=E(X\mid Z)}.
      • Doob martingale свойство: указанное выше с Z = E (X ∣ H) {\ displaystyle Z = E (X \ mid {\ mathcal {H}})}{\displaystyle Z=E(X\mid {\mathcal {H}})}(что равно H {\ displaystyle {\ mathcal {H}}}{\mathcal {H}}-измеримый), а также используя E ⁡ (Z ∣ Z) = Z {\ displaystyle \ operatorname {E} (Z \ mid Z) = Z}\operatorname {E}(Z\mid Z)=Z, дает E (Икс ∣ E (X ∣ H)) = E (X ∣ H) {\ displaystyle E (X \ mid E (X \ mid {\ mathcal {H}})) = E (X \ mid {\ mathcal {H}})}E(X\mid E(X\mid {\mathcal {H}}))=E(X\mid {\mathcal {H}}).
    • Для случайных величин X, Y {\ displaystyle X, Y}X,Yмы имеем E (E (X ∣ Y) ∣ е (Y)) знак равно Е (Икс ∣ е (Y)) {\ Displaystyle E (E (X \ середина Y) \ середина f (Y)) = E (X \ середина f (Y))}{\displaystyle E(E(X\mid Y)\mid f(Y))=E(X\mid f(Y))}.
    • Для случайных величин X, Y, Z {\ displaystyle X, Y, Z}X,Y,Zмы имеем E (E (X ∣ Y, Z) ∣ Y) = E (X ∣ Y) {\ displaystyle E (E (X \ mid Y, Z) \ mid Y) = E (X \ mid Y)}{\displaystyle E(E(X\mid Y,Z)\mid Y)=E(X\mid Y)}.
  • Линейность: мы имеем E (X 1 + X 2 ∣ ЧАС) знак равно Е (Икс 1 ∣ ЧАС) + Е (Икс 2 ∣ Н) {\ Displaystyle E (X_ {1} + X_ {2} \ mid {\ mathcal {H}}) = E (X_ {1} \ mid {\ mathcal {H}}) + E (X_ {2} \ mid {\ mathcal {H}})}{\displaystyle E(X_{1}+X_{2}\mid {\mathcal {H}})=E(X_{1}\mid {\mathcal {H}})+E(X_{2}\mid {\mathcal {H}})}и E (a X ∣ H) = a E (X ∣ H) {\ Displaystyle E (aX \ mid {\ mathcal {H}}) = a \, E (X \ mid {\ mathcal {H}})}{\displaystyle E(aX\mid {\mathcal {H}})=a\,E(X\mid {\mathcal {H}})}для a ∈ R {\ displaystyle a \ in \ mathbb {R}}a\in \mathbb{R} .
  • Положительность: если X ≥ 0 {\ displaystyle X \ geq 0}{\displaystyle X\geq 0}, то E (X ∣ H) ≥ 0 {\ displaystyle E (X \ mid {\ mathcal {H}}) \ geq 0}{\displaystyle E(X\mid {\mathcal {H}})\geq 0}.
  • Монотонность: если X 1 ≤ X 2 {\ displaystyle X_ {1} \ leq X_ {2}}{\displaystyle X_{1}\leq X_{2}}, затем E (X 1 ∣ H) ≤ E (X 2 ∣ H) {\ displaystyle E (X_ {1} \ mid {\ mathcal {H}}) \ leq E (X_ {2} \ mid {\ mathcal {H}})}{\displaystyle E(X_{1}\mid {\mathcal {H}})\leq E(X_{2}\mid {\mathcal {H}})}.
  • Монотонная сходимость : Если 0 ≤ X n ↑ X {\ displaystyle 0 \ leq X_ {n} \ uparrow X}{\displaystyle 0\leq X_{n}\uparrow X}тогда E (X N ∣ H) ↑ E (X ∣ H) {\ displaystyle E (X_ {n} \ mid {\ mathcal {H}}) \ uparrow E (X \ mid {\ mathcal {H}) })}{\displaystyle E(X_{n}\mid {\mathcal {H}})\uparrow E(X\mid {\mathcal {H}})}.
  • Преобладающая конвергенция : Если X n → X {\ displaystyle X_ {n} \ to X}{\displaystyle X_{n}\to X}и | X n | ≤ Y {\ displaystyle | X_ {n} | \ leq Y}{\displaystyle |X_{n}|\leq Y}с Y ∈ L 1 {\ displaystyle Y \ in L ^ {1}}{\displaystyle Y\in L^{1}}, затем Е (Икс N ∣ ЧАС) → Е (Икс ∣ Н) {\ Displaystyle E (X_ {n} \ mid {\ mathcal {H}}) \ к E (X \ mid {\ mathcal {H}}) }{\displaystyle E(X_{n}\mid {\mathcal {H}})\to E(X\mid {\mathcal {H}})}.
  • Лемма Фату : Если E (inf n X n ∣ H)>- ∞ {\ displaystyle \ textstyle E (\ inf _ {n} X_ {n} \ mid {\ mathcal {H) }})>- \ infty}{\displaystyle \textstyle E(\inf _{n}X_{n}\mid {\mathcal {H}})>- \ infty} then E ( lim inf n → ∞ X n ∣ H) ≤ lim inf n → ∞ E ( X n ∣ H) {\displaystyle \textstyle E(\liminf _{n \to \infty }X_{n}\mid {\mathcal {H}})\leq \liminf _{n\to \infty }E(X_{n}\mid {\mathcal {H}})}{\displaystyle \textstyle E(\liminf _{n\to \infty }X_{n}\mid {\mathcal {H}})\leq \liminf _{n\to \infty }E(X_{n}\mid {\mathcal {H}})}.
  • Jensen's inequality : If f : R → R {\displaystyle f\colon \mathbb {R} \rightarrow \mathbb {R} }{\displaystyle f\colon \mathbb {R} \rightarrow \mathbb {R} }is a convex function, then f ( E ( X ∣ H)) ≤ E ( f ( X) ∣ H) {\displaystyle f(E(X\mid {\mathcal {H}}))\leq E(f( X)\mid {\mathcal {H}})}{\displaystyle f(E(X\mid {\mathcal {H}}))\leq E(f(X)\mid {\mathcal {H}})}.
  • Conditional var iance : Using the conditional expectation we can define, by analogy with the definition of the variance as the mean square deviation from the average, the conditional variance
    • Definition: Var ⁡ ( X ∣ H) = E ⁡ ( ( X − E ⁡ ( X ∣ H)) 2 ∣ H) {\displaystyle \operatorname {Var} (X\mid {\mathcal {H}})=\operatorname {E} {\bigl (}(X-\operatorname {E} (X\mid {\mathcal {H}}))^{2}\mid {\mathcal {H}}{\bigr)}}\operatorname {Var}(X\mid {\mathcal {H}})=\operatorname {E}{\bigl (}(X-\operatorname {E}(X\mid {\mathcal {H}}))^{2}\mid {\mathcal {H}}{\bigr)}
    • Algebraic formula for the variance: Var ⁡ ( X ∣ H) = E ⁡ ( X 2 ∣ H) − ( E ⁡ ( X ∣ H)) 2 {\displaystyle \operatorname {Var} (X\mid {\mathcal {H}})=\operatorname {E} (X^{2}\mid {\mathcal {H}})-{\bigl (}\operatorname {E} (X\mid {\mathcal {H}}){\bigr)}^{2}}\operatorname {Var}(X\mid {\mathcal {H}})=\operatorname {E}(X^{2}\mid {\mathcal {H}})-{\bigl (}\operatorname {E}(X\mid {\mathcal {H}}){\bigr)}^{2}
    • Law of total variance : Var ⁡ ( X) = E ⁡ ( Var ⁡ ( X ∣ H)) + Var ⁡ ( E ⁡ ( X ∣ H)) {\displaystyle \operatorname {Var} (X)=\operatorname {E} (\operatorname {Var} (X\mid {\mathcal {H}}))+\operatorname {Var} (\operatorname {E} (X\mid {\mathcal {H}}))}\operatorname {Var}(X)=\operatorname {E}(\operatorname {Var}(X\mid {\mathcal {H}}))+\operatorname {Var}(\operatorname {E}(X\mid {\mathcal {H}})).
  • Martingale convergence : For a random variable X {\displaystyle X}X, that has finite expectation, we have E ( X ∣ H n) → E ( X ∣ H) {\displaystyle E(X\mid {\mathcal {H}}_{n})\to E(X\mid {\mathcal {H}})}E(X\mid {\mathcal {H}}_{n})\to E(X\mid {\mathcal {H}}), if either H 1 ⊂ H 2 ⊂ ⋯ {\displaystyle {\mathcal {H}}_{1}\subset {\mathcal {H}}_{2}\subset \dotsb }{\mathcal {H}}_{1}\subset {\mathcal {H}}_{2}\subset \dotsb is an increasing series of sub-σ-algebras and H = σ ( ⋃ n = 1 ∞ H n) {\displaystyle \textstyle {\mathcal {H}}=\sigma (\bigcup _{n=1}^{\infty }{\mathcal {H}}_{n})}{\displaystyle \textstyle {\mathcal {H}}=\sigma (\bigcup _{n=1}^{\infty }{\mathcal {H}}_{n})}or if H 1 ⊃ H 2 ⊃ ⋯ {\displaystyle {\mathcal {H}}_{1}\supset {\mathcal {H}}_{2}\supset \dotsb }{\mathcal {H}}_{1}\supset {\mathcal {H}}_{2}\supset \dotsb is a decreasing series of sub-σ-algebras and H = ⋂ n = 1 ∞ H n {\displaystyle \textstyle {\mathcal {H}}=\bigcap _{n=1}^{\infty }{\mathcal {H}}_{n}}{\displaystyle \textstyle {\mathcal {H}}=\bigcap _{n=1}^{\infty }{\mathcal {H}}_{n}}.
  • Conditional expectation as L 2 {\displaystyle L^{2}}L^{2}-projection: If X, Y {\displaystyle X,Y}X,Yare in the Hilbert space of square-integrable real random variables (real rand om variables with finite second moment) then
    • for H {\displaystyle {\mathcal {H}}}{\mathcal {H}}-measurable Y {\displaystyle Y}Y, we have E ( Y ( X − E ( X ∣ H))) = 0 {\displaystyle E(Y(X-E(X\mid {\mathcal {H}})))=0}{\displaystyle E(Y(X-E(X\mid {\mathcal {H}})))=0}, i.e. the conditional expectation E ( X ∣ H) {\displaystyle E(X\mid {\mathcal {H}})}{\displaystyle E(X\mid {\mathcal {H}})}is in the sense of the L(P) scalar product the orthogonal projection from X {\displaystyle X}Xto the linear subspace of H {\displaystyle {\mathcal {H}}}{\mathcal {H}}-measurable functions. (This allows to define and prove the existence of the conditional expectation based on the Hilbert projection theorem.)
    • the mapping X ↦ E ⁡ ( X ∣ H) {\displaystyle X\mapsto \operatorname {E} (X\mid {\mathcal {H}})}X\mapsto \operatorname {E}(X\mid {\mathcal {H}})is self-adjoint : E ⁡ ( X E ⁡ ( Y ∣ H)) = E ⁡ ( E ⁡ ( X ∣ H) E ⁡ ( Y ∣ H)) = E ⁡ ( E ⁡ ( X ∣ H) Y) {\displaystyle \operatorname {E} (X\operatorname {E} (Y\mid {\mathcal {H}}))=\operatorname {E} \left(\operatorname {E} (X\mid {\mathcal {H}})\operatorname {E} (Y\mid {\mathcal {H}})\right)=\operatorname {E} (\operatorname {E} (X\mid {\mathcal {H}})Y)}\operatorname E(X\operatorname E(Y\mid {\mathcal {H}}))=\operatorname E\left(\operatorname E(X\mid {\mathcal {H}})\operatorname E(Y\mid {\mathcal {H}})\right)=\operatorname E(\operatorname E(X\mid {\mathcal {H}})Y)
  • Conditioning is a contractive projection of L spaces L p ( Ω, F, P) → L p ( Ω, H, P) {\displaystyle L^{p}(\Omega,{\mathcal {F}},P)\rightarrow L^{p}(\Omega,{\mathcal {H}},P)}{\displaystyle L^{p}(\Omega,{\mathcal {F}},P)\rightarrow L^{p}(\Omega,{\mathcal {H}},P)}. I.e., E ⁡ ( | E ⁡ ( X ∣ H) | p) ≤ E ⁡ ( | X | p) {\displaystyle \operatorname {E} {\big (}|\operatorname {E} (X\mid {\mathcal {H}})|^{p}{\big)}\leq \operatorna me {E} {\big (}|X|^{p}{\big)}}{\displaystyle \operatorname {E} {\big (}|\operatorname {E} (X\mid {\mathcal {H}})|^{p}{\big)}\leq \operatorname {E} {\big (}|X|^{p}{\big)}}for any p ≥ 1.
  • Doob's conditional independence property: If X, Y {\displaystyle X,Y}X,Yare conditionally independent given Z {\displaystyle Z}Z, then P ( X ∈ B ∣ Y, Z) = P ( X ∈ B ∣ Z) {\displaystyle P(X\in B\mid Y,Z)=P(X\in B\mid Z)}{\displaystyle P(X\in B\mid Y,Z)=P(X\in B\mid Z)}(equivalently, E ( 1 { X ∈ B } ∣ Y, Z) = E ( 1 { X ∈ B } ∣ Z) {\displaystyle E(1_{\{X\in B\}}\mid Y,Z)=E(1_{\{X\in B\}}\mid Z)}{\displaystyle E(1_{\{X\in B\}}\mid Y,Z)=E(1_{\{X\in B\}}\mid Z)}).

See also

Probability laws

Notes

References

External links

Последняя правка сделана 2021-05-15 09:03:52
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте