Условная взаимная информация

редактировать
Диаграмма Венна теоретических показателей информации для трех переменных x {\ displaystyle x}x , y { \ displaystyle y}y и z {\ displaystyle z}z , представленные нижним левым, нижним правым и верхним кругами соответственно. Условная взаимная информация I (x; z | y) {\ displaystyle I (x; z | y)}I (x; z | y) , I (y; z | x) {\ displaystyle I (y; z | x)}I (y; z | x) и I (x; y | z) {\ displaystyle I (x; y | z)}I (x; y | z) представлены желтой, голубой и пурпурной областями соответственно.

В теории вероятностей, в частности теории информации, условная взаимная информация в своей основной форме является ожидаемым значением из взаимной информации двух случайных величин с учетом значения третьей.

Содержание
  • 1 Определение
  • 2 В терминах pmf для дискретных распределений
  • 3 В терминах pdf для непрерывных распределений
  • 4 Некоторые идентичности
  • 5 Более общее определение
  • 6 Примечание к нотация
  • 7 Свойства
    • 7.1 Неотрицательность
    • 7.2 Информация о взаимодействии
    • 7.3 Цепное правило для взаимной информации
  • 8 Многомерная взаимная информация
  • 9 Ссылки
Определение

Для случайных переменные X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z с поддерживающими наборами Икс {\ displaystyle {\ mathcal {X}}}{\ mathcal {X}} , Y {\ displaystyle {\ mathcal {Y}}}{\ mathcal {Y}} и Z {\ displaystyle {\ mathcal {Z }}}\ mathcal {Z} , мы определяем условную взаимную информацию как

I (X; Y | Z) = ∫ ZDKL (P (X, Y) | Z ‖ PX | Z ⊗ PY | Z) d PZ {\ Displaystyle I (X; Y | Z) = \ int _ {\ mathcal {Z}} D _ {\ mathrm {KL}} (P _ {(X, Y) | Z} \ | P_ {X | Z} \ otimes P_ {Y | Z}) dP_ {Z}}{\ displaystyle I (X; Y | Z) = \ int _ {\ mathcal {Z}} D _ {\ mathrm {KL}} (P _ {(X, Y) | Z} \ | P_ {X | Z} \ otimes P_ {Y | Z}) dP_ {Z}}

Это можно записать в терминах оператора ожидания: I (X; Y | Z) знак равно EZ [DKL (P (X, Y) | Z ‖ PX | Z ⊗ PY | Z)] {\ displaystyle I (X; Y | Z) = \ mathbb {E} _ {Z} [D _ {\ mathrm {KL}} (P _ {(X, Y) | Z} \ | P_ {X | Z} \ otimes P_ {Y | Z})]}{\ displaystyle I (X; Y | Z) = \ mathbb {E} _ {Z} [D _ {\ mathrm {KL}} (P _ {(X, Y) | Z} \ | P_ {X | Z} \ otimes P_ {Y | Z})] } .

Таким образом, I (X; Y | Z) {\ displaystyle I (X; Y | Z)}{\ displaystyle I (X; Y | Z)} - это ожидаемое (относительно Z {\ displaystyle Z}Z ) расхождения Кульбака – Лейблера из условного совместного распределения P (X, Y) | Z {\ displaystyle P _ {(X, Y) | Z}}{\ displaystyle P _ {(X, Y) | Z}} на произведение условных маргиналов PX | Z {\ displaystyle P_ {X | Z}}{\ displaystyle P_ {X | Z}} и PY | Z {\ displaystyle P_ {Y | Z}}{\ displaystyle P_ {Y | Z}} . Сравните с определением взаимной информации.

в терминах PMF для дискретных распределений

для дискретных случайных величин X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z с наборами поддержки X {\ displaystyle {\ mathcal {X}}}{\ mathcal {X}} , Y {\ displaystyle {\ mathcal {Y}}}{\ mathcal {Y}} и Z {\ displaystyle {\ mathcal {Z}}}\ mathcal {Z} , условная взаимная информация ration I (X; Y | Z) {\ Displaystyle I (X; Y | Z)}{\ displaystyle I (X; Y | Z)} выглядит следующим образом:

I (X; Y | Z) = ∑ z ∈ Z p Z (z) ∑ y ∈ Y ∑ x ∈ X p X, Y | Z (x, y | z) log ⁡ p X, Y | Z (x, y | z) p X | Z (x | z) p Y | Z (Y | Z) {\ Displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} p_ {Z} (z) \ sum _ {y \ in {\ mathcal {Y}}} \ sum _ {x \ in {\ mathcal {X}}} p_ {X, Y | Z} (x, y | z) \ log {\ frac {p_ {X, Y | Z} ( x, y | z)} {p_ {X | Z} (x | z) p_ {Y | Z} (y | z)}}}{\ displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} p_ {Z} (z) \ sum _ {y \ in {\ mathcal {Y}}} \ sum _ {x \ in {\ mathcal {X}}} p_ {X, Y | Z} (x, y | z) \ log {\ frac {p_ {X, Y | Z} (x, y | z)} {p_ {X | Z} (x | z) p_ { Y | Z} (y | z)}}}

где маргинальная, совместная и / или условная вероятность массовые функции обозначаются p {\ displaystyle p}p с соответствующим нижним индексом. Это можно упростить как

I (X; Y | Z) = ∑ z ∈ Z ∑ y ∈ Y ∑ x ∈ X p X, Y, Z (x, y, z) log ⁡ p Z (z) p X, Y, Z (x, y, z) p X, Z (x, z) p Y, Z (y, z). {\ displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} \ sum _ {y \ in {\ mathcal {Y}}} \ sum _ {x \ in { \ mathcal {X}}} p_ {X, Y, Z} (x, y, z) \ log {\ frac {p_ {Z} (z) p_ {X, Y, Z} (x, y, z) } {p_ {X, Z} (x, z) p_ {Y, Z} (y, z)}}.}{\ displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} \ sum _ {y \ in {\ mathcal {Y}}} \ sum _ {x \ in {\ mathcal {X}}} p_ {X, Y, Z} (x, y, z) \ log {\ frac {p_ {Z} (z) p_ {X, Y, Z) } (x, y, z)} {p_ {X, Z} (x, z) p_ {Y, Z} (y, z)}}.}

В терминах PDF для непрерывных распределений

Для (абсолютно) непрерывных случайных переменные X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z с поддерживающими наборами Икс {\ displaystyle {\ mathcal {X}}}{\ mathcal {X}} , Y {\ displaystyle {\ mathcal {Y}}}{\ mathcal {Y}} и Z {\ displaystyle {\ mathcal {Z }}}\ mathcal {Z} , условная взаимная информация I (X; Y | Z) {\ displaystyle I (X; Y | Z)}{\ displaystyle I (X; Y | Z)} выглядит следующим образом

I (X; Y | Z) = ∫ Z (∫ Y ∫ X журнал ⁡ (p X, Y | Z (x, y | z) p X | Z (x | z) p Y | Z (y | z)) п Икс, Y | Z (Икс, Y | Z) dxdy) п Z (Z) dz {\ Displaystyle I (X; Y | Z) = \ int _ {\ mathcal {Z}} {\ bigg (} \ int _ {\ mathcal {Y}} \ int _ {\ mathcal {X}} \ log \ left ({\ frac {p_ {X, Y | Z} (x, y | z)} {p_ {X | Z}) (x | z) p_ {Y | Z} (y | z)}} \ right) p_ {X, Y | Z} ( x, y | z) dxdy {\ bigg)} p_ {Z} (z) dz}{\ displaystyle I (X; Y | Z) = \ in t _ {\ mathcal {Z}} {\ bigg (} \ int _ {\ mathcal {Y}} \ int _ {\ mathcal {X}} \ log \ left ({\ frac {p_ {X, Y | Z } (x, y | z)} {p_ {X | Z} (x | z) p_ {Y | Z} (y | z)}} \ right) p_ {X, Y | Z} (x, y | z) dxdy {\ bigg)} p_ {Z} (z) dz}

где маргинальная, совместная и / или условная функции плотности вероятности обозначаются p {\ displaystyle p}p с соответствующим индексом. Это можно упростить как

I (X; Y | Z) = ∫ Z ∫ Y ∫ X log ⁡ (p Z (z) p X, Y, Z (x, y, z) p X, Z (x, z) p Y, Z (y, z)) p X, Y, Z (x, y, z) dxdydz. {\ displaystyle I (X; Y | Z) = \ int _ {\ mathcal {Z}} \ int _ {\ mathcal {Y}} \ int _ {\ mathcal {X}} \ log \ left ({\ frac {p_ {Z} (z) p_ {X, Y, Z} (x, y, z)} {p_ {X, Z} (x, z) p_ {Y, Z} (y, z)}} \ справа) p_ {X, Y, Z} (x, y, z) dxdydz.}{\ displaystyle I (X; Y | Z) = \ int _ {\ mathcal {Z}} \ int _ {\ mathcal {Y}} \ int _ {\ mathcal {X}} \ log \ left ({\ frac {p_ {Z} (z) p_ {X, Y, Z} (x, y, z)} {p_ {X, Z} (x, z) p_ {Y, Z} (y, z)}} \ right) p_ {X, Y, Z} (x, y, z) dxdydz.}

Некоторые тождества

В качестве альтернативы мы можем записать в терминах совместных и условных энтропий as

I (X; Y | Z) = H (X, Z) + H (Y, Z) - H (X, Y, Z) - H (Z) = H (X | Z) - H (X | Y, Z).) = H (X | Z) + H (Y | Z) - H (X, Y | Z). {\ Displaystyle I (X; Y | Z) = H (X, Z) + H (Y, Z) -H (X, Y, Z) -H (Z) = H (X | Z) -H (X | Y, Z) = H (X | Z) + H (Y | Z) -H (X, Y | Z).}{\ displaystyle I (X; Y | Z) = H (X, Z) + H (Y, Z) -H (X, Y, Z) -H (Z) = H (X | Z) -H (X | Y, Z) = H (X | Z) + H (Y | Z) -H (X, Y | Z).}

Это можно переписать, чтобы показать его связь с взаимной информацией

I (X ; Y | Z) знак равно I (X; Y, Z) - I (X; Z) {\ Displaystyle I (X; Y | Z) = I (X; Y, Z) -I (X; Z)}I (X; Y | Z) = I (X; Y, Z) -I (X; Z)

обычно переставляется как правило цепочки для взаимной информации

I (X; Y, Z) = I (X; Z) + I (X; Y | Z) {\ displaystyle I (X; Y, Z) = I (X; Z) + I (X; Y | Z)}I (X; Y, Z) = I (X; Z) + I (X; Y | Z)

Другая эквивалентная форма приведенного выше:

I (X; Y | Z) = H (Z | X) + H ( X) + H (Z | Y) + H (Y) - H (Z | X, Y) - H (X, Y) - H (Z) = I (X; Y) + H (Z | X) + ЧАС (Z | Y) - ЧАС (Z | X, Y) - ЧАС (Z) {\ Displaystyle I (X; Y | Z) = Н (Z | X) + Н (X) + Н (Z | Y) + H (Y) -H (Z | X, Y) -H (X, Y) -H (Z) = I (X; Y) + H (Z | X) + H (Z | Y) -H ( Z | X, Y) -H (Z)}I (X; Y | Z) = H (Z | X) + H (X) + H (Z | Y) + H (Y) -H (Z | X, Y) -H (X, Y) -H (Z) = I (X; Y) + H (Z | X) + H (Z | Y) -H (Z | X, Y) -H (Z)

Подобно взаимной информации, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :

I (X; Y | Z) = DKL [p ( X, Y, Z) ‖ p (X | Z) p (Y | Z) p (Z)]. {\ Displaystyle I (X; Y | Z) = D _ {\ mathrm {KL}} [p (X, Y, Z) \ | p (X | Z) p (Y | Z) p (Z)].}I (X; Y | Z) = D _ {{{\ mathrm {KL}}}} [p (X, Y, Z) \ | p (X | Z) p (Y | Z) p (Z)].

Или как математическое ожидание более простых расхождений Кульбака – Лейблера:

I (X; Y | Z) = ∑ z ∈ Z p (Z = z) DKL [p (X, Y | z) ‖ p ( Икс | Z) п (Y | Z)] {\ Displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} p (Z = z) D _ {\ mathrm {KL }} [p (X, Y | z) \ | p (X | z) p (Y | z)]}{\ displaystyle I (X; Y | Z) = \ sum _ {z \ in {\ mathcal {Z}}} p (Z = z) D _ {\ mathrm {KL }} [p (X, Y | z) \ | p (X | z) p (Y | z)]} ,
I (X; Y | Z) = ∑ y ∈ Y p (Y = y) DKL [п (Икс, Z | Y) ‖ п (Икс | Z) п (Z | Y)] {\ Displaystyle I (X; Y | Z) = \ сумма _ {у \ in {\ mathcal {Y}}} p (Y = y) D _ {\ mathrm {KL}} [p (X, Z | y) \ | p (X | Z) p (Z | y)]}{\ displaystyle I (X; Y | Z) = \ сумма _ {y \ in {\ mathcal {Y}}} p (Y = y) D _ {\ mathrm {KL}} [p (X, Z | y) \ | p (X | Z) p (Z | y)]} .
Более общее определение

Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности. (См. Также.)

Пусть (Ω, F, P) {\ displaystyle (\ Omega, {\ mathcal {F}}, {\ mathfrak {P}})}(\ Omega, {\ mathcal F}, {\ mathfrak P}) будет вероятностным пространством, и пусть случайные величины X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z каждый может быть определен как измеримая по Борелю функция от Ω {\ displaystyle \ Omega}\ Omega до некоторого пространства состояний, наделенного топологической структурой.

Рассмотрим меру Бореля (на σ-алгебре, сгенерированной открытыми наборами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому набору Бореля P {\ displaystyle {\ mathfrak {P} }}{\ mathfrak P} - размер его прообраза в F {\ displaystyle {\ mathcal {F}}}{\ mathcal {F}} . Это называется мерой продвижения вперед X ∗ P = P (X - 1 (⋅)). {\ displaystyle X _ {*} {\ mathfrak {P}} = {\ mathfrak {P}} {\ big (} X ^ {- 1} (\ cdot) {\ big)}.}X _ {*} {\ mathfrak P} = {\ mathfrak P} {\ big (} X ^ {{- 1}} (\ cdot) {\ big)}. Поддержка случайной величины определяется как топологическая поддержка этой меры, то есть supp X = supp X ∗ P. {\ displaystyle \ mathrm {supp} \, X = \ mathrm {supp} \, X _ {*} {\ mathfrak {P}}.}{\ mathrm {supp}} \, X = {\ mathrm {supp} } \, X _ {*} {\ mathfrak P}.

Теперь мы можем формально определить меру условной вероятности задано значение одной (или, через топологию продукта , больше) случайных величин. Пусть M {\ displaystyle M}M будет измеримым подмножеством Ω, {\ displaystyle \ Omega,}\ Omega, (т.е. M ∈ F, {\ displaystyle M \ in {\ mathcal {F}},}M \ in {\ mathcal F}, ) и пусть x ∈ supp X. {\ displaystyle x \ in \ mathrm {supp} \, X.}x \ in {\ mathrm {supp}} \, X. Затем, используя теорему распада :

, P (M | X = x) = lim U ∋ x P (M ∩ {X ∈ U}) P ({X ∈ U}) и P (M | X) = ∫ M d P (ω | X = X (ω)), {\ displaystyle {\ mathfrak {P}} (M | X = x) = \ lim _ {U \ ni x} {\ frac {{\ mathfrak {P}} (M \ cap \ {X \ in U \})} {{\ mathfrak {P}} (\ {X \ in U \})}} \ qquad {\ textrm {and}} \ qquad {\ mathfrak {P}} (M | X) = \ int _ {M} d {\ mathfrak {P}} {\ big (} \ omega | X = X (\ omega) {\ big)},}{\ mathfrak P} (M | X = x) = \ lim _ {{U \ ni x}} {\ frac {{\ mathfrak P} (M \ cap \ {X \ in U \})} {{ \ mathfrak P} (\ {X \ in U \})}} \ qquad {\ textrm {and}} \ qquad {\ mathfrak P} (M | X) = \ int _ {M} d {\ mathfrak P} {\ big (} \ omega | X = X (\ omega) {\ big)},

где предел берется по открытым окрестностям U {\ displaystyle U}U из x {\ displaystyle x}x , поскольку им разрешено становиться произвольно меньше по сравнению с включением множества.

Наконец, мы можем определить условную взаимную информацию через интегрирование Лебега :

I (X; Y | Z) = ∫ Ω log ⁡ (d P (ω | X, Z) d P (ω | Y, Z) d P (ω | Z) d P (ω | X, Y, Z)) d п (ω), {\ displaystyle I (X; Y | Z) = \ int _ {\ Omega} \ log {\ Bigl (} {\ frac {d {\ mathfrak {P}} (\ omega | X, Z) \, d {\ mathfrak {P}} (\ omega | Y, Z)} { d {\ mathfrak {P}} (\ omega | Z) \, d {\ mathfrak {P}} (\ omega | X, Y, Z)}} {\ Bigr)} d {\ mathfrak {P}} ( \ omega),}{\ displaystyle I (X; Y | Z) = \ int _ {\ Omega} \ log {\ Bigl (} {\ frac {d {\ mathfrak {P}} (\ omega | X, Z) \, d {\ mathfrak {P}} (\ омега | Y, Z)} {d {\ mathfrak {P}} (\ omega | Z) \, d {\ mathfrak {P}} (\ omega | X, Y, Z)}} {\ Bigr)} d {\ mathfrak {P}} (\ omega),}

где подынтегральное выражение - это логарифм производной Радона – Никодима, включающей некоторые условные вероятностные меры, которые мы только что определили.

Примечание к обозначениям

В таких выражениях, как I (A; B | C), {\ displaystyle I (A; B | C),}I (A; B | C), A, {\ displaystyle A,}A, B, {\ displaystyle B,}B,и C {\ displaystyle C}Cне обязательно должны ограничиваться представлением отдельных случайных величин, но также может представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве. Как это принято в теории вероятностей, мы можем использовать запятую для обозначения такого совместного распределения, например I (A 0, A 1; B 1, B 2, B 3 | C 0, C 1). {\ displaystyle I (A_ {0}, A_ {1}; B_ {1}, B_ {2}, B_ {3} | C_ {0}, C_ {1}).}I (A_ {0}, A_ {1}; B_ {1}, B_ {2}, B_ {3} | C_ {0}, C_ {1}). Следовательно, использование точки с запятой (или иногда двоеточия или даже клина ∧ {\ displaystyle \ wedge}\ wedge ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется, поскольку совместная энтропия любого числа случайных величин совпадает с энтропией их совместного распределения.)

Свойства

Неотрицательность

Всегда верно, что

I (X; Y | Z) ≥ 0 {\ displaystyle I (X; Y | Z) \ geq 0}I (X; Y | Z) \ geq 0 ,

для дискретного, совместно распределенные случайные величины X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации, в частности, тех, которые известны как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности.

Информация о взаимодействии

Обусловливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию: то есть разница I (X; Y) - I (X; Y | Z) {\ displaystyle I (X; Y) -I (X; Y | Z)}{\ displaystyle I (X; Y) -I (X; Y | Z)} , называется информация о взаимодействии может быть положительной, отрицательной или нулевой. Это так даже тогда, когда случайные величины попарно независимы. Так происходит, когда:

X ∼ B ernoulli (0,5), Z ∼ B ernoulli (0,5), Y = {X, если Z = 0, 1 - X, если Z = 1 {\ displaystyle X \ sim \ mathrm {Bernoulli } (0,5), Z \ sim \ mathrm {Бернулли} (0,5), \ quad Y = \ left \ {{\ begin {array} {ll} X {\ text {if}} Z = 0 \\ 1-X {\ text {if}} Z = 1 \ end {array}} \ right.}{\ displaystyle X \ sim \ mathrm {Bernoulli} (0,5), Z \ sim \ mathrm {Bernoulli} (0,5), \ quad Y = \ left \ {{\ begin {array} {ll} X {\ text {if}} Z = 0 \\ 1-X {\ text {if}} Z = 1 \ end {array}} \ right.} в этом случае X {\ displaystyle X}X , Y {\ displaystyle Y}Y и Z {\ displaystyle Z}Z попарно независимы и, в частности, I (X; Y) = 0 {\ displaystyle I (X; Y) = 0}{\ displaystyle I (X; Y) = 0} , но I (X; Y | Z) = 1. {\ displaystyle I (X; Y | Z) = 1.}{\ displaystyle I (X; Y | Z) = 1.}

Цепное правило для взаимной информации

I (X; Y, Z) = I (X; Z) + I (X; Y | Z) {\ displaystyle I (X; Y, Z) = I (X; Z) + I (X; Y | Z)}I (X; Y, Z) = I (X; Z) + I (X; Y | Z)
многомерная взаимная информация

Условная взаимная информация может использоваться для индуктивного определения многомерной взаимной информации в теоретико-множественном или значении в контексте информационные диаграммы. В этом смысле мы определяем многомерную взаимную информацию следующим образом:

I (X 1;…; X n + 1) = I (X 1;…; X n) - I (X 1;…; X n | X п + 1), {\ Displaystyle I (X_ {1}; \ ldots; X_ {n + 1}) = I (X_ {1}; \ ldots; X_ {n}) - I (X_ {1}; \ ldots; X_ {n} | X_ {n + 1}),}Я (X_ {1}; \ ldots; X _ {{n + 1}}) = I (X_ {1}; \ ldots; X_ {n}) - I (X_ {1}; \ ldots; X_ {n} | X _ {{n + 1}}),

где

I (X 1;…; X n | X n + 1) = EX n + 1 [DKL (P (X 1,…, X n) | X n + 1 ‖ PX 1 | X n + 1 ⊗ ⋯ ⊗ PX n | X n + 1)]. {\ displaystyle I (X_ {1}; \ ldots; X_ {n} | X_ {n + 1}) = \ mathbb {E} _ {X_ {n + 1}} [D _ {\ mathrm {KL}} ( P _ {(X_ {1}, \ ldots, X_ {n}) | X_ {n + 1}} \ | P_ {X_ {1} | X_ {n + 1}} \ otimes \ cdots \ otimes P_ {X_ { n} | X_ {n + 1}})].}{\ displaystyle I (X_ {1}; \ ldots; X_ {n} | X_ {n + 1}) = \ mathbb {E} _ {X_ { n + 1}} [D _ {\ mathrm {KL}} (P _ {(X_ {1}, \ ldots, X_ {n}) | X_ {n + 1}} \ | P_ {X_ {1} | X_ { n + 1}} \ otimes \ cdots \ otimes P_ {X_ {n} | X_ {n + 1}})].}

Это определение идентично определению для информации о взаимодействии, за исключением изменения знака в случае нечетного числа случайных величин. Сложность состоит в том, что эта многомерная взаимная информация (а также информация о взаимодействии) может быть положительной, отрицательной или нулевой, что затрудняет интуитивную интерпретацию этой величины. Фактически, для n {\ displaystyle n}n случайных величин существует 2 n - 1 {\ displaystyle 2 ^ {n} -1}2 ^ {n} -1 градусов свобода того, как они могут быть коррелированы в теоретико-информационном смысле, соответствующем каждому непустому подмножеству этих переменных. Эти степени свободы ограничены различными неравенствами шенноновского и нешенноновского типа в теории информации.

Ссылки
  1. ^Wyner, A.D. (1978). «Определение условной взаимной информации для произвольных ансамблей». Информация и контроль. 38 (1): 51–59. doi : 10.1016 / s0019-9958 (78) 90026-8.
  2. ^Добрушин, Р. Л. (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи матем. Наук. 14 : 3–104.
  3. ^Покров, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience. ISBN 0-471-24195-4.
  4. ^Разложение на Math.StackExchange
  5. ^Регулярная условная вероятность на PlanetMath
  6. ^D. Leao, Jr. et al. Регулярная условная вероятность, распад вероятности и радоновые пространства. Proyecciones. Vol. 23, No. 1, pp. 15–29, май 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
  7. ^Полянский, Юрий; Ву, Ихонг (2017). Конспект лекций по теории информации (PDF). п. 30.
Последняя правка сделана 2021-05-15 09:03:58
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте