Диаграмма Венна теоретических показателей информации для трех переменных
,
и
, представленные нижним левым, нижним правым и верхним кругами соответственно. Условная взаимная информация
,
и
представлены желтой, голубой и пурпурной областями соответственно.
В теории вероятностей, в частности теории информации, условная взаимная информация в своей основной форме является ожидаемым значением из взаимной информации двух случайных величин с учетом значения третьей.
Содержание
- 1 Определение
- 2 В терминах pmf для дискретных распределений
- 3 В терминах pdf для непрерывных распределений
- 4 Некоторые идентичности
- 5 Более общее определение
- 6 Примечание к нотация
- 7 Свойства
- 7.1 Неотрицательность
- 7.2 Информация о взаимодействии
- 7.3 Цепное правило для взаимной информации
- 8 Многомерная взаимная информация
- 9 Ссылки
Определение
Для случайных переменные , и с поддерживающими наборами , и , мы определяем условную взаимную информацию как
Это можно записать в терминах оператора ожидания: .
Таким образом, - это ожидаемое (относительно ) расхождения Кульбака – Лейблера из условного совместного распределения на произведение условных маргиналов и . Сравните с определением взаимной информации.
в терминах PMF для дискретных распределений
для дискретных случайных величин , и с наборами поддержки , и , условная взаимная информация ration выглядит следующим образом:
где маргинальная, совместная и / или условная вероятность массовые функции обозначаются с соответствующим нижним индексом. Это можно упростить как
В терминах PDF для непрерывных распределений
Для (абсолютно) непрерывных случайных переменные , и с поддерживающими наборами , и , условная взаимная информация выглядит следующим образом
где маргинальная, совместная и / или условная функции плотности вероятности обозначаются с соответствующим индексом. Это можно упростить как
Некоторые тождества
В качестве альтернативы мы можем записать в терминах совместных и условных энтропий as
Это можно переписать, чтобы показать его связь с взаимной информацией
обычно переставляется как правило цепочки для взаимной информации
Другая эквивалентная форма приведенного выше:
Подобно взаимной информации, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :
Или как математическое ожидание более простых расхождений Кульбака – Лейблера:
- ,
- .
Более общее определение
Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности. (См. Также.)
Пусть будет вероятностным пространством, и пусть случайные величины , и каждый может быть определен как измеримая по Борелю функция от до некоторого пространства состояний, наделенного топологической структурой.
Рассмотрим меру Бореля (на σ-алгебре, сгенерированной открытыми наборами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому набору Бореля - размер его прообраза в . Это называется мерой продвижения вперед Поддержка случайной величины определяется как топологическая поддержка этой меры, то есть
Теперь мы можем формально определить меру условной вероятности задано значение одной (или, через топологию продукта , больше) случайных величин. Пусть будет измеримым подмножеством (т.е. ) и пусть Затем, используя теорему распада :
где предел берется по открытым окрестностям из , поскольку им разрешено становиться произвольно меньше по сравнению с включением множества.
Наконец, мы можем определить условную взаимную информацию через интегрирование Лебега :
где подынтегральное выражение - это логарифм производной Радона – Никодима, включающей некоторые условные вероятностные меры, которые мы только что определили.
Примечание к обозначениям
В таких выражениях, как и не обязательно должны ограничиваться представлением отдельных случайных величин, но также может представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве. Как это принято в теории вероятностей, мы можем использовать запятую для обозначения такого совместного распределения, например Следовательно, использование точки с запятой (или иногда двоеточия или даже клина ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется, поскольку совместная энтропия любого числа случайных величин совпадает с энтропией их совместного распределения.)
Свойства
Неотрицательность
Всегда верно, что
- ,
для дискретного, совместно распределенные случайные величины , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации, в частности, тех, которые известны как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности.
Информация о взаимодействии
Обусловливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию: то есть разница , называется информация о взаимодействии может быть положительной, отрицательной или нулевой. Это так даже тогда, когда случайные величины попарно независимы. Так происходит, когда:
в этом случае
,
и
попарно независимы и, в частности,
, но
Цепное правило для взаимной информации
многомерная взаимная информация
Условная взаимная информация может использоваться для индуктивного определения многомерной взаимной информации в теоретико-множественном или значении в контексте информационные диаграммы. В этом смысле мы определяем многомерную взаимную информацию следующим образом:
где
Это определение идентично определению для информации о взаимодействии, за исключением изменения знака в случае нечетного числа случайных величин. Сложность состоит в том, что эта многомерная взаимная информация (а также информация о взаимодействии) может быть положительной, отрицательной или нулевой, что затрудняет интуитивную интерпретацию этой величины. Фактически, для случайных величин существует градусов свобода того, как они могут быть коррелированы в теоретико-информационном смысле, соответствующем каждому непустому подмножеству этих переменных. Эти степени свободы ограничены различными неравенствами шенноновского и нешенноновского типа в теории информации.
Ссылки
- ^Wyner, A.D. (1978). «Определение условной взаимной информации для произвольных ансамблей». Информация и контроль. 38 (1): 51–59. doi : 10.1016 / s0019-9958 (78) 90026-8.
- ^Добрушин, Р. Л. (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи матем. Наук. 14 : 3–104.
- ^Покров, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience. ISBN 0-471-24195-4.
- ^Разложение на Math.StackExchange
- ^Регулярная условная вероятность на PlanetMath
- ^D. Leao, Jr. et al. Регулярная условная вероятность, распад вероятности и радоновые пространства. Proyecciones. Vol. 23, No. 1, pp. 15–29, май 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
- ^Полянский, Юрий; Ву, Ихонг (2017). Конспект лекций по теории информации (PDF). п. 30.