В этой статье обсуждается, как теория информации (раздел математики, изучающий передачу, обработку и хранение из информации ) относится к теории меры (раздел математики, связанный с интегрированием и вероятностью ).
Содержание
- 1 Меры в теории информации
- 2 Энтропия как «мера»
- 3 Многомерная взаимная информация
- 4 Ссылки
- 5 См. Также
Меры в теории информации
Многие концепции теории информации имеют отдельные определения и формулы для непрерывных и дискретных случаев. Например, энтропия обычно определяется для дискретных случайных величин, тогда как для непрерывных случайных величин связанные Используется концепция дифференциальной энтропии, записываемая как (см. Cover and Thomas, 2006, глава 8). Обе эти концепции являются математическими ожиданиями, но математическое ожидание определяется с помощью интеграла для непрерывного случая и суммы для дискретного случая.
Эти отдельные определения могут быть более тесно связаны с точки зрения теории меры. Для дискретных случайных величин функции вероятности и массы можно рассматривать как функции плотности по отношению к счетной мере. Думая об интеграле и сумме как об интегрировании в пространстве мер, можно использовать единый подход.
Рассмотрим формулу дифференциальной энтропии непрерывной случайной величины с диапазоном и функция плотности вероятности :
Обычно это можно интерпретировать как следующее: Riemann– Интеграл Стилтьеса :
где - мера Лебега.
Если вместо этого, дискретный, с диапазоном конечным набором, - функция массы вероятности на , а - счетная мера на , мы можем написать:
Интегральное выражение и общая концепция идентичны в непрерывном случае; единственная разница - это используемая мера. В обоих случаях функция плотности вероятности является производной Радона – Никодима от вероятностной меры относительно меры против который берется интеграл.
Если - мера вероятности, вызванная , то интеграл также может быть взяты непосредственно относительно :
Если вместо основной меры μ мы берем другую вероятностную меру , мы приходим к расхождению Кульбака – Лейблера : let и быть вероятностными мерами в одном и том же пространстве. Тогда, если абсолютно непрерывен по отношению к , записывается производная Радона – Никодима существует, и расхождение Кульбака – Лейблера может быть выражено в его полной общности:
где интеграл проходит по опоре из Обратите внимание, что мы опустили отрицательный знак: расхождение Кульбака – Лейблера всегда неотрицательно из-за неравенства Гиббса.
Энтропия как «мера»
Диаграмма Венна для различных информационных мер, связанных с коррелированными переменными X и Y. Площадь, содержащаяся в обоих кругах, является совместной энтропией H (X, Y). Круг слева (красный и голубой) - это индивидуальная энтропия H (X), красный - условная энтропия H (X | Y). Круг справа (синий и голубой) - это H (Y), а синий - H (Y | X). Голубой - это взаимная информация I (X; Y).
диаграмма Венна теоретико-информационных мер для трех переменных x, y и z. Каждый кружок представляет индивидуальную
энтропию : H (x) - нижний левый кружок, H (y) - нижний правый, а H (z) - верхний кружок. Пересечения любых двух кружков представляют
взаимную информацию для двух связанных переменных (например, I (x; z) желтый и серый). Объединение любых двух кругов - это
объединенная энтропия для двух связанных переменных (например, H (x, y) - это все, кроме зеленого). Совместная энтропия H (x, y, z) всех трех переменных - это объединение всех трех окружностей. Он разделен на 7 частей: красный, синий и зеленый - условные энтропии H (x | y, z), H (y | x, z), H (z | x, y) соответственно., желтый, пурпурный и голубой обозначают
условную взаимную информацию I (x; z | y), I (y; z | x) и I (x; y | z) соответственно, а серый цвет обозначает
многомерная взаимная информация I (x; y; z). Многовариантная взаимная информация - единственная из всех, что может быть отрицательной.
Существует аналогия между базовыми «мерами из информации, которые использует Шеннон.>содержание случайных величин и показатель по множествам. А именно, объединенная энтропия, условная энтропия и взаимная информация могут рассматриваться как мера набора объединения, множества Разница и задают пересечение соответственно (Реза, с. 106–108).
Если мы свяжем существование абстрактных множеств и к произвольным дискретным случайным величинам X и Y, каким-то образом представляя информацию, переносимую X и Y, соответственно, такое, что:
- всякий раз, когда X и Y безусловно независимы, и
- если X и Y таковы, что один из них полностью определяется другим (т. е. биекцией);
где - знаковая мера над этими множествами, и положим:
мы обнаруживаем, что «мера» информационного содержания Шеннона удовлетворяет всем постулатам и основным свойствам формального показатель со знаком по множествам, как обычно показано на информационной диаграмме . Это позволяет записать сумму двух мер:
и аналог теоремы Байеса () позволяет записать разность двух мер:
Это может быть удобным мнемоническим устройством в некоторых ситуациях, например
Обратите внимание, что меры (математические ожидания логарифма) истинных вероятностей называются «энтропией» и обычно обозначается буквой H, в то время как другие меры часто называют «информацией» или «корреляцией» и обычно обозначаются буквой I. Для упрощения обозначений буква I иногда используется для всех показателей.
Многомерная взаимная информация
Определенные расширения определений основных мер информации Шеннона необходимы для работы с σ-алгеброй, генерируемой наборами, которые будут связаны с три или более произвольных случайных величин. (См. Реза, стр. 106–108 для неформального, но достаточно полного обсуждения.) А именно необходимо определить очевидным образом как энтропию совместного распределения и многомерную взаимную информацию определено подходящим образом, так что мы можем установить:
для определения (знаковой) меры по всей σ-алгебре. Не существует единого общепринятого определения многовариантной взаимной информации, но то, которое здесь соответствует мере пересечения множеств, принадлежит Фано (1966: стр. 57-59). Определение рекурсивное. В качестве базового случая взаимная информация одной случайной величины определяется как ее энтропия: . Затем для мы устанавливаем
где условная взаимная информация определяется как
Первый шаг в рекурсии дает определение Шеннона Многомерная взаимная информация (такая же, как информация о взаимодействии, но для изменения знака) трех или более случайных величин может быть как отрицательной, так и положительной: пусть X и Y будут двумя независимыми честно подбрасывает монету, и пусть Z будет их исключительным или. Тогда бит.
Для трех или более случайных величин возможны многие другие варианты: например, - это взаимная информация о совместном распределении X и Y относительно Z, и ее можно интерпретировать как Можно построить много более сложных выражений путь, и все еще имеют значение, например или
Ссылки
- Томас М. Ковер и Джой А. Томас. Элементы теории информации, второе издание, 2006 г. Нью-Джерси: Wiley and Sons. ISBN 978-0-471-24195-9.
- Фазлолла М. Реза. Введение в теорию информации. Нью-Йорк: McGraw – Hill 1961. Нью-Йорк: Dover 1994. ISBN 0-486-68210-2
- Фано, RM (1966), Передача информации: статистическая теория коммуникации, MIT Press, ISBN 978-0-262-56169-3, OCLC 804123877
- Р. W. Yeung, "Об энтропии, информационных неравенствах и группах". PS
См. Также