Мера информации в теории вероятностей и информации
X). Фиолетовый цвет -
взаимная информация I (X; Y).
В теории информации, суставная энтропия является мерой неопределенность, связанная с набором переменных.
Содержание
- 1 Определение
- 2 Свойства
- 2.1 Неотрицательность
- 2.2 Больше индивидуальных энтропий
- 2.3 Меньше или равна сумме индивидуальные энтропии
- 3 Отношения с другими мерами энтропии
- 4 Совместная дифференциальная энтропия
- 4.1 Определение
- 4.2 Свойства
- 5 Ссылки
Определение
Совместное энтропия Шеннона (в битах ) двух дискретных случайных величин и с изображениями и определяется как
| | (Eq.1) |
где и - конкретные значения и , соответственно, - совместная вероятность совпадения этих значений вместе, а определяется как 0, если .
Для более чем двух случайных величин это расширяется до
| | (уравнение.2) |
где - конкретные значения , соответственно, - вероятность того, что эти значения встречаются вместе, а определяется как 0, если .
Свойства
Неотрицательность
Совместная энтропия набора случайных величин является неотрицательным числом.
Больше индивидуальных энтропий
Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.
Меньше или равно сумме индивидуальных энтропий
Совместная энтропия набора переменных меньше или равна сумма индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и статистически независимы.
Отношения с другими мерами энтропии
Совместная энтропия используется в определении условная энтропия
- ,
и
Он также используется в определении
взаимной информации
В квантовой теории информации совместная энтропия обобщается до совместной квантовой энтропии.
Приложения
Доступен пакет Python для вычисления всех многомерных совместных энтропий, взаимной информации, условной взаимной информации, общих корреляций, информационного расстояния в наборе данных из n переменных.
Совместная дифференциальная энтропия
Определение
Приведенное выше определение предназначено для дискретных случайных величин и точно так же верно в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией. Пусть и будут непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная энтропия суставов определяется как
| | (Eq.3) |
Для более чем двух непрерывных случайных величин определение обобщается на:
| | (уравнение 4) |
Интеграл берется за поддержку . Возможно, что интеграла не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.
Свойства
Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:
Следующее правило цепочки выполняется для двух случайных величин:
В случае более двух случайных величин это обобщается следующим образом:
Совместная дифференциальная энтропия также используется в определение взаимной информации между непрерывными случайными величинами:
Ссылки