Совместная энтропия

редактировать
Мера информации в теории вероятностей и информации X). Фиолетовый цвет - взаимная информация I (X; Y).

В теории информации, суставная энтропия является мерой неопределенность, связанная с набором переменных.

Содержание
  • 1 Определение
  • 2 Свойства
    • 2.1 Неотрицательность
    • 2.2 Больше индивидуальных энтропий
    • 2.3 Меньше или равна сумме индивидуальные энтропии
  • 3 Отношения с другими мерами энтропии
    • 3.1 Приложения
  • 4 Совместная дифференциальная энтропия
    • 4.1 Определение
    • 4.2 Свойства
  • 5 Ссылки
Определение

Совместное энтропия Шеннонабитах ) двух дискретных случайных величин X {\ displaystyle X}X и Y { \ displaystyle Y}Y с изображениями X {\ displaystyle {\ mathcal {X}}}{\ mathcal {X}} и Y {\ displaystyle {\ mathcal {Y}}}{ \ mathcal Y} определяется как

H (X, Y) = - ∑ x ∈ X ∑ y ∈ YP (x, y) log 2 ⁡ [P (x, y)] {\ displaystyle \ mathrm {H } (X, Y) = - \ sum _ {x \ in {\ mathcal {X}}} \ sum _ {y \ in {\ mathcal {Y}}} P (x, y) \ log _ {2} [P (x, y)]}{\ displaystyle \ mathrm {H} (X, Y) = - \ sum _ {x \ in {\ mathcal {X}}} \ sum _ {y \ in {\ mathcal {Y}}} P (x, y) \ log _ {2} [P (x, y)]}

(Eq.1)

где x {\ displaystyle x}x и y {\ displaystyle y}y - конкретные значения X {\ displaystyle X}X и Y {\ displaystyle Y}Y , соответственно, P (x, y) {\ displaystyle P (x, y)}P (x, y) - совместная вероятность совпадения этих значений вместе, а P (x, y) log 2 ⁡ [P ( x, y)] {\ displaystyle P (x, y) \ log _ {2} [P (x, y)]}P (x, y) \ log _ {2} [P (x, y)] определяется как 0, если P (x, y) = 0 {\ displaystyle P (x, y) = 0}P (x, y) = 0 .

Для более чем двух случайных величин X 1,..., X n {\ displaystyle X_ {1},..., X_ {n}}X_ {1},..., X_ {n} это расширяется до

H (X 1,..., X n) = - ∑ x 1 ∈ Х 1... ∑ Иксn ∈ Икс N п (Икс 1,..., xn) журнал 2 ⁡ [P (x 1,..., xn)] {\ Displaystyle \ mathrm {H} (X_ {1},..., X_ {n}) = - \ sum _ {x_ {1} \ in {\ mathcal {X}} _ {1}}... \ sum _ {x_ {n} \ in {\ mathcal {X}} _ {n}} P (x_ {1},..., x_ {n}) \ log _ {2} [P (x_ {1},..., x_ {n})]}{\ displaystyle \ mathrm {H} (X_ {1},..., X_ {n}) = - \ sum _ {x_ {1} \ in {\ mathcal {X}} _ {1}}... \ sum _ {x_ {n} \ in {\ mathcal {X}} _ {n}} P (x_ {1},..., x_ {n}) \ log _ {2} [P (x_ {1},..., x_ {n})]}

(уравнение.2)

где x 1,..., x n {\ displaystyle x_ {1},..., x_ {n}}x_ {1},..., x_ {n} - конкретные значения X 1,..., Икс n {\ displaystyle X_ {1},..., X_ {n}}X_ {1},..., X_ {n} , соответственно, P (x 1,..., Xn) {\ displaystyle P (x_ { 1},..., x_ {n})}P(x_{1},...,x_{n})- вероятность того, что эти значения встречаются вместе, а P (x 1,..., Xn) log 2 ⁡ [P (x 1,..., xn)] {\ displaystyle P (x_ {1},..., x_ {n}) \ log _ {2} [P (x_ {1},..., x_ {n}))]}P (x_ {1},..., x_ {n}) \ log _ {2} [P (x_ {1},..., x_ {n})] определяется как 0, если P (x 1,..., Xn) = 0 {\ displaystyle P (x_ {1},..., x_ {n}) = 0}P (x_ {1},..., x_ {n}) = 0 .

Свойства

Неотрицательность

Совместная энтропия набора случайных величин является неотрицательным числом.

ЧАС (Икс, Y) ≥ 0 {\ displaystyle \ mathrm {H} (X, Y) \ geq 0}{\ displaystyle \ mathrm {H} (X, Y) \ geq 0}
H (X 1,…, X n) ≥ 0 {\ displaystyle \ mathrm {H } (X_ {1}, \ ldots, X_ {n}) \ geq 0}{\ displaystyle \ mathrm {H} (X_ {1}, \ ldots, X_ {n}) \ geq 0}

Больше индивидуальных энтропий

Совместная энтропия набора переменных больше или равна максимуму всех индивидуальных энтропий переменных в наборе.

ЧАС (Икс, Y) ≥ макс [ЧАС (Х), ЧАС (Y)] {\ Displaystyle \ mathrm {H} (X, Y) \ geq \ max \ left [\ mathrm {H} (X), \ mathrm {H} (Y) \ right]}{\ displaystyle \ mathrm {H} (X, Y) \ geq \ max \ left [\ mathrm {H} (X), \ mathrm {H} (Y) \ right]}
H (X 1,…, X n) ≥ max 1 ≤ i ≤ N {H (X i)} {\ displaystyle \ mathrm {H} {\ bigl (} X_ {1}, \ ldots, X_ {n} {\ bigr)} \ geq \ max _ {1 \ leq i \ leq n} {\ Bigl \ {} \ mathrm {H} {\ bigl (} X_ {i} {\ bigr)} {\ Bigr \}}}{\ displaystyle \ mathrm {H} {\ bigl (} X_ {1}, \ ldots, X_ {n } {\ bigr)} \ geq \ max _ {1 \ leq i \ leq n} {\ Bigl \ {} \ mathrm {H} {\ bigl (} X_ {i} {\ bigr)} {\ Bigr \} }}

Меньше или равно сумме индивидуальных энтропий

Совместная энтропия набора переменных меньше или равна сумма индивидуальных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда X {\ displaystyle X}X и Y {\ displaystyle Y}Y статистически независимы.

H (Икс, Y) ≤ ЧАС (Икс) + ЧАС (Y) {\ Displaystyle \ mathrm {H} (X, Y) \ leq \ mathrm {H} (X) + \ mathrm {H} (Y)}{\ displaystyle \ mathrm {H} (X, Y) \ leq \ mathrm {H} (X) + \ mathrm {H} (Y)}
ЧАС (Икс 1,…, Икс N) ≤ ЧАС (Икс 1) +… + Н (Икс N) {\ Displaystyle \ mathrm {H} (X_ {1}, \ ldots, X_ {n}) \ leq \ mathrm {H} (X_ {1}) + \ ldots + \ mathrm {H} (X_ {n})}{\ displaystyle \ mathrm {H} (X_ {1}, \ ldots, X_ {n}) \ leq \ mathrm {H} (X_ {1}) + \ ldots + \ mathrm {H} (X_ {n})}
Отношения с другими мерами энтропии

Совместная энтропия используется в определении условная энтропия

H (X | Y) = H (X, Y) - H (Y) {\ displaystyle \ mathrm {H} (X | Y) = \ mathrm {H} (X, Y) - \ mathrm {H} (Y) \,}{\ displaystyle \ mathrm {H} (X | Y) = \ mathrm {H} (X, Y) - \ mathrm {H} (Y) \,} ,

и

H (X 1,…, X n) = ∑ k = 1 n H (X k | X k - 1,…, X 1) {\ displaystyle \ mathrm {H} (X_ {1}, \ dots, X_ {n}) = \ sum _ {k = 1} ^ {n} \ mathrm {H} (X_ {k} | X_ {k-1}, \ dots, X_ {1})}{\ displaystyle \ mathrm {H} (X_ { 1}, \ dots, X_ {n}) = \ sum _ {k = 1} ^ {n} \ mathrm {H} (X_ {k} | X_ {k-1}, \ dots, X_ {1}) } Он также используется в определении взаимной информации
I ⁡ (X; Y) = H (X) + H (Y) - H (X, Y) {\ Displaystyle \ OperatorName {I} (X; Y) = \ mathrm {H} (X) + \ mathr m {H} (Y) - \ mathrm {H} (X, Y) \,}{\ displaystyle \ operatorname {I} (X; Y) = \ mathrm {H} (X) + \ mathrm {H} (Y) - \ mathrm {H} (X, Y) \,}

В квантовой теории информации совместная энтропия обобщается до совместной квантовой энтропии.

Приложения

Доступен пакет Python для вычисления всех многомерных совместных энтропий, взаимной информации, условной взаимной информации, общих корреляций, информационного расстояния в наборе данных из n переменных.

Совместная дифференциальная энтропия

Определение

Приведенное выше определение предназначено для дискретных случайных величин и точно так же верно в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией. Пусть X {\ displaystyle X}X и Y {\ displaystyle Y}Y будут непрерывными случайными величинами с совместной функцией плотности вероятности е (х, y) {\ displaystyle f (x, y)}f (x, y) . Дифференциальная энтропия суставов h (X, Y) {\ displaystyle h (X, Y)}{\ displaystyle h (X, Y)} определяется как

h (X, Y) = - ∫ X, Y f (x, y) журнал ⁡ е (x, y) dxdy {\ displaystyle h (X, Y) = - \ int _ {{\ mathcal {X}}, {\ mathcal {Y}}} f (x, y) \ log f (x, y) \, dxdy}{\ displaystyle h (X, Y) = - \ int _ {{\ mathcal {X}}, {\ mathcal {Y }}} е (х, у) \ журнал е (х, у) \, dxdy}

(Eq.3)

Для более чем двух непрерывных случайных величин X 1,..., X n {\ displaystyle X_ {1},..., X_ {n}}X_ {1},..., X_ {n} определение обобщается на:

h (X 1,…, X n) = - ∫ f ( x 1,…, xn) журнал ⁡ е (x 1,…, xn) dx 1… dxn {\ displaystyle h (X_ {1}, \ ldots, X_ {n}) = - \ int f (x_ {1}, \ ldots, x_ {n}) \ log f (x_ {1}, \ ldots, x_ {n}) \, dx_ {1} \ ldots dx_ {n}}{\ displaystyle h (X_ {1}, \ ldots, X_ {n}) = - \ int f (x_ {1}, \ ldots, x_ {n}) \ log f (x_ {1}, \ ldots, x_ {n}) \, dx_ {1} \ ldots dx_ {n}}

(уравнение 4)

Интеграл берется за поддержку f {\ displaystyle f}f . Возможно, что интеграла не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.

Свойства

Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:

h (X 1, Икс 2,…, Икс N) ≤ ∑ я знак равно 1 nh (X i) {\ displaystyle h (X_ {1}, X_ {2}, \ ldots, X_ {n}) \ leq \ sum _ {i = 1} ^ {n} h (X_ {i})}{\ displaystyle h (X_ {1}, X_ {2}, \ ldots, X_ {n}) \ leq \ sum _ {i = 1} ^ {n} h (X_ {i})}

Следующее правило цепочки выполняется для двух случайных величин:

h (X, Y) = h (X | Y) + h (Y) { \ displaystyle h (X, Y) = h (X | Y) + h (Y)}{\ displaystyle h (X, Y) = h (X | Y) + h (Y)}

В случае более двух случайных величин это обобщается следующим образом:

h (X 1, X 2,…, Икс N) знак равно ∑ я знак равно 1 NH (Икс я | Икс 1, Икс 2,…, Икс я - 1) {\ displaystyle h (X_ {1}, X_ {2}, \ ldots, X_ {n}) = \ sum _ {i = 1} ^ {n} h (X_ {i} | X_ {1}, X_ {2}, \ ldots, X_ {i-1})}{\ displaystyle h (X_ {1}, X_ {2}, \ ldots, X_ {n}) = \ сумма _ {я = 1} ^ {n} час (X_ {i} | X_ {1}, X_ {2}, \ ldots, X_ {i-1})}

Совместная дифференциальная энтропия также используется в определение взаимной информации между непрерывными случайными величинами:

I ⁡ (X, Y) = h (X) + h (Y) - h (X, Y) {\ displaystyle \ operatorname { I} (X, Y) = h (X) + h (Y) -h (X, Y)}{\ displaystyle \ operatorname {I} (X, Y) = h (X) + h (Y) -h (X, Y)}
Ссылки
Последняя правка сделана 2021-05-25 03:17:06
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте