Энтропия Реньи

редактировать

В теории информации, то энтропия Реньи обобщает энтропию Хартли, то энтропия Шеннона, то столкновение энтропии и мин-энтропии. Энтропии количественно определяют разнообразие, неопределенность или случайность системы. Энтропия названа в честь Альфреда Реньи. В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей.

Энтропия Реньи важна в экологии и статистике как показатель разнообразия. Энтропия Реньи также важна для квантовой информации, где ее можно использовать как меру запутанности. В модели спиновой цепи Гейзенберга XY энтропия Реньи как функция от α может быть вычислена явно в силу того факта, что она является автоморфной функцией по отношению к определенной подгруппе модулярной группы. В теоретической информатике мин-энтропия используется в контексте экстракторов случайности.

СОДЕРЖАНИЕ
  • 1 Определение
  • 2 Особые случаи
    • 2.1 Хартли или макс-энтропия
    • 2.2 Энтропия Шеннона
    • 2.3 Энтропия столкновений
    • 2.4 Мин-энтропия
  • 3 Неравенства между разными значениями α
  • 4 расхождение Реньи
  • 5 Финансовая интерпретация
  • 6 Почему α = 1 особенный
  • 7 экспоненциальных семейств
  • 8 Физический смысл
  • 9 См. Также
  • 10 заметок
  • 11 Источники
Определение

Энтропия Реньи порядка, где и, определяется как α {\ displaystyle \ alpha} α 0 {\ displaystyle \ alpha \ geq 0} α 1 {\ displaystyle \ alpha \ neq 1}

ЧАС α ( Икс ) знак равно 1 1 - α бревно ( я знак равно 1 п п я α ) {\ displaystyle \ mathrm {H} _ {\ alpha} (X) = {\ frac {1} {1- \ alpha}} \ log {\ Bigg (} \ sum _ {i = 1} ^ {n} p_ {i} ^ {\ alpha} {\ Bigg)}}.

Здесь - дискретная случайная величина с возможными исходами в наборе и соответствующими вероятностями для. Логарифм обычно берется по основанию 2, особенно в контексте теории информации, где биты используются. Если вероятности для всех, то всего Рения энтропия распределения равна:. В общем, для всех дискретных случайных величин, не является возрастающей функцией в. Икс {\ displaystyle X} А знак равно { Икс 1 , Икс 2 , . . . , Икс п } {\ Displaystyle {\ mathcal {A}} = \ {x_ {1}, x_ {2},..., x_ {n} \}} п я Pr ( Икс знак равно Икс я ) {\ Displaystyle р_ {я} \ doteq \ Pr (Х = х_ {я})} я знак равно 1 , , п {\ Displaystyle я = 1, \ точки, п} п я знак равно 1 / п {\ displaystyle p_ {i} = 1 / n} я знак равно 1 , , п {\ Displaystyle я = 1, \ точки, п} ЧАС α ( Икс ) знак равно бревно п {\ displaystyle \ mathrm {H} _ {\ alpha} (X) = \ log n} Икс {\ displaystyle X} ЧАС α ( Икс ) {\ displaystyle \ mathrm {H} _ {\ alpha} (X)} α {\ displaystyle \ alpha}

Приложения часто используют следующую связь между энтропией Реньи и p- нормой вектора вероятностей:

ЧАС α ( Икс ) знак равно α 1 - α бревно ( п α ) {\ displaystyle \ mathrm {H} _ {\ alpha} (X) = {\ frac {\ alpha} {1- \ alpha}} \ log \ left (\ | P \ | _ {\ alpha} \ right)}.

Здесь дискретное распределение вероятностей интерпретируется как вектор с и. п знак равно ( п 1 , , п п ) {\ displaystyle P = (p_ {1}, \ dots, p_ {n})} р п {\ Displaystyle \ mathbb {R} ^ {п}} п я 0 {\ displaystyle p_ {i} \ geq 0} я знак равно 1 п п я знак равно 1 {\ Displaystyle \ сумма _ {я = 1} ^ {п} р_ {я} = 1}

Энтропия Реньи для любого - вогнутая по Шуру. α 0 {\ displaystyle \ alpha \ geq 0}

Особые случаи
Энтропия Реньи случайной величины с двумя возможными исходами относительно p 1, где P = ( p 1, 1 - p 1). Показаны H 0, H 1, H 2 и H ∞ в единицах измерения шеннонов.

По мере того, как α приближается к нулю, энтропия Реньи все больше взвешивает все события с ненулевой вероятностью, независимо от их вероятностей. В пределе для альфа → 0, энтропия Рения просто логарифм величины поддержки X. Предел при α → 1 - энтропия Шеннона. По мере приближения α к бесконечности энтропия Реньи все больше определяется событиями с наибольшей вероятностью.

Хартли или макс-энтропия

При условии, что вероятности не равны нулю, это логарифм мощности алфавита () из, иногда называют Хартли энтропии из, ЧАС 0 {\ displaystyle \ mathrm {H} _ {0}} А {\ displaystyle {\ mathcal {A}}} Икс {\ displaystyle X} Икс {\ displaystyle X}

ЧАС 0 ( Икс ) знак равно бревно п знак равно бревно | А | {\ Displaystyle \ mathrm {H} _ {0} (X) = \ log n = \ log | {\ mathcal {A}} | \,}

Энтропия Шеннона

Предельное значение, как amp; alpha ; → 1 является энтропия Шеннона : ЧАС α {\ displaystyle \ mathrm {H} _ {\ alpha}}

ЧАС 1 ( Икс ) Lim α 1 ЧАС α ( Икс ) знак равно - я знак равно 1 п п я бревно п я {\ Displaystyle \ mathrm {H} _ {1} (X) \ Equiv \ lim _ {\ alpha \ to 1} \ mathrm {H} _ {\ alpha} (X) = - \ sum _ {i = 1} ^ {n} p_ {i} \ log p_ {i}}

Энтропия столкновений

Энтропия столкновений, которую иногда называют просто энтропией Реньи, относится к случаю α = 2,

ЧАС 2 ( Икс ) знак равно - бревно я знак равно 1 п п я 2 знак равно - бревно п ( Икс знак равно Y ) , {\ displaystyle \ mathrm {H} _ {2} (X) = - \ log \ sum _ {i = 1} ^ {n} p_ {i} ^ {2} = - \ log P (X = Y), }

где X и Y являются независимыми и одинаково распределенными. Энтропия столкновений связана с индексом совпадения.

Мин-энтропия

Основная статья: Мин-энтропия

В пределе as энтропия Реньи сходится к мин-энтропии: α {\ displaystyle \ alpha \ rightarrow \ infty} ЧАС α {\ displaystyle \ mathrm {H} _ {\ alpha}} ЧАС {\ Displaystyle \ mathrm {H} _ {\ infty}}

ЧАС ( Икс ) мин я ( - бревно п я ) знак равно - ( Максимум я бревно п я ) знак равно - бревно Максимум я п я . {\ displaystyle \ mathrm {H} _ {\ infty} (X) \ doteq \ min _ {i} (- \ log p_ {i}) = - (\ max _ {i} \ log p_ {i}) = - \ log \ max _ {i} p_ {i} \,.}

Эквивалентно минимальная энтропия - это наибольшее действительное число b, такое, что все события происходят с максимальной вероятностью. ЧАС ( Икс ) {\ Displaystyle \ mathrm {H} _ {\ infty} (X)} 2 - б {\ displaystyle 2 ^ {- b}}

Название мин-энтропия происходит от того факта, что это наименьшая мера энтропии в семействе энтропий Реньи. В этом смысле это самый надежный способ измерения информационного содержания дискретной случайной величины. В частности, минимальная энтропия никогда не превышает энтропию Шеннона.

Мин-энтропия имеет важные приложения для экстракторов случайности в теоретической информатике : экстракторы могут извлекать случайность из случайных источников, которые имеют большую минимальную энтропию; просто наличия большой энтропии Шеннона для этой задачи недостаточно.

Неравенства между разными значениями α

Это не увеличивается для любого заданного распределения вероятностей, что может быть доказано дифференцированием, как ЧАС α {\ displaystyle \ mathrm {H} _ {\ alpha}} α {\ displaystyle \ alpha} п я {\ displaystyle p_ {i}}

- d ЧАС α d α знак равно 1 ( 1 - α ) 2 я знак равно 1 п z я бревно ( z я / п я ) , {\ displaystyle - {\ frac {d \ mathrm {H} _ {\ alpha}} {d \ alpha}} = {\ frac {1} {(1- \ alpha) ^ {2}}} \ sum _ { я = 1} ^ {n} z_ {i} \ log (z_ {i} / p_ {i}),}

который пропорционален расхождению Кульбака – Лейблера (которое всегда неотрицательно), где. z я знак равно п я α / j знак равно 1 п п j α {\ displaystyle z_ {i} = p_ {i} ^ {\ alpha} / \ sum _ {j = 1} ^ {n} p_ {j} ^ {\ alpha}}

В частных случаях неравенства можно доказать также неравенством Йенсена :

бревно п знак равно ЧАС 0 ЧАС 1 ЧАС 2 ЧАС . {\ displaystyle \ log n = \ mathrm {H} _ {0} \ geq \ mathrm {H} _ {1} \ geq \ mathrm {H} _ {2} \ geq \ mathrm {H} _ {\ infty}.}

Для значений также имеют место неравенства в обратном направлении. В частности, у нас есть α gt; 1 {\ displaystyle \ alphagt; 1}

ЧАС 2 2 ЧАС . {\ displaystyle \ mathrm {H} _ {2} \ leq 2 \ mathrm {H} _ {\ infty}.}

С другой стороны, энтропия Шеннона может быть сколь угодно высокой для случайной величины, имеющей заданную минимальную энтропию. ЧАС 1 {\ displaystyle \ mathrm {H} _ {1}} Икс {\ displaystyle X}

Расхождение Реньи

Помимо абсолютных энтропий Реньи, Реньи также определил спектр мер дивергенции, обобщающих дивергенцию Кульбака – Лейблера.

Рение расхождение порядка альфа или альфа-дивергенция распределительной Р от распределения Q определяются как

D α ( п Q ) знак равно 1 α - 1 бревно ( я знак равно 1 п п я α q я α - 1 ) {\ displaystyle D _ {\ alpha} (P \ | Q) = {\ frac {1} {\ alpha -1}} \ log {\ Bigg (} \ sum _ {i = 1} ^ {n} {\ frac {p_ {i} ^ {\ alpha}} {q_ {i} ^ {\ alpha -1}}} {\ Bigg)} \,}

когда 0 lt; α lt;∞ и α ≠ 1. Мы можем определить расходимость Реньи для специальных значений α = 0, 1, ∞, взяв предел, и, в частности, предел α → 1 дает расходимость Кульбака – Лейблера.

Некоторые особые случаи:

D 0 ( п Q ) знак равно - бревно Q ( { я : п я gt; 0 } ) {\ displaystyle D_ {0} (P \ | Q) = - \ log Q (\ {i: p_ {i}gt; 0 \})} : минус логарифмическая вероятность при Q того, что p i gt; 0 ;
D 1 / 2 ( п Q ) знак равно - 2 бревно я знак равно 1 п п я q я {\ displaystyle D_ {1/2} (P \ | Q) = - 2 \ log \ sum _ {i = 1} ^ {n} {\ sqrt {p_ {i} q_ {i}}}} : минус удвоенный логарифм коэффициента Бхаттачарьи ; ( Нильсен и Больц (2010))
D 1 ( п Q ) знак равно я знак равно 1 п п я бревно п я q я {\ displaystyle D_ {1} (P \ | Q) = \ sum _ {i = 1} ^ {n} p_ {i} \ log {\ frac {p_ {i}} {q_ {i}}}} : расхождение Кульбака – Лейблера ;
D 2 ( п Q ) знак равно бревно п я q я {\ Displaystyle D_ {2} (P \ | Q) = \ log {\ Big \ langle} {\ frac {p_ {i}} {q_ {i}}} {\ Big \ rangle}} : журнал ожидаемого отношения вероятностей;
D ( п Q ) знак равно бревно Как дела я п я q я {\ displaystyle D _ {\ infty} (P \ | Q) = \ log \ sup _ {i} {\ frac {p_ {i}} {q_ {i}}}} : логарифм максимального отношения вероятностей.

Расхождение Реньи действительно расхождение, а это означает, что просто больше или равна нулю, а нуль только тогда, когда Р = Q. Для любых фиксированных распределений P и Q дивергенция Реньи не убывает как функция своего порядка α и непрерывна на множестве α, для которых она конечна. D α ( п Q ) {\ Displaystyle D _ {\ alpha} (P \ | Q)}

Финансовая интерпретация

Пару вероятностных распределений можно рассматривать как азартную игру, в которой одно из распределений определяет официальные шансы, а другое содержит фактические вероятности. Знание реальных вероятностей позволяет игроку получать прибыль от игры. Ожидаемая норма прибыли связана с дивергенцией Реньи следующим образом.

E Икс п е c т е d р а т е знак равно 1 р D 1 ( б м ) + р - 1 р D 1 / р ( б м ) , {\ displaystyle {\ rm {ExpectedRate}} = {\ frac {1} {R}} \, D_ {1} (b \ | m) + {\ frac {R-1} {R}} \, D_ { 1 / R} (b \ | m) \,,}

где - распределение, определяющее официальные шансы (т. е. «рынок») для игры, - это распределение, рассчитываемое инвесторами, и - это отношение инвестора к избеганию риска (относительное неприятие риска Эрроу-Пратта). м {\ displaystyle m} б {\ displaystyle b} р {\ displaystyle R}

Если истинное распределение (не обязательно совпадает с мнением инвестора), долгосрочная ставка реализации сходится к истинному ожиданию, которое имеет аналогичную математическую структуру. п {\ displaystyle p} б {\ displaystyle b}

р е а л я z е d р а т е знак равно 1 р ( D 1 ( п м ) - D 1 ( п б ) ) + р - 1 р D 1 / р ( б м ) . {\ displaystyle {\ rm {RealizedRate}} = {\ frac {1} {R}} \, {\ Big (} D_ {1} (p \ | m) -D_ {1} (p \ | b) { \ Big)} + {\ frac {R-1} {R}} \, D_ {1 / R} (b \ | m) \,.}
Почему α = 1 особенный

Значение α = 1, что дает энтропию Шеннона и расхождение Кульбак-Либлер, является особенным, потому что это только при α = 1, что цепное правило условной вероятности имеет место именно:

ЧАС ( А , Икс ) знак равно ЧАС ( А ) + E а А [ ЧАС ( Икс | А знак равно а ) ] {\ Displaystyle \ mathrm {H} (A, X) = \ mathrm {H} (A) + \ mathbb {E} _ {a \ sim A} {\ big [} \ mathrm {H} (X | A = большой ]}}

для абсолютных энтропий и

D K L ( п ( Икс | а ) п ( а ) м ( Икс , а ) ) знак равно D K L ( п ( а ) м ( а ) ) + E п ( а ) { D K L ( п ( Икс | а ) м ( Икс | а ) ) } , {\ Displaystyle D _ {\ mathrm {KL}} (p (x | a) p (a) \ | m (x, a)) = D _ {\ mathrm {KL}} (p (a) \ | m (a))) + \ mathbb {E} _ {p (a)} \ {D _ {\ mathrm {KL}} (p (x | a) \ | m (x | a)) \},}

для относительных энтропий.

Последнее, в частности, означает, что если мы ищем распределение p ( x, a), которое минимизирует отклонение от некоторой основной предшествующей меры m ( x, a), и мы получаем новую информацию, которая влияет только на распределение a, то распределение p ( x | a) остается m ( x | a) без изменений.

Остальные расхождения Реньи удовлетворяют критериям положительности и непрерывности; быть инвариантным относительно преобразований координат один к одному; и аддитивного комбинирования, когда A и X независимы, так что если p ( A, X) = p ( A) p ( X), то

ЧАС α ( А , Икс ) знак равно ЧАС α ( А ) + ЧАС α ( Икс ) {\ Displaystyle \ mathrm {H} _ {\ alpha} (A, X) = \ mathrm {H} _ {\ alpha} (A) + \ mathrm {H} _ {\ alpha} (X) \;}

а также

D α ( п ( А ) п ( Икс ) Q ( А ) Q ( Икс ) ) знак равно D α ( п ( А ) Q ( А ) ) + D α ( п ( Икс ) Q ( Икс ) ) . {\ Displaystyle D _ {\ альфа} (P (A) P (X) \ | Q (A) Q (X)) = D _ {\ alpha} (P (A) \ | Q (A)) + D _ {\ альфа} (P (X) \ | Q (X)).}

Более сильные свойства величин α = 1, которые позволяют определять условную информацию и взаимную информацию из теории коммуникации, могут быть очень важны в других приложениях или совсем не важны, в зависимости от требований этих приложений.

Экспоненциальные семьи

Энтропии и расходимости Реньи для экспоненциального семейства допускают простые выражения

ЧАС α ( п F ( Икс ; θ ) ) знак равно 1 1 - α ( F ( α θ ) - α F ( θ ) + бревно E п [ е ( α - 1 ) k ( Икс ) ] ) {\ displaystyle \ mathrm {H} _ {\ alpha} (p_ {F} (x; \ theta)) = {\ frac {1} {1- \ alpha}} \ left (F (\ alpha \ theta) - \ alpha F (\ theta) + \ log E_ {p} [e ^ {(\ alpha -1) k (x)}] \ right)}

а также

D α ( п : q ) знак равно J F , α ( θ : θ ) 1 - α {\ displaystyle D _ {\ alpha} (p: q) = {\ frac {J_ {F, \ alpha} (\ theta: \ theta ')} {1- \ alpha}}}

куда

J F , α ( θ : θ ) знак равно α F ( θ ) + ( 1 - α ) F ( θ ) - F ( α θ + ( 1 - α ) θ ) {\ Displaystyle J_ {F, \ альфа} (\ тета: \ тета ') = \ альфа F (\ тета) + (1- \ альфа) F (\ тета') -F (\ альфа \ тета + (1- \ альфа) \ тета ')}

- это разностное расхождение Дженсена.

Физический смысл

Энтропия Реньи в квантовой физике не считается наблюдаемой из-за ее нелинейной зависимости от матрицы плотности. (Эта нелинейная зависимость применима даже в частном случае энтропии Шеннона.) Тем не менее, ей можно придать рабочий смысл посредством двукратных измерений (также известных как статистика полного счета) передачи энергии.

Предел энтропии Реньи как это фон Неймана энтропии. α 1 {\ displaystyle \ alpha \ to 1}

Смотрите также
Примечания
использованная литература
Последняя правка сделана 2023-04-13 11:18:52
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте