В теории информации, то энтропия Реньи обобщает энтропию Хартли, то энтропия Шеннона, то столкновение энтропии и мин-энтропии. Энтропии количественно определяют разнообразие, неопределенность или случайность системы. Энтропия названа в честь Альфреда Реньи. В контексте оценки фрактальной размерности энтропия Реньи составляет основу концепции обобщенных размерностей.
Энтропия Реньи важна в экологии и статистике как показатель разнообразия. Энтропия Реньи также важна для квантовой информации, где ее можно использовать как меру запутанности. В модели спиновой цепи Гейзенберга XY энтропия Реньи как функция от α может быть вычислена явно в силу того факта, что она является автоморфной функцией по отношению к определенной подгруппе модулярной группы. В теоретической информатике мин-энтропия используется в контексте экстракторов случайности.
СОДЕРЖАНИЕ
- 1 Определение
- 2 Особые случаи
- 2.1 Хартли или макс-энтропия
- 2.2 Энтропия Шеннона
- 2.3 Энтропия столкновений
- 2.4 Мин-энтропия
- 3 Неравенства между разными значениями α
- 4 расхождение Реньи
- 5 Финансовая интерпретация
- 6 Почему α = 1 особенный
- 7 экспоненциальных семейств
- 8 Физический смысл
- 9 См. Также
- 10 заметок
- 11 Источники
Определение
Энтропия Реньи порядка, где и, определяется как
- .
Здесь - дискретная случайная величина с возможными исходами в наборе и соответствующими вероятностями для. Логарифм обычно берется по основанию 2, особенно в контексте теории информации, где биты используются. Если вероятности для всех, то всего Рения энтропия распределения равна:. В общем, для всех дискретных случайных величин, не является возрастающей функцией в.
Приложения часто используют следующую связь между энтропией Реньи и p- нормой вектора вероятностей:
- .
Здесь дискретное распределение вероятностей интерпретируется как вектор с и.
Энтропия Реньи для любого - вогнутая по Шуру.
Особые случаи
Энтропия Реньи случайной величины с двумя возможными исходами относительно p 1, где P = ( p 1, 1 - p 1). Показаны H 0, H 1, H 2 и H ∞ в единицах измерения
шеннонов.
По мере того, как α приближается к нулю, энтропия Реньи все больше взвешивает все события с ненулевой вероятностью, независимо от их вероятностей. В пределе для альфа → 0, энтропия Рения просто логарифм величины поддержки X. Предел при α → 1 - энтропия Шеннона. По мере приближения α к бесконечности энтропия Реньи все больше определяется событиями с наибольшей вероятностью.
Хартли или макс-энтропия
При условии, что вероятности не равны нулю, это логарифм мощности алфавита () из, иногда называют Хартли энтропии из,
Энтропия Шеннона
Предельное значение, как amp; alpha ; → 1 является энтропия Шеннона :
Энтропия столкновений
Энтропия столкновений, которую иногда называют просто энтропией Реньи, относится к случаю α = 2,
где X и Y являются независимыми и одинаково распределенными. Энтропия столкновений связана с индексом совпадения.
Мин-энтропия
Основная статья:
Мин-энтропия В пределе as энтропия Реньи сходится к мин-энтропии:
Эквивалентно минимальная энтропия - это наибольшее действительное число b, такое, что все события происходят с максимальной вероятностью.
Название мин-энтропия происходит от того факта, что это наименьшая мера энтропии в семействе энтропий Реньи. В этом смысле это самый надежный способ измерения информационного содержания дискретной случайной величины. В частности, минимальная энтропия никогда не превышает энтропию Шеннона.
Мин-энтропия имеет важные приложения для экстракторов случайности в теоретической информатике : экстракторы могут извлекать случайность из случайных источников, которые имеют большую минимальную энтропию; просто наличия большой энтропии Шеннона для этой задачи недостаточно.
Неравенства между разными значениями α
Это не увеличивается для любого заданного распределения вероятностей, что может быть доказано дифференцированием, как
который пропорционален расхождению Кульбака – Лейблера (которое всегда неотрицательно), где.
В частных случаях неравенства можно доказать также неравенством Йенсена :
Для значений также имеют место неравенства в обратном направлении. В частности, у нас есть
С другой стороны, энтропия Шеннона может быть сколь угодно высокой для случайной величины, имеющей заданную минимальную энтропию.
Расхождение Реньи
Помимо абсолютных энтропий Реньи, Реньи также определил спектр мер дивергенции, обобщающих дивергенцию Кульбака – Лейблера.
Рение расхождение порядка альфа или альфа-дивергенция распределительной Р от распределения Q определяются как
когда 0 lt; α lt;∞ и α ≠ 1. Мы можем определить расходимость Реньи для специальных значений α = 0, 1, ∞, взяв предел, и, в частности, предел α → 1 дает расходимость Кульбака – Лейблера.
Некоторые особые случаи:
- : минус логарифмическая вероятность при Q того, что p i gt; 0 ;
- : минус удвоенный логарифм коэффициента Бхаттачарьи ; ( Нильсен и Больц (2010))
- : расхождение Кульбака – Лейблера ;
- : журнал ожидаемого отношения вероятностей;
- : логарифм максимального отношения вероятностей.
Расхождение Реньи действительно расхождение, а это означает, что просто больше или равна нулю, а нуль только тогда, когда Р = Q. Для любых фиксированных распределений P и Q дивергенция Реньи не убывает как функция своего порядка α и непрерывна на множестве α, для которых она конечна.
Финансовая интерпретация
Пару вероятностных распределений можно рассматривать как азартную игру, в которой одно из распределений определяет официальные шансы, а другое содержит фактические вероятности. Знание реальных вероятностей позволяет игроку получать прибыль от игры. Ожидаемая норма прибыли связана с дивергенцией Реньи следующим образом.
где - распределение, определяющее официальные шансы (т. е. «рынок») для игры, - это распределение, рассчитываемое инвесторами, и - это отношение инвестора к избеганию риска (относительное неприятие риска Эрроу-Пратта).
Если истинное распределение (не обязательно совпадает с мнением инвестора), долгосрочная ставка реализации сходится к истинному ожиданию, которое имеет аналогичную математическую структуру.
Почему α = 1 особенный
Значение α = 1, что дает энтропию Шеннона и расхождение Кульбак-Либлер, является особенным, потому что это только при α = 1, что цепное правило условной вероятности имеет место именно:
для абсолютных энтропий и
для относительных энтропий.
Последнее, в частности, означает, что если мы ищем распределение p ( x, a), которое минимизирует отклонение от некоторой основной предшествующей меры m ( x, a), и мы получаем новую информацию, которая влияет только на распределение a, то распределение p ( x | a) остается m ( x | a) без изменений.
Остальные расхождения Реньи удовлетворяют критериям положительности и непрерывности; быть инвариантным относительно преобразований координат один к одному; и аддитивного комбинирования, когда A и X независимы, так что если p ( A, X) = p ( A) p ( X), то
а также
Более сильные свойства величин α = 1, которые позволяют определять условную информацию и взаимную информацию из теории коммуникации, могут быть очень важны в других приложениях или совсем не важны, в зависимости от требований этих приложений.
Экспоненциальные семьи
Энтропии и расходимости Реньи для экспоненциального семейства допускают простые выражения
а также
куда
- это разностное расхождение Дженсена.
Физический смысл
Энтропия Реньи в квантовой физике не считается наблюдаемой из-за ее нелинейной зависимости от матрицы плотности. (Эта нелинейная зависимость применима даже в частном случае энтропии Шеннона.) Тем не менее, ей можно придать рабочий смысл посредством двукратных измерений (также известных как статистика полного счета) передачи энергии.
Предел энтропии Реньи как это фон Неймана энтропии.
Смотрите также
Примечания
использованная литература
- Бек, Кристиан; Шлёгль, Фридрих (1993). Термодинамика хаотических систем: введение. Издательство Кембриджского университета. ISBN 0521433673.
- Jizba, P.; Аримицу, Т. (2004). «Мир по Реньи: термодинамика мультифрактальных систем». Летопись физики. 312 (1): 17–59. arXiv : cond-mat / 0207707. Bibcode : 2004AnPhy.312... 17J. DOI : 10.1016 / j.aop.2004.01.002. S2CID 119704502.
- Jizba, P.; Аримицу, Т. (2004). «О наблюдаемости энтропии Реньи». Physical Review E. 69 (2): 026128. arXiv : cond-mat / 0307698. Bibcode : 2004PhRvE..69b6128J. DOI : 10.1103 / PhysRevE.69.026128. PMID 14995541. S2CID 39231939.
- Бромили, Пенсильвания; Thacker, NA; Бухова-Такер, Э. (2004), Энтропия Шеннона, энтропия Реньи и информация, CiteSeerX 10.1.1.330.9856
- Franchini, F.; Its, AR; Корепин, В.Е. (2008). «Энтропия Реньи как мера запутанности в квантовой спиновой цепочке». Журнал физики A: математический и теоретический. 41 (25302): 025302. arXiv : 0707.2534. Bibcode : 2008JPhA... 41b5302F. DOI : 10.1088 / 1751-8113 / 41/2/025302. S2CID 119672750.
- «Тест Реньи», Математическая энциклопедия, EMS Press, 2001 [1994]
- Герой, АО; Майкл, О.; Горман, Дж. (2002). «Альфа-расхождения для классификации, индексации и поиска» (PDF). CiteSeerX 10.1.1.373.2763. Цитировать журнал требует
|journal=
( помощь ) - Its, AR; Корепин, В.Е. (2010). «Обобщенная энтропия спиновой цепочки Гейзенберга». Теоретическая и математическая физика. 164 (3): 1136–1139. Bibcode : 2010TMP... 164.1136I. DOI : 10.1007 / s11232-010-0091-6. S2CID 119525704.
- Nielsen, F.; Больц, С. (2010). «Центроиды Бурбеа-Рао и Бхаттачарья». IEEE Transactions по теории информации. 57 (8): 5455–5466. arXiv : 1004.5049. DOI : 10.1109 / TIT.2011.2159046. S2CID 14238708.
- Нильсен, Франк; Нок, Ричард (2012). "Выражение в замкнутой форме для энтропии Шармы – Миттала экспоненциальных семейств". Журнал Physics A. 45 (3): 032003. arXiv : 1112.4221. Bibcode : 2012JPhA... 45c2003N. DOI : 10.1088 / 1751-8113 / 45/3/032003. S2CID 8653096.
- Нильсен, Франк; Нок, Ричард (2011). «Об энтропиях и расхождениях Реньи и Цаллиса для экспоненциальных семейств». Журнал Physics A. 45 (3): 032003. arXiv : 1105.3259. Bibcode : 2012JPhA... 45c2003N. DOI : 10.1088 / 1751-8113 / 45/3/032003. S2CID 8653096.
- Реньи, Альфред (1961). «О мерах информации и энтропии» (PDF). Труды четвертого симпозиума Беркли по математике, статистике и вероятности 1960. С. 547–561.
- Россо, О.А. (2006). «Анализ ЭЭГ с использованием информационных инструментов на основе вейвлетов». Журнал методов неврологии. 153 (2): 163–182. DOI : 10.1016 / j.jneumeth.2005.10.009. PMID 16675027. S2CID 7134638.
- Захос, СК (2007). «Классическая оценка квантовой энтропии». Журнал Physics A. 40 (21): F407 – F412. arXiv : hep-th / 0609148. Bibcode : 2007JPhA... 40..407Z. DOI : 10,1088 / 1751-8113 / 40/21 / F02. S2CID 1619604.
- Назаров Ю. (2011). «Потоки энтропии Реньи». Physical Review B. 84 (10): 205437. arXiv : 1108.3537. Bibcode : 2015PhRvB..91j4303A. DOI : 10.1103 / PhysRevB.91.104303. S2CID 40312624.
- Ансари, Мохаммад Х.; Назаров, Юлий В. (2015). «Энтропия Реньи течет из квантовых тепловых машин». Physical Review B. 91 (10): 104303. arXiv : 1408.3910. Bibcode : 2015PhRvB..91j4303A. DOI : 10.1103 / PhysRevB.91.104303. S2CID 40312624.
- Ансари, Мохаммад Х.; Назаров, Юлий В. (2015). «Точное соответствие между потоками энтропии Реньи и физическими потоками». Physical Review B. 91 (17): 174307. arXiv : 1502.08020. Bibcode : 2015PhRvB..91q4307A. DOI : 10.1103 / PhysRevB.91.174307. S2CID 36847902.
- Соклаков, А Н (2020). «Экономика разногласий - финансовая интуиция для расхождения Реньи». Энтропия. 22 (8): 860. arXiv : 1811.08308. DOI : 10.3390 / e22080860.
- Ансари, Мохаммад Х.; ван Стинзель, Алвин; Назаров, Юлий В. (2019). «Производство энтропии в квантовой среде другое». Энтропия. 21 (9): 854. arXiv : 1907.09241. DOI : 10.3390 / e21090854. S2CID 198148019.