Негентропия

редактировать

В теории информации и статистике, негэнтропия используется как мера расстояния до нормальности. Понятие и фраза «отрицательная энтропия » были введены Эрвином Шредингером в его научно-популярной книге 1944 года Что такое жизнь? Позже Леон Бриллюэн сокращено до негэнтропии. В 1974 году Альберт Сент-Дьёрдьи предложил заменить термин негэнтропия синтропией. Этот термин, возможно, возник в 1940-х годах у итальянского математика Луиджи Фантаппье, который попытался построить единую теорию биологии и физики. Бакминстер Фуллер пытался популяризировать это использование, но негэнтропия остается обычным явлением.

В примечании к Что такое жизнь? Шредингер объяснил, как он использовал эту фразу.

... если бы я угождал только им [физикам], я бы вместо этого позволил обсуждению включить свободную энергию. В данном контексте это более знакомое понятие. Но этот технический термин с лингвистической точки зрения казался слишком близким к энергии, чтобы заставить обычного читателя увидеть контраст между двумя вещами.

В 2009 году Mahulikar Herwig переопределили негэнтропию динамически упорядоченной подсистемы как удельный дефицит энтропии упорядоченной подсистемы по сравнению с окружающим ее хаосом. Таким образом, негэнтропия имеет единицы СИ: (Дж кг К), когда она определяется на основе удельной энтропии на единицу массы, и (К), когда определяется на основе удельной энтропии на единицу энергии. Это определение сделало возможным: i) масштабно-инвариантное термодинамическое представление существования динамического порядка, ii) формулировку физических принципов исключительно для существования и эволюции динамического порядка и iii) математическую интерпретацию негэнтропийного долга Шредингера.

Содержание

  • 1 Теория информации
  • 2 Корреляция между статистической негэнтропией и свободной энергией Гиббса
  • 3 Принцип негэнтропии информации Бриллюэна
  • 4 См. Также
  • 5 Примечания

Теория информации

В теории информации и статистике негэнтропия используется как мера расстояния до нормальности. Из всех распределений с заданными средним значением и дисперсией нормальное или распределение Гаусса является тем, у которого самая высокая энтропия. Негэнтропия измеряет разницу в энтропии между данным распределением и распределением Гаусса с тем же средним значением и дисперсией. Таким образом, негэнтропия всегда неотрицательна, инвариантна при любом линейном обратимом изменении координат и исчезает тогда и только тогда, когда сигнал гауссовский.

Негентропия определяется как

J (px) = S (φ x) - S (px) {\ displaystyle J (p_ {x}) = S (\ varphi _ {x}) - S (p_ {x}) \,}{\ displaystyle J (p_ {x}) = S (\ varphi _ {x}) - S (p_ {x}) \,}

где S (φ x) {\ displaystyle S (\ varphi _ {x})}{\ displaystyle S (\ varphi _ {x})} - дифференциальная энтропия гауссовой плотности с тем же средним и дисперсией, что и px {\ displaystyle p_ {x}}p_ {x} и S (px) { \ displaystyle S (p_ {x})}S (p_ {x}) - дифференциальная энтропия px {\ displaystyle p_ {x}}p_ {x} :

S (px) = - ∫ px (u) log ⁡ px (u) du {\ displaystyle S (p_ {x}) = - \ int p_ {x} (u) \ log p_ {x} (u) \, du}{\ displaystyle S ( p_ {x}) = - \ int p_ {x} (u) \ log p_ {x} (u) \, du}

Негентропия используется в статистике и обработка сигналов. Это связано с сетью энтропией, которая используется в анализе независимых компонентов.

Негэнтропия распределения равна расхождению Кульбака – Лейблера между пикселями. {\ displaystyle p_ {x}}p_ {x} и распределение Гаусса с тем же средним и дисперсией, что и px {\ displaystyle p_ {x}}p_ {x} (см. Дифференциальная энтропия # Максимизация в нормальном распределении для доказательства). В частности, это всегда неотрицательно.

.

Корреляция между статистической негэнтропией и свободной энергией Гиббса

Уиллард Гиббс '1873 доступная энергия (свободная энергия ) график, который показывает плоскость, перпендикулярную оси of v (volume ) и проходящая через точку A, которая представляет начальное состояние тела. MN - это сечение поверхности рассеянной энергии. Qε и Qη являются сечениями плоскостей η = 0 и ε = 0 и, следовательно, параллельны осям ε (внутренняя энергия ) и η (энтропия ) соответственно. AD и AE - это энергия и энтропия тела в его начальном состоянии, AB и AC - его доступная энергия (энергия Гиббса ) и его способность к энтропии (величина, на которую энтропия тела может быть увеличена без изменения энергии тела или увеличения его объема) соответственно.

Существует физическая величина, тесно связанная с свободной энергией (свободной энтальпией ), с единицей энтропии и изоморфна негэнтропии, известная в статистике и теории информации. В 1873 году Уиллард Гиббс создал диаграмму, иллюстрирующую концепцию свободной энергии, соответствующей свободной энтальпии. На диаграмме представлена ​​величина, называемая емкостью по энтропии. Эта величина представляет собой количество энтропии, которое может быть увеличено без изменения внутренней энергии или увеличения ее объема. Другими словами, это разница между максимально возможной при предполагаемых условиях энтропией и ее действительной энтропией. Это в точности соответствует определению негэнтропии, принятому в статистике и теории информации. Аналогичная физическая величина была введена в 1869 г. Масье для изотермического процесса (обе величины отличаются только знаком цифры), а затем Планком для изотермический - изобарный процесс. Совсем недавно было показано, что термодинамический потенциал Масси – Планка , известный также как свободная энтропия, играет большую роль в так называемой энтропийной формулировке статистической механики, применяемый, в частности, в молекулярной биологии и термодинамических неравновесных процессах.

J = S max - S = - Φ = - k ln ⁡ Z {\ displaystyle J = S _ {\ max} -S = - \ Phi = -k \ ln Z \,}J = S _ {\ max} -S = - \ Phi = - к \ пер Z \,
где:
S {\ displaystyle S}S - энтропия
J {\ displaystyle J}J негэнтропия (Гиббс «способность к энтропии»)
Φ {\ displaystyle \ Phi}\ Phi - потенциал Масье
Z {\ displaystyle Z}Z - статистическая сумма
k {\ displaystyle k}к постоянная Больцмана

В частности, математически негэнтропия (функция отрицательной энтропии, в физике интерпретируемая как свободная энтропия) выпуклое сопряжение из LogSumExp (в физике интерпретируется как свободная энергия).

Принцип негэнтропии информации Бриллюэна

В 1953 году Леон Бриллюэн вывел общее уравнение, согласно которому для изменения значения информационного бита требуется не менее kT ln (2) энергии.. Это та же энергия, которую производит двигатель Лео Сциларда в идеалистическом случае. В своей книге он далее исследовал эту проблему, заключив, что любая причина этого изменения битового значения (измерение, решение вопроса «да / нет», стирание, отображение и т. Д.) Потребует того же количества энергии.

См. Также

Примечания

Найдите негэнтропия в Викисловаре, бесплатный словарь.
Последняя правка сделана 2021-05-31 13:47:09
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте