Скорость энтропии

редактировать

В математической теории вероятности, скорости энтропии или скорости исходной информации случайного процесса неформально представляет собой временную плотность средней информации в случайном процессе. Для случайных процессов с счетным индексом энтропия скорость H (X) {\ displaystyle H (X)}H (X) является пределом совместная энтропия из n {\ displaystyle n}n членов процесса X k {\ displaystyle X_ {k}}X_ {k} , деленная на n {\ displaystyle n}n , поскольку n {\ displaystyle n}n стремится к бесконечности :

H (X) = lim n → ∞ 1 n ЧАС (Икс 1, Икс 2,… Икс n) {\ displaystyle H (X) = \ lim _ {n \ to \ infty} {\ frac {1} {n}} H (X_ {1}, X_ {2 }, \ dots X_ {n})}H (X) = \ lim_ {n \ to \ infty } \ frac {1} {n} H (X_1, X_2, \ dots X_n)

, если существует ограничение. Альтернативная связанная величина:

H ′ (X) = lim n → ∞ H (X n | X n - 1, X n - 2,… X 1) {\ displaystyle H '(X) = \ lim _ {n \ to \ infty} H (X_ {n} | X_ {n-1}, X_ {n-2}, \ dots X_ {1})}H'(X) = \lim_{n \to \infty} H(X_n|X_{n-1}, X_{n-2}, \dots X_1)

Для сильно стационарного стохастического процессы, H (X) = H ′ (X) {\ displaystyle H (X) = H '(X)}H(X) = H'(X). Скорость энтропии можно рассматривать как общее свойство стохастических источников; это свойство асимптотического равнораспределения. Скорость энтропии может использоваться для оценки сложности случайных процессов. Он используется в различных приложениях, начиная от описания сложности языков, слепого разделения источников и заканчивая оптимизацией квантователей и алгоритмов сжатия данных. Например, критерий максимальной скорости энтропии может использоваться для выбора функции в машинном обучении.

скорости энтропии для цепей Маркова

Поскольку случайный процесс определяется Цепь Маркова, то есть неприводимая, апериодическая и положительная рекуррентная, имеет стационарное распределение, скорость энтропии не зависит от начального распространение.

Например, для такой цепи Маркова Y k {\ displaystyle Y_ {k}}Y_ {k} , определенной на счетном количестве состояний, учитывая матрица перехода P ij {\ displaystyle P_ {ij}}P_ {ij} , H (Y) {\ displaystyle H (Y)}H (Y) определяется по формуле:

H ( Y) знак равно - ∑ ij μ я п ij журнал ⁡ п ij {\ displaystyle \ displaystyle H (Y) = - \ sum _ {ij} \ mu _ {i} P_ {ij} \ log P_ {ij}}\ displaystyle H (Y) = - \ sum_ {ij} \ mu_i P_ {ij} \ log P_ {ij}

где μ i {\ displaystyle \ mu _ {i}}\ mu _ {i} - это асимптотическое распределение цепочки.

Простым следствием этого определения является то, что iid случайный процесс имеет скорость энтропии, которая такая же, как энтропия любого человека. участник процесса.

См. Также
Ссылки
  • Кавер, Т. и Томас, Дж. (1991) Элементы теории информации, John Wiley and Sons, Inc., ISBN 0-471-06259-6 [1]
Последняя правка сделана 2021-05-19 11:38:21
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте