Нижняя граница доказательств

редактировать

В статистике доказательств ниже граница (ELBO, также вариационная нижняя граница или отрицательная вариационная свободная энергия ) - величина, оптимизированная в вариационных байесовских методах. Эти методы обрабатывают случаи, когда распределение Q {\ displaystyle Q}Q по ненаблюдаемым переменным Z {\ displaystyle \ mathbf {Z}}\ mathbf {Z} оптимизирован как приближение к истинному заднему P (Z | X) {\ displaystyle P (\ mathbf {Z} | \ mathbf {X})}{\ Displaystyle P (\ mathbf {Z} | \ mathbf {X})} , учитывая наблюдаемые данные X {\ displaystyle \ mathbf {X}}\ mathbf {X} . Тогда нижняя граница доказательства определяется как:

L (X) = H (Q) - H (Q; P (X, Z)) = ∑ ZQ (Z) log ⁡ P (Z, X) - ∑ ZQ (Z) журнал ⁡ Q (Z) {\ Displaystyle L (X) = H (Q) -H (Q; P (X, Z)) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z }) \ log P (\ mathbf {Z}, \ mathbf {X}) - \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf {Z})}{\ displaystyle L (X) = H (Q) -H (Q; P (X, Z)) = \ sum _ { \ mathbf {Z}} Q (\ mathbf {Z}) \ log P (\ mathbf {Z}, \ mathbf {X}) - \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf {Z})}

где H (Q; P (X, Z)) {\ displaystyle H (Q; P (X, Z))}{\ Displaystyle H (Q; P (X, Z))} - кросс-энтропия. Максимизация нижней границы доказательств минимизирует DKL (Q ∥ P) {\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P)}{\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P)} , расхождение Кульбака – Лейблера, мера отличия Q {\ displaystyle Q}Q от истинного заднего. Основная причина, по которой эта величина предпочтительна для оптимизации, заключается в том, что она может быть вычислена без доступа к апостериорной оценке при правильном выборе Q {\ displaystyle Q}Q .

Для оптимизации других показателей несходства для соответствия Q {\ displaystyle Q}Q см. Дивергенция (статистика).

Обоснование как нижняя граница свидетельства

Нижняя граница свидетельства имени обоснована путем анализа декомпозиции KL-расхождения между истинным апостериорным и Q {\ displaystyle Q}Q :

DKL (Q ∥ P (Z | X)) = ∑ ZQ (Z) [log ⁡ Q (Z) P (X) P (Z, X)] DKL (Q ∥ P) = ∑ ZQ (Z) [журнал ⁡ Q (Z) P (Z, X) + журнал ⁡ P (X)] DKL (Q ∥ P) = ∑ ZQ ( Z) журнал ⁡ Q (Z) - ∑ ZQ (Z) журнал ⁡ P (Z, X) + журнал ⁡ P (X) журнал ⁡ P (X) - DKL (Q ∥ P) = ∑ ZQ (Z) журнал ⁡ П (Z, Икс) - ∑ ZQ (Z) журнал ⁡ Q (Z) = L (X) {\ Displaystyle {\ begin {align} D _ {\ mathrm {KL}} (Q \ параллельно P (Z | X)) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ left [\ log {\ frac {Q (\ mathbf {Z}) P (\ mathbf {X})} {P (\ mathbf {Z}, \ mathbf {X})}} \ right] \\ D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ left [\ log {\ frac {Q (\ mathbf {Z})} {P (\ mathbf {Z}, \ mathbf {X})}} + \ log P (\ mathbf {X}) \ right] \\ D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf {Z}) - \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log P (\ mathbf {Z}, \ mathbf {X}) + \ log P (\ mathbf { X}) \\\ log P (\ mathbf {X}) -D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log P (\ mathbf {Z}, \ mathbf {X}) - \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf {Z}) = L (X) \ end {align}}}{\ displaystyle {\ begin {align} D _ {\ mathrm {KL}} (Q \ parallel P (Z | X)) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ left [\ log {\ frac {Q (\ mathbf {Z}) P (\ mathbf {X})} {P ( \ mathbf {Z}, \ mathbf {X})}} \ right] \\ D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf { Z}) \ left [\ log {\ frac {Q (\ mathbf {Z})} {P (\ mathbf {Z}, \ mathbf {X})}} + \ log P (\ mathbf {X}) \ справа] \\ D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf {Z}) - \ сумма _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log P (\ mathbf {Z}, \ mathbf {X}) + \ log P (\ mathbf {X}) \\\ log P (\ mathbf {X}) -D _ {\ mathrm {KL}} (Q \ parallel P) = \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log P (\ mathbf {Z}, \ mathbf {X}) - \ sum _ {\ mathbf {Z}} Q (\ mathbf {Z}) \ log Q (\ mathbf { Z}) = L (X) \ конец {выровнено}}}

As DKL (Q ∥ P) ≥ 0 {\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P) \ geq 0}{\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P) \ geq 0} это уравнение показывает, что нижняя граница свидетельства действительно является нижней границей лог-свидетельства log ⁡ P (X) {\ displaystyle \ log P (\ mathbf {X})}\ log P ({\ mathbf {X}}) для рассматриваемой модели. Поскольку журнал ⁡ P (X) {\ displaystyle \ log P (\ mathbf {X})}\ log P ({\ mathbf {X}}) не зависит от Q {\ displaystyle Q}Q this уравнение дополнительно показывает, что максимизация нижней границы свидетельства справа минимизирует DKL (Q ∥ P) {\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P)}{\ displaystyle D _ {\ mathrm {KL}} (Q \ parallel P)} , как указано выше.

Ссылки
  1. ^Ян, Ситун. «Понимание вариационной нижней границы» (PDF). Институт перспективных компьютерных исследований. Университет Мэриленда. Проверено 20 марта 2018 г.
  2. ^Минка, Томас (2005), Меры расхождения и передача сообщений. (PDF)
  3. ^Бишоп, Кристофер М. (2006), «10.1 Вариационный вывод» (PDF), Распознавание образов и машинное обучение
Последняя правка сделана 2021-05-19 09:08:47
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте