В статистике доказательств ниже граница (ELBO, также вариационная нижняя граница или отрицательная вариационная свободная энергия ) - величина, оптимизированная в вариационных байесовских методах. Эти методы обрабатывают случаи, когда распределение по ненаблюдаемым переменным оптимизирован как приближение к истинному заднему , учитывая наблюдаемые данные . Тогда нижняя граница доказательства определяется как:
где - кросс-энтропия. Максимизация нижней границы доказательств минимизирует , расхождение Кульбака – Лейблера, мера отличия от истинного заднего. Основная причина, по которой эта величина предпочтительна для оптимизации, заключается в том, что она может быть вычислена без доступа к апостериорной оценке при правильном выборе .
Для оптимизации других показателей несходства для соответствия см. Дивергенция (статистика).
Обоснование как нижняя граница свидетельства
Нижняя граница свидетельства имени обоснована путем анализа декомпозиции KL-расхождения между истинным апостериорным и :
As это уравнение показывает, что нижняя граница свидетельства действительно является нижней границей лог-свидетельства для рассматриваемой модели. Поскольку не зависит от this уравнение дополнительно показывает, что максимизация нижней границы свидетельства справа минимизирует , как указано выше.
Ссылки
- ^Ян, Ситун. «Понимание вариационной нижней границы» (PDF). Институт перспективных компьютерных исследований. Университет Мэриленда. Проверено 20 марта 2018 г.
- ^Минка, Томас (2005), Меры расхождения и передача сообщений. (PDF)
- ^Бишоп, Кристофер М. (2006), «10.1 Вариационный вывод» (PDF), Распознавание образов и машинное обучение