Байесовская оптимизация

редактировать

Байесовская оптимизация - это стратегия последовательного проектирования для глобальной оптимизации функций черного ящика, которая не предполагает никаких функциональных формы. Обычно он используется для оптимизации дорогих в оценке функций.

Содержание
  • 1 История
  • 2 Стратегия
  • 3 Примеры
  • 4 Методы решения
  • 5 Приложения
  • 6 См. Также
  • 7 Ссылки
  • 8 Внешние ссылки
История

Этот термин обычно приписывается Йонасу Моксу и введен в его работу из серии публикаций по глобальной оптимизации 1970-х и 1980-х годов.

Стратегия
Байесовская оптимизация функции (черный) с гауссовыми процессами (фиолетовый). Внизу показаны три функции сбора данных (синие).

Поскольку целевая функция неизвестна, байесовская стратегия состоит в том, чтобы рассматривать ее как случайную функцию и помещать перед ней предшествующий. Априор фиксирует представления о поведении функции. После сбора оценок функции, которые обрабатываются как данные, априорное значение обновляется для формирования апостериорного распределения по целевой функции. Апостериорное распределение, в свою очередь, используется для построения функции сбора данных (часто также называемой критерием выборки заполнения), которая определяет следующую точку запроса.

Существует несколько методов, используемых для определения априорного / апостериорного распределения по целевой функции. Два наиболее распространенных метода используют гауссовские процессы в методе, называемом кригинг. Другой менее затратный метод использует оценщик дерева Парзена для построения двух распределений для «высокой» и «низкой» точек, а затем находит место, которое максимизирует ожидаемое улучшение.

Примеры

Примеры Функции сбора данных включают вероятность улучшения, ожидаемое улучшение, байесовские ожидаемые потери, верхние доверительные границы (UCB), выборку Томпсона и их гибриды. Все они предлагают компромисс между исследованием и эксплуатацией, чтобы минимизировать количество запросов к функциям. Таким образом, байесовская оптимизация хорошо подходит для дорогостоящих функций.

Методы решения

Максимум функции сбора данных обычно достигается путем дискретизации или с помощью вспомогательного оптимизатора. Функции сбора данных обычно хорошо работают и часто максимизируются с помощью реализаций метода Ньютона, таких как алгоритм Бройдена – Флетчера – Голдфарба – Шанно или метод Нелдера-Мида.

Приложения

Этот подход был применен для решения широкого круга задач, включая обучение ранжированию, компьютерную графику и визуальный дизайн, робототехнику, сенсорные сети, автоматическая настройка алгоритмов, автоматические машинное обучение наборы инструментов, обучение с подкреплением, планирование, визуальное внимание, конфигурация архитектуры в глубоком обучении, статический анализ программ и экспериментальные физика элементарных частиц.

См. Также
Ссылки
Внешние ссылки
  • GPyOpt, библиотека Python с открытым исходным кодом для байесовской оптимизации на основе GPy.
  • Bayesopt, эффективной реализации на C / C ++ с поддержкой Python, Matlab и Octave.
  • Spearmint, реализация Python, ориентированная на параллельные и кластерные вычисления.
  • SMAC, Java-реализация байесовской оптимизации на основе случайного леса для общей конфигурации алгоритма.
  • ParBayesianOptimization, Высокопроизводительная параллельная реализация байесовской оптимизации с гауссовскими процессами в R.
  • pybo, реализация модульной байесовской оптимизации на Python.
  • Bayesopt.m, реализация в Matlab байесовской оптимизации с или без
  • MOE MOE - это Python / C ++ / CUDA реализация байесовской глобальной оптимизации с использованием гауссовских процессов.
  • SigOpt SigOpt предлагает байесовскую глобальную оптимизацию как услугу SaaS, ориентированную на корпоративные сценарии использования.
  • Mind Foundry OPTaaS предлагает байесовскую глобальную оптимизацию через веб-службы с гибкими ограничениями параметров.
  • bayeso, Python-реализация байесовской оптимизации.
  • BoTorch, модульный и современный модуль на основе PyTorch библиотека с открытым исходным кодом для байесовской оптимизации исследования с поддержкой GPyTorch.
  • GPflowOpt, пакета с открытым исходным кодом на основе TensorFlow для байесовской оптимизации.
Последняя правка сделана 2021-05-12 07:57:47
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте