Принцип Яо

редактировать

В теории сложности вычислений, принцип Яо (также называемый принципом минимакса Яо или леммой Яо) заявляет, что ожидаемая стоимость из рандомизированного алгоритма на наихудшем входе не лучше ожидаемой стоимости для наихудшего случая распределения вероятностей на входах детерминированный алгоритм, который выполняет лучше от этого распределения. Таким образом, чтобы установить нижнюю границу производительности рандомизированных алгоритмов, достаточно найти соответствующее распределение сложных входных данных и доказать, что ни один детерминированный алгоритм не может хорошо работать с этим распределением. Этот принцип назван в честь Эндрю Яо, который первым его предложил.

Принцип Яо может быть интерпретирован в терминах теории игр через игру с нулевой суммой для двух игроков, в которой один игрок, Алиса, выбирает детерминированный алгоритм, другой игрок, Боб, выбирает вход, а выигрыш - это стоимость выбранного алгоритм на выбранном входе. Любой рандомизированный алгоритм R можно интерпретировать как рандомизированный выбор среди детерминированных алгоритмов и, таким образом, как стратегию для Алисы. Согласно теореме фон Неймана о минимаксе, у Боба есть рандомизированная стратегия, которая работает как минимум так же хорошо против R, как и против лучшей чистой стратегии, которую может выбрать Алиса; то есть стратегия Боба определяет такое распределение на входах, что ожидаемая стоимость R в этом распределении (и, следовательно, ожидаемая стоимость R в наихудшем случае) не лучше, чем ожидаемая стоимость любого детерминированного алгоритма для того же распределения.

СОДЕРЖАНИЕ

  • 1 Заявление
  • 2 Доказательство
  • 3 ссылки
  • 4 Внешние ссылки

Заявление

В приведенной ниже формулировке излагается принцип рандомизированных алгоритмов Лас-Вегаса, т. Е. Распределения по детерминированным алгоритмам, которые верны на всех входных данных, но имеют разные затраты. Этот принцип легко адаптировать к алгоритмам Монте-Карло, т. Е. К распределениям по детерминированным алгоритмам, которые имеют ограниченные затраты, но могут быть неправильными на некоторых входных данных.

Рассмотрим проблему по входам, и пусть будет набор всех возможных детерминированных алгоритмов, которые правильно решают проблему. Для любого алгоритма и ввода позвольте быть стоимостью выполнения алгоритма при вводе. Икс {\ displaystyle {\ mathcal {X}}} А {\ displaystyle {\ mathcal {A}}} а А {\ displaystyle a \ in {\ mathcal {A}}} Икс Икс {\ displaystyle x \ in {\ mathcal {X}}} c ( а , Икс ) 0 {\ Displaystyle с (а, х) \ geq 0} а {\ displaystyle a} Икс {\ displaystyle x}

Позвольте быть распределением вероятностей по алгоритмам, и пусть обозначить случайный алгоритм, выбранный согласно. Позвольте быть распределением вероятностей по входам, и пусть обозначить случайный вход, выбранный согласно. Потом, п {\ displaystyle p} А {\ displaystyle {\ mathcal {A}}} А {\ displaystyle A} п {\ displaystyle p} q {\ displaystyle q} Икс {\ displaystyle {\ mathcal {X}}} Икс {\ displaystyle X} q {\ displaystyle q}

Максимум Икс Икс   E [ c ( А , Икс ) ] мин а А   E [ c ( а , Икс ) ] . {\ Displaystyle {\ underset {x \ in {\ mathcal {X}}} {\ max}} \ \ mathbf {E} [c (A, x)] \ geq {\ underset {a \ in {\ mathcal { A}}} {\ min}} \ \ mathbf {E} [c (a, X)].}

То есть ожидаемая стоимость рандомизированного алгоритма в наихудшем случае - это, по крайней мере, ожидаемая стоимость лучшего детерминированного алгоритма по отношению к распределению входных данных. q {\ displaystyle q}

Доказательство

Пусть и. У нас есть C знак равно Максимум Икс Икс   E [ c ( А , Икс ) ] {\ displaystyle C = {\ underset {x \ in {\ mathcal {X}}} {\ max}} \ \ mathbf {E} [c (A, x)]} D знак равно мин а А   E [ c ( а , Икс ) ] {\ displaystyle D = {\ underset {a \ in {\ mathcal {A}}} {\ min}} \ \ mathbf {E} [c (a, X)]}

C знак равно Икс q Икс C Икс q Икс E [ c ( А , Икс ) ] знак равно Икс q Икс а п а c ( а , Икс ) знак равно а п а Икс q Икс c ( а , Икс ) знак равно а п а E [ c ( а , Икс ) ] а п а D знак равно D . {\ displaystyle {\ begin {align} C amp; = \ sum _ {x} q_ {x} C \\ amp; \ geq \ sum _ {x} q_ {x} \ mathbf {E} [c (A, x)] \\ amp; = \ sum _ {x} q_ {x} \ sum _ {a} p_ {a} c (a, x) \\ amp; = \ sum _ {a} p_ {a} \ sum _ {x} q_ {x} c (a, x) \\ amp; = \ sum _ {a} p_ {a} \ mathbf {E} [c (a, X)] \\ amp; \ geq \ sum _ {a} p_ { a} D = D. \ end {выравнивается}}}

Как упоминалось выше, эту теорему также можно рассматривать как очень частный случай теоремы Минимакс.

Рекомендации

Внешние ссылки

Последняя правка сделана 2023-04-05 09:53:00
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте