Метрика Вассерштейна

редактировать
Функция расстояния, определенная между распределениями вероятностей

В математике, расстояние Вассерштейна или метрика Канторовича – Рубинштейна - это функция расстояния, определенная между распределениями вероятностей на заданном метрическом пространстве M { \ displaystyle M}M .

Интуитивно, если рассматривать каждое распределение как единицу количества земли (почвы), насыпанной на M {\ displaystyle M}M , метрика представляет собой минимальную «стоимость» превращение одной сваи в другую; предполагается, что это количество земли, которое необходимо переместить, умноженное на среднее расстояние, на которое ее нужно переместить. Из-за этой аналогии эта метрика известна в информатике как расстояние земного движителя.

Название «расстояние Вассерштейна» было придумано Р. Л. Добрушин в 1970 году, после русского математика Леонида Васерштейна, который представил концепцию в 1969 году. Самый английский -язык в публикациях используется немецкое написание «Wasserstein» (приписывается имени «Vaseršten» немецкого происхождения).

Содержание
  • 1 Определение
  • 2 Интуиция и подключение к оптимальному транспорту
  • 3 Примеры
    • 3.1 Точечные массы (вырожденные распределения)
    • 3.2 Нормальные распределения
  • 4 Приложения
  • 5 Свойства
    • 5.1 Метрическая структура
    • 5.2 Двойное представление W 1
    • 5.3 Эквивалентность W 2 и норме Соболева отрицательного порядка
    • 5.4 Разделимость и полнота
  • 6 См. Также
  • 7 Ссылки
  • 8 Внешние ссылки
Определение

Пусть (M, d) {\ displaystyle (M, d)}(M, d) будет метрическим пространством, для которого каждая вероятностная мера на M {\ displaystyle M}M является мерой Радона (так называемое радоновое пространство ). Для p ≥ 1 {\ displaystyle p \ geq 1}p \ geq 1 пусть P p (M) {\ displaystyle P_ {p} (M)}{\ displaystyle P_ {p} (М)} обозначает набор всех вероятностных мер μ {\ displaystyle \ mu}\ mu на M {\ displaystyle M}M с конечным p th {\ displaystyle p ^ { \ text {th}}}{\ displaystyle p ^ {\ text {th}}} момент. Тогда существует некий x 0 {\ displaystyle x_ {0}}x_ {0} в M {\ displaystyle M}M такой, что:

∫ M d ( x, x 0) pd μ (x) < ∞. {\displaystyle \int _{M}d(x,x_{0})^{p}\,\mathrm {d} \mu (x)<\infty.}{\ displaystyle \ int _ {M} d (x, x_ {0}) ^ {p} \, \ mathrm {d} \ mu (x) <\ infty. }

p th {\ displaystyle p ^ {\ text {th}}}{\ displaystyle p ^ {\ text {th}}} Расстояние Вассерштейна между двумя вероятностными мерами μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu в P p (M) {\ displaystyle P_ {p} ( M)}{\ displaystyle P_ {p} (М)} определяется как

W p (μ, ν): = (inf γ ∈ Γ (μ, ν) ∫ M × M d (x, y) pd γ (x, y)) 1 / п, {\ displaystyle W_ {p} (\ mu, \ nu): = \ left (\ inf _ {\ gamma \ in \ Gamma (\ mu, \ nu)} \ int _ {M \ times M} d (x, y) ^ {p} \, \ mathrm {d} \ gamma (x, y) \ right) ^ {1 / p},}{\ displaystyle W_ {p} (\ mu, \ nu): = \ left (\ inf _ {\ gamma \ in \ Gamma (\ mu, \ nu)} \ int _ {M \ times M} d (x, y) ^ {p} \, \ mathrm {d} \ gamma (x, y) \ right) ^ {1 / p},}

где Γ (μ, ν) {\ displaystyle \ Gamma (\ mu, \ nu)}{\ displaystyle \ Gamma (\ mu, \ nu)} обозначает совокупность всех мер на M × M {\ displaystyle M \ times M}M \ times M с маргиналы μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu по первому и второму факторам соответственно. (Набор Γ (μ, ν) {\ displaystyle \ Gamma (\ mu, \ nu)}{\ displaystyle \ Gamma (\ mu, \ nu)} также называется набором всех связей из μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu .)

Вышеуказанное расстояние обычно обозначается W p (μ, ν) {\ displaystyle W_ {p} (\ mu, \ nu)}{ \ Displaystyle W_ {p} (\ mu, \ nu)} (обычно среди авторов, предпочитающих написание «Вассерштейн») или ℓ p (μ, ν) {\ displaystyle \ ell _ {p} (\ mu, \ nu)}{\ displaystyle \ ell _ {p} (\ mu, \ nu)} (обычно среди авторов, предпочитающих написание «Васерштейн»). В оставшейся части статьи будет использоваться нотация W p {\ displaystyle W_ {p}}W_p .

Метрика Вассерштейна может быть эквивалентно определена как

W p (μ, ν) = (inf E ⁡ [d (X, Y) p]) 1 / p, {\ displaystyle W_ {p} (\ mu, \ nu) = \ left (\ inf \ operatorname {E} {\ big [} d (X, Y) ^ {p} {\ big]} \ right) ^ {1 / p},}{\ displaystyle W_ {p} (\ mu, \ nu) = \ left (\ inf \ operatorname {E} {\ big [} d (X, Y) ^ {p} {\ big]} \ right) ^ {1 / p},}

где E [Z] {\ displaystyle \ mathbf {E} [Z]}{\ displaystyle \ mathbf {E} [Z]} обозначает ожидаемое значение случайной величины <275.>Z {\ displaystyle Z}Z и инфимум берется по всем совместным распределениям случайных величин X {\ displaystyle X}X и Y {\ displaystyle Y}Y с полями μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu соответственно.

Интуиция и связь с оптимальным транспортом
Два одномерных распределения μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu , нанесенный на оси x и y, и одно возможное совместное распределение, которое определяет транспортный план между ними. Совместный план распределения / транспортировки не является уникальным

Один из способов понять мотивацию приведенного выше определения - рассмотреть задачу оптимального транспорта. То есть для распределения массы μ (x) {\ displaystyle \ mu (x)}\ mu (x) в пространстве X {\ displaystyle X}X , мы желаете транспортировать массу таким образом, чтобы она преобразовывалась в распределение ν (x) {\ displaystyle \ nu (x)}{\ displaystyle \ nu (x)} в том же пространстве; преобразование «груды земли» μ {\ displaystyle \ mu}\ mu в груду ν {\ displaystyle \ nu}\ nu . Эта проблема имеет смысл только в том случае, если создаваемая свая имеет ту же массу, что и перемещаемая свая; поэтому без ограничения общности предположим, что μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu - это распределения вероятностей, содержащие общую массу 1. Предположим также, что дана некоторая функция стоимости

c (x, y) ↦ [0, ∞) {\ displaystyle c (x, y) \ mapsto [0, \ infty)}{\ displaystyle c (x, y) \ mapsto [0, \ infty) }

, которая дает стоимость перенос единицы массы из точки x {\ displaystyle x}x в точку y {\ displaystyle y}y . Транспортный план для перемещения μ {\ displaystyle \ mu}\ mu в ν {\ displaystyle \ nu}\ nu может быть описан функцией γ (x, y) {\ displaystyle \ gamma (x, y)}\ gamma (x, y) , которая дает количество массы для перемещения от x {\ displaystyle x}x к y { \ displaystyle y}y . Вы можете представить себе задачу как необходимость переместить кучу земли формы μ {\ displaystyle \ mu}\ mu в отверстие в земле формы ν {\ displaystyle \ nu}\ nu таким образом, что в конце и груда земли, и яма в земле полностью исчезают. Для того, чтобы этот план имел смысл, он должен удовлетворять следующим свойствам

∫ γ (x, y) dy = μ (x) (количество земли, перемещенной из точки x, должно быть равно количеству, которое было там, чтобы начнем с) ∫ γ (x, y) dx = ν (y) (количество земли, перемещенной в точку y, должно быть равно глубине ямы, которая была там в начале) {\ displaystyle {\ begin {align} \ int \ gamma (x, y) \, \ mathrm {d} y = \ mu (x) \ qquad {\ text {(количество земли, перемещенное из точки}} x {\ text {должно равняться количеству это было там с самого начала)}} \\\ int \ gamma (x, y) \, \ mathrm {d} x = \ nu (y) \ qquad {\ text {(количество земли, перемещенное в точку} } y {\ text {должно равняться глубине отверстия, которое было в начале)}} \ end {align}}}{\ displaystyle {\ begin {align} \ int \ gamma (x, y) \, \ mathrm {d} y = \ mu (x) \ qquad {\ text {(количество выдвинутой земли of point}} x {\ text {должно равняться количеству, которое было изначально)}} \\\ int \ gamma (x, y) \, \ mathrm {d} x = \ nu (y) \ qquad {\ text {(количество земли, перемещенное в точку}} y {\ text {должно равняться глубине дыры, которая была там в начале)}} \ end {выравнивается}}}

То есть, чтобы общая масса вышла из бесконечно малой области около x {\ displaystyle x}x должен быть равен μ (x) dx {\ displaystyle \ mu (x) \ mathrm {d} x}{\ displaystyle \ mu (x) \ mathrm {d} x} , а общая перемещенная масса в область около y {\ displaystyle y}y должно быть ν (y) d y {\ displaystyle \ nu (y) \ mathrm {d} y}{\ displaystyle \ nu (y) \ mathrm {d} y} . Это эквивалентно требованию, чтобы γ {\ displaystyle \ gamma}\ gamma был совместным распределением вероятностей с маржинальными числами μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu . Таким образом, бесконечно малая масса, перенесенная из x {\ displaystyle x}x в y {\ displaystyle y}y , равна γ (x, y) dxdy { \ displaystyle \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y}{\ displaystyle \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y} , а стоимость перемещения составляет c (x, y) γ ( x, y) dxdy {\ displaystyle c (x, y) \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y}{\ displaystyle c (x, y) \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y} , следуя определению функция стоимости. Таким образом, общая стоимость транспортного плана γ {\ displaystyle \ gamma}\ gamma составляет

∬ c (x, y) γ (x, y) dxdy = ∫ c (x, y) d γ (Икс, Y) {\ Displaystyle \ iint c (x, y) \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y = \ int c (x, y) \, \ mathrm {d} \ gamma (x, y)}{\ displaystyle \ iint c (x, y) \ gamma (x, y) \, \ mathrm {d} x \, \ mathrm {d} y = \ int c ( x, y) \, \ mathrm {d} \ gamma (x, y)}

План γ {\ displaystyle \ gamma}\ gamma не уникален; Оптимальный транспортный план - это план с минимальной стоимостью из всех возможных транспортных планов. Как уже упоминалось, для того, чтобы план был действительным, требуется, чтобы он представлял собой совместное распределение с маргиналами μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu ; позволяя Γ {\ displaystyle \ Gamma}\ Gamma обозначать набор всех таких мер, как в первом разделе, стоимость оптимального плана составляет

C = inf γ ∈ Γ (μ, ν) ∫ с (Икс, Y) d γ (Икс, Y) {\ Displaystyle C = \ Inf _ {\ gamma \ in \ Gamma (\ mu, \ nu)} \ int c (x, y) \, \ mathrm {d} \ gamma (x, y)}{\ Displaystyle C = \ Inf _ {\ gamma \ in \ Gamma (\ mu, \ nu)} \ int c (x, y) \, \ mathrm {d} \ gamma (x, y) }

Если стоимость хода - это просто расстояние между двумя точками, то оптимальная стоимость идентична определению W 1 {\ displaystyle W_ { 1}}W_1 расстояние.

Примеры

Точечные массы (вырожденные распределения)

Пусть μ 1 = δ a 1 {\ displaystyle \ mu _ {1} = \ delta _ {a_ {1}}}{\ displaystyle \ mu _ {1} = \ delta _ {a_ {1}}} и μ 2 = δ a 2 {\ displaystyle \ mu _ {2} = \ delta _ {a_ {2}}}{\ displaystyle \ mu _ {2} = \ delta _ {a_ {2}}} быть двумя вырожденные распределения (т.е. дельта-распределения Дирака ), расположенные в точках a 1 {\ displaystyle a_ {1}}a _ {{1}} и a 2 {\ displaystyle a_ {2}}a_ {2} в R {\ displaystyle \ mathbb {R}}\ mathbb {R} . Существует только одна возможная связь этих двух мер, а именно точечная масса δ (a 1, a 2) {\ displaystyle \ delta _ {(a_ {1}, a_ {2})}}{\ displaystyle \ delta _ {(a_ {1}, a_ {2}) }} расположен по адресу (a 1, a 2) ∈ R 2 {\ displaystyle (a_ {1}, a_ {2}) \ in \ mathbb {R} ^ {2}}{\ displaystyle (a_ {1}, a_ {2}) \ in \ mathbb {R} ^ {2}} . Таким образом, используя обычную функцию абсолютного значения в качестве функции расстояния на R {\ displaystyle \ mathbb {R}}\ mathbb {R} для любого p ≥ 1 {\ displaystyle p \ geq 1}p \ geq 1 , p {\ displaystyle p}p - расстояние Вассерштейна между μ 1 {\ displaystyle \ mu _ {1}}\ mu _ {{1 }} и μ 2 {\ displaystyle \ mu _ {2}}\ mu _ {2 } равно

W p (μ 1, μ 2) = | а 1 - а 2 |. {\ displaystyle W_ {p} (\ mu _ {1}, \ mu _ {2}) = | a_ {1} -a_ {2} |.}{\ displaystyle W_ {p} (\ mu _ {1}, \ mu _ {2}) = | a_ {1} -a_ {2} |.}

По аналогичным соображениям, если μ 1 = δ a 1 {\ displaystyle \ mu _ {1} = \ delta _ {a_ {1}}}{\ displaystyle \ mu _ {1} = \ delta _ {a_ {1}}} и μ 2 = δ a 2 {\ displaystyle \ mu _ {2} = \ delta _ {a_ {2}}}{\ displaystyle \ mu _ {2} = \ delta _ {a_ {2}}} - точечные массы, расположенные в точках a 1 {\ displaystyle a_ {1}}a _ {{1}} и a 2 {\ displaystyle a_ {2}}a_ {2} в R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} , и мы используем обычную евклидову норму на R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} как функция расстояния, тогда

W p (μ 1, μ 2) = ‖ a 1 - a 2 ‖ 2. {\ displaystyle W_ {p} (\ mu _ {1}, \ mu _ {2}) = \ | a_ {1} -a_ {2} \ | _ {2}.}{\ displaystyle W_ {p} (\ mu _ {1}, \ mu _ {2}) = \ | a_ {1} -a_ {2} \ | _ {2}.}

Нормальные распределения

Пусть μ 1 = N (m 1, C 1) {\ displaystyle \ mu _ {1} = {\ mathcal {N}} (m_ {1}, C_ {1})}{\ displaystyle \ mu _ {1} = {\ mathcal {N}} (m_ {1}, C_ {1})} и μ 2 = N (м 2, C 2) {\ displaystyle \ mu _ {2} = {\ mathcal {N}} (m_ {2}, C_ {2})}{\ displaystyle \ mu _ {2} = {\ mathcal {N}} (m_ {2}, C_ {2})} - две невырожденные гауссовские меры (т.е. нормальные распределения ) на R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} , с соответствующими ожидаемыми значениями m 1 {\ displaystyle m_ {1}}m_ {1} и m 2 ∈ R n {\ displaystyle m_ {2} \ in \ mathbb {R} ^ {n}}{\ displaystyle m_ {2} \ in \ mathbb {R} ^ {n}} и симметричные положительно полуопределенные ковариационные матрицы C 1 {\ displaystyle C_ {1}}C_ { {1}} и C 2 ∈ R n × n {\ displaystyle C_ {2} \ in \ mathbb {R} ^ {n \ times n}}{\ дисп Laystyle C_ {2} \ in \ mathbb {R} ^ {n \ times n}} . Затем, относительно обычной евклидовой нормы на R n {\ displaystyle \ mathbb {R} ^ {n}}\ mathbb {R} ^ {n} , расстояние 2-Вассерштейна между μ 1 {\ displaystyle \ mu _ {1}}\ mu _ {{1 }} и μ 2 {\ displaystyle \ mu _ {2}}\ mu _ {{2}} равно

W 2 (μ 1, μ 2) 2 = ‖ m 1 - m 2 ‖ 2 2 + след ⁡ (C 1 + C 2 - 2 (C 2 1/2 C 1 C 2 1/2) 1/2). {\ displaystyle W_ {2} (\ mu _ {1}, \ mu _ {2}) ^ {2} = \ | m_ {1} -m_ {2} \ | _ {2} ^ {2} + \ mathop {\ mathrm {trace}} {\ bigl (} C_ {1} + C_ {2} -2 {\ bigl (} C_ {2} ^ {1/2} C_ {1} C_ {2} ^ {1 / 2} {\ bigr)} ^ {1/2} {\ bigr)}.}{\ displaystyle W_ {2} (\ mu _ {1}, \ mu _ {2}) ^ {2} = \ | m_ {1} -m_ {2} \ | _ {2} ^ {2} + \ mathop {\ mathrm {trace}} {\ bigl (} C_ {1} + C_ {2} -2 {\ bigl (} C_ {2} ^ {1/2} C_ {1} C_ {2} ^ {1/2} {\ bigr)} ^ {1/2} {\ bigr)}.}

Этот результат обобщает предыдущий пример расстояния Вассерштейна между двумя точечными массами (по крайней мере, в случае p = 2 {\ displaystyle p = 2}p = 2 ), поскольку точечную массу можно рассматривать как нормальное распределение с ковариационной матрицей, равной нулю, и в этом случае член trace исчезает, и только член включая евклидово расстояние между средствами остается.

Приложения

Метрика Вассерштейна - это естественный способ сравнения распределений вероятностей двух переменных X и Y, где одна переменная получается из другой посредством небольших неоднородных возмущений (случайных или случайных). детерминированный).

В информатике, например, метрика W 1 широко используется для сравнения дискретных распределений, например цветовые гистограммы двух цифровых изображений ; см. расстояние землеройного для более подробной информации.

В своей статье «Вассерштейн ГАН» Арджовский и др. использовать метрику Вассерштейна-1 как способ улучшить исходную структуру Generative Adversarial Networks (GAN), чтобы облегчить исчезающий градиент и проблемы коллапса режима.

Метрика Вассерштейна имеет формальную связь с анализом Прокруста, применительно к мерам хиральности и анализу формы.

Свойства

Структура метрики

Можно показать, что W p удовлетворяет всем аксиомам метрики на Pp(M). Кроме того, сходимость относительно W p эквивалентна обычной слабой сходимости мер плюс сходимость первых p-х моментов.

Двойное представление W 1

- Следующее двойственное представление W 1 является частным случаем теоремы двойственности из Канторовича и Рубинштейна (1958): когда μ и ν имеют ограниченные поддержка,

W 1 (μ, ν) = sup {∫ M f (x) d (μ - ν) (x) | непрерывный е: M → р, губа ⁡ (е) ≤ 1}, {\ displaystyle W_ {1} (\ mu, \ nu) = \ sup \ left \ {\ left. \ int _ {M} f (x) \, \ mathrm {d} (\ mu - \ nu) (x) \ right | {\ text {continuous}} f: M \ to \ mathbb {R}, \ operatorname {Lip} (f) \ leq 1 \ right \},}{\ displaystyle W_ { 1} (\ mu, \ nu) = \ sup \ left \ {\ left. \ Int _ {M} f (x) \, \ mathrm {d} (\ mu - \ nu) (x) \ right | {\ text {continuous}} f: M \ to \ mathbb {R}, \ operatorname {Lip} (f) \ leq 1 \ right \}, }

где Lip (f) обозначает минимальную константу Липшица для f.

Сравните это с определением метрики Радона :

ρ (μ, ν): = sup {∫ M f (x) d (μ - ν) (x) | непрерывная f: M → [- 1, 1]}. {\ Displaystyle \ rho (\ му, \ ню): = \ sup \ left \ {\ left. \ int _ {M} f (x) \, \ mathrm {d} (\ mu - \ nu) (x) \ right | {\ text {continuous}} f: M \ to [-1,1] \ right \}.}{\ displaystyle \ rho (\ mu, \ nu): = \ sup \ left \ {\ left. \ Int _ {M} f (x) \, \ mathrm {d} (\ mu - \ nu) (x) \ right | {\ text {continuous}} f: M \ to [-1,1] \ right \}.}

Если метрика d ограничена некоторой константой C, то

2 W 1 (μ, ν) ≤ C ρ (μ, ν), {\ displaystyle 2W_ {1} (\ mu, \ nu) \ leq C \ rho (\ mu, \ nu),}{\ displaystyle 2W_ {1} (\ mu, \ nu) \ leq C \ rho (\ mu, \ nu),}

и, следовательно, сходимость в метрике Радона (идентично сходимости общих вариаций, когда M является польским пробелом ) подразумевает сходимость в метрике Вассерштейна, но не наоборот.

Эквивалентность W 2 и нормы Соболева отрицательного порядка

При подходящих предположениях расстояние Вассерштейна W 2 {\ displaystyle W_ {2}}W_2 второго порядка является липшицевым эквивалентом однородной нормы Соболева отрицательного порядка. Точнее, если мы возьмем M {\ displaystyle M}M как связное риманово многообразие, снабженное положительной мерой π {\ displaystyle \ pi}\ pi , тогда мы можем определить для f: M → R {\ displaystyle f \ двоеточие M \ to \ mathbb {R}}{\ displaystyle f \ двоеточие M \ to \ mathbb {R}} полунорму

‖ F ‖ H ˙ 1 (π) 2 = ∫ M | ∇ f (x) | 2 π (dx) {\ displaystyle \ | е \ | _ {{\ dot {H}} ^ {1} (\ pi)} ^ {2} = \ int _ {M} | \ nabla f (x) | ^ {2} \, \ pi (\ mathrm {d} x)}{\ displaystyle \ | f \ | _ {{\ dot {H}} ^ {1} (\ pi) } ^ {2} = \ int _ {M} | \ nabla f (x) | ^ {2} \, \ pi (\ mathrm {d} x)}

и для показателя со знаком μ {\ displaystyle \ mu}\ mu на M {\ displaystyle M}M двойная норма

‖ μ ‖ H ˙ - 1 (π) = sup {| ⟨F, μ⟩ | | ‖ F ‖ H ˙ 1 (π) ≤ 1}. {\ displaystyle \ | \ mu \ | _ {{\ dot {H}} ^ {- 1} (\ pi)} = \ sup {\ bigg \ {} | \ langle f, \ mu \ rangle | \, { \ bigg |} \, \ | f \ | _ {{\ dot {H}} ^ {1} (\ pi)} \ leq 1 {\ bigg \}}.}{\ displaystyle \ | \ mu \ | _ {{\ dot {H}} ^ {- 1} (\ pi)} = \ sup {\ bigg \ {} | \ langle f, \ mu \ rangle | \, {\ bigg |} \, \ | f \ | _ {{\ dot {H}} ^ {1} (\ pi)} \ leq 1 {\ bigg \}}.}

Тогда любые две вероятностные меры μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu на M {\ displaystyle M}M удовлетворяют верхнему граница

W 2 (μ, ν) ≤ 2 ‖ μ - ν ‖ H ˙ - 1 (μ). {\ displaystyle W_ {2} (\ mu, \ nu) \ leq 2 \ | \ mu - \ nu \ | _ {{\ dot {H}} ^ {- 1} (\ mu)}.}{\ displaystyle W_ {2} (\ mu, \ nu) \ leq 2 \ | \ mu - \ nu \ | _ {{\ точка {H}} ^ {- 1} (\ mu)}.}

В другом направлении, если каждый из μ {\ displaystyle \ mu}\ mu и ν {\ displaystyle \ nu}\ nu имеет плотности относительно стандарта мера объема на M {\ displaystyle M}M , которые оба ограничены выше некоторого 0 < C < ∞ {\displaystyle 0{\ displaystyle 0 <C <\ infty} , а M {\ displaystyle M}M не имеет отрицательная кривизна Риччи, тогда

μ - ν ‖ H ˙ - 1 (μ) ≤ CW 2 (μ, ν). {\ displaystyle \ | \ mu - \ nu \ | _ {\ dot {H}} ^ {- 1} (\ mu)} \ leq {\ sqrt {C}} W_ {2} (\ mu, \ nu).}{\ displaystyle \ | \ mu - \ nu \ | _ {{\ dot {H}} ^ {- 1} (\ mu) } \ leq {\ sqrt {C}} W_ {2} (\ mu, \ nu).}

Разделимость и полнота

Для любого p ≥ 1 метрическое пространство (Pp(M), W p) разделимо, и является полным, если (M, d) отделимо и полно.

См. также
Ссылки
  • Виллани, Седрик (2008). Оптимальный транспорт, старый и новый. Springer. ISBN 978-3-540-71050-9.
  • Амбросио, Л., Джильи, Н. и Саваре, Г. (2005). Градиентные потоки в метрических пространствах и в пространстве вероятностных мер. Базель: ETH Zürich, Birkhäuser Verlag. ISBN 3-7643-2428-7. CS1 maint: несколько имен: список авторов (ссылка )
  • Jordan, Richard; Kinderlehrer, David; Отто, Феликс (1998). «Вариационная формулировка уравнения Фоккера – Планка». SIAM J. Math. Anal. 29 (1): 1–17 (электронный). CiteSeerX 10.1.1.6.8815. doi : 10.1137 / S0036141096303359. ISSN 0036-1410. MR 1617171.
  • Рюшендорф, Л. (2001) [1994], Математическая энциклопедия, EMS Press
Внешние ссылки
Последняя правка сделана 2021-06-20 09:12:01
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте