Модель смеси

редактировать

В статистике модель смеси является вероятностной моделью для представления присутствия субпопуляций в общей популяции, не требуя, чтобы наблюдаемый набор данных идентифицировал субпопуляцию, к которой принадлежит индивидуальное наблюдение. Формально модель смеси соответствует распределению смеси, которое представляет распределение вероятностей наблюдений в генеральной совокупности. «Смешанные модели» используются для статистических выводов о свойствах подгруппы населения, связанных со «смешанными проблемами распределениями». популяциям даны только наблюдения за объединенной популяцией, без информации об идентичности подгруппы населения.

Некоторые способы реализации смешанных моделей включают шаги, которые приписывают личностные характеристики субпопуляций наблюдения (или весовые коэффициенты по отношению к таким субпопуляциям), и в этом случае они могут рассматриваться как учителя обучения безеля. или процедуры кластеризации. Однако не все процедуры вывода включают такие шаги.

Смешанные модели не следует путать с моделями для композиционных данных, есть компоненты которых ограничены суммированием до постоянного значения (1, 100% и т. Д.). Однако композиционные модели можно рассматривать как смешанные модели, в которых совокупности отбираются случайным образом. И, смешанные модели можно рассматривать как композиционные модели, где размер общей совокупности нормализован до 1.

Содержание

  • 1 Структура
    • 1.1 Общая модель смеси
    • 1.2 Конкретные примеры
      • 1.2.1 Модель смеси Гаусса
      • 1.2.2 Модель многомерной смеси Гаусса
      • 1.2.3 Модель категориальной смеси
  • 2 Примеры
    • 2.1 Финансовая модель
    • 2.2 Цены на жилье
    • 2.3 Темы в документ
    • 2.4 Распознавание рукописного ввода
    • 2.5 Оценка точности снаряда (также называемая вероятной круговой ошибкой, CEP)
    • 2.6 Прямые и косвенные приложения
    • 2.7 Профилактическое обслуживание
    • 2.8 Сегментация нечеткого изображения
    • 2.9 Регистрация набора точек
  • 3 Идентифицируемость
    • 3.1 Пример
    • 3.2 Определение
  • 4 Оценка параметров и идентификация системы
    • 4.1 Максимизация ожидания (EM)
      • 4.1.1 Шаг ожидания
      • 4.1.2 Шаг максимизации
    • 4.2 Марковская цепь Монте-Карло
    • 4.3 Сопоставление моментов
    • 4.4 Специи ктральный метод
    • 4.5 Графические методы
    • 4.6 Другие методы
    • 4.7 Моделирование
  • 5 Расширения
  • 6 История
  • 7 См.
    • 7.1 Смесь
    • 7.2 Иерархические модели
    • 7.3 Обнаружение выбросов
  • 8 Ссылки
  • 9 Дополнительная литература
    • 9.1 Книги по моделям смеси
    • 9.2 Применение моделей смеси Гаусса
  • 10 Внешние ссылки

Структура

Общая модель смеси

Типичная конечная -мерная модель смеси - это иерархическая модель, состоящая из следующих компонентов:

  • N наблюдаемых случайных величин, каждая из которых распределена согласно смеси K компонентов, причем отдельные компоненты одного и того же параметрическое семейство распределений (например, все нормальные, все Zipfian и т. д.), но с каждым определенным числом
  • N случайных скрытых чисел определения идентичности компонентов смеси наблюдения, из каждого распределено в соответствии с K-мерным категориальным распределением
  • Набор из K весов смеси, которые дают собой вероятности, которые в сумме 1.
  • Набор из K па раметров, каждый из которых определяет соответствующий компонент смеси. Во многих случаях каждый параметр на самом деле представляет собой набор параметров. Например, если компоненты смеси представляют собой распределителями Гаусса, для каждого компонента будет среднее и дисперсия. Если компоненты смеси являются категориальными распределителями (например, когда каждое наблюдение токеном из конечного алфавита размера V), будет вектор вероятностей V, суммирующийся до 1.

Кроме того, в байесовская настройка, веса и компоненты смеси сами будут случайными величинами, а предшествующие распределения будут помещены поверх числа. В случае веса обычно рассматривается как K-мерный случайный вектор, взятый из распределения Дирихле (сопряженный предшеств категориального распределения), и параметры будут распределены в соответствии с их сопряженными априори.

Математически базовая параметрическая модель смеси может быть описана следующим образом:

K = количество компонентов смеси N = количество наблюдений θ i = 1… K = параметр распределения наблюдения, связанный с компонентом i ϕ i = 1… K = вес смеси, т. е. априорная вероятность определенного компонента i ϕ = K -мерный вектор, составленный из всех отдельных ϕ 1… K; должно суммироваться до 1 zi = 1… N = компонент наблюдения ixi = 1… N = наблюдение i F (x | θ) = распределение вероятностей наблюдений, параметризованное на θ zi = 1… N ∼ Категориальное ⁡ (ϕ) xi = 1… N | zi = 1… N ∼ F (θ zi) {\ displaystyle {\ begin {array} {lcl} K = {\ text {количество компонентов смеси}} \\ N = {\ text {количество наблюдений}} \\\ theta _ {i = 1 \ dots K} = {\ text {параметр распределения наблюдения, связанного с компонентом}} i \\\ phi _ {i = 1 \ dots K} = {\ text { вес смеси, т.е. априорная вероятность конкретного компонента}} i \\ {\ boldsymbol {\ phi}} = K {\ text {-мерный вектор, составленный из всех отдельных}} \ phi _ {1 \ dots K} {\ текст {; в сумме должно быть 1}} \\ z_ {i = 1 \ dots N} = {\ text {компонент наблюдения}} i \\ x_ {i = 1 \ dots N} = {\ text {наблюдение} } i \\ F (x | \ theta) = {\ text {распределение вероятностей наблюдений, параметризованное на}} \ theta \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальное} ({ \ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} | z_ {i = 1 \ dots N} \ sim F (\ theta _ {z_ {i}}) \ end {array}}}{\ displaystyle {\ begin {array} {lcl} K = {\ text {количество компонентов смеси}} \\ N = {\ text {количество наблюдений}} \\\ theta _ {i = 1 \ dots K} = {\ text {параметр распределения наблюдения, связанный с компонентом}} i \\\ phi _ {i = 1 \ dots K} = {\ text {вес смеси, т. Е. Априорная вероятность определенного компонент ent}} i \\ {\ boldsymbol {\ phi}} = K {\ text {-мерный вектор, составленный из всех отдельных}} \ phi _ {1 \ dots K} {\ text {; в сумме должно быть 1}} \\ z_ {i = 1 \ dots N} = {\ text {компонент наблюдения}} i \\ x_ {i = 1 \ dots N} = {\ text {наблюдение} } i \\ F (x | \ theta) = {\ text {распределение вероятностей наблюдений, параметризованное на}} \ theta \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальное} ({ \ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} | z_ {i = 1 \ dots N} \ sim F (\ theta _ {z_ {i}}) \ end {array }}}

В байесовской настройке все параметры связаны со случайными величинами следующим образом:

K, N = как указано выше θ i = 1… K, ϕ i = 1… K, ϕ = как указано выше zi = 1… N, xi = 1… N, F (x | θ) = как указано выше α = общий гиперпараметр для параметров компонентов β = общий гиперпараметр для весов смесей H (θ | α) = предварительное распределение вероятностей параметров компонентов, параметзованное на α θ i = 1… K ∼ H (θ | α) ϕ ∼ S ymmetric - D irichlet K ⁡ (β) zi = 1… N | ϕ ∼ Категориальный ⁡ (ϕ) x i = 1… N | zi = 1… N, θ i = 1… K ∼ F (θ zi) {\ displaystyle {\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K}, \ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указано выше}} \\ z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N}, F (x | \ theta) = {\ text {как указано выше}} \\\ alpha = {\ text {общий гиперпараметр для параметров компонента}} \\\ beta = {\ text {общий гиперпараметр для весов смесей}} \\ H (\ theta | \ alpha) = {\ text {априорное распределение вероятностей параметров компонентов, параметзованное на}} \ alpha \\\ theta _ {i = 1 \ dots K} \ sim H (\ theta | \ alpha) \\ {\ boldsymbol {\ phi}} \ sim \ operatorname {Symmetric-Dirichlet} _ {K} (\ beta) \\ z_ {i = 1 \ dots N} | {\ boldsymbol {\ phi}} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} | z_ {i = 1 \ dots N}, \ theta _ {i = 1 \ dots K} \ sim F (\ theta _ {z_ {i}}) \ end {array}}}{\ displaystyle {\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K}, \ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указано выше}} \\ z_ {i = 1 \ dots N }, x_ {i = 1 \ dots N}, F (x | \ theta) = {\ text {как указано выше}} \\\ alpha = {\ text {общий гиперпараметр для параметров компонента}} \\ \ beta = {\ text {общий гиперпараметр для весов смеси}} \\ H (\ theta | \ alpha) = {\ text {априорное распределение вероятностей параметров компоненто в, param на основе}} \ alpha \\\ theta _ {i = 1 \ dots K} \ sim H (\ theta | \ alpha) \\ {\ boldsymbol {\ phi}} \ sim \ operatorname {Symmetric-Dirichlet } _ {K} (\ beta) \\ z_ {i = 1 \ dots N} | {\ boldsymbol {\ phi}} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} | z_ {i = 1 \ dots N}, \ theta _ {i = 1 \ dots K} \ sim F (\ theta _ {z_ {i}}) \ end {массив }}}

В этой характеристике используются F и H для описания произвольных распределений по наблюдениям и параметрам соответственно. Обычно H , предшествующим, сопряженным с F. Двумя наиболее распространенными вариантами F являются гауссовский он же «нормальный » (для наблюдений с действительным знаком) и категориальный (для дискретных наблюдений). Другими распространенными возможностями распределения компонентов смеси являются:

Конкретные примеры

Модель гауссовской смеси

Небайесовская модель гауссовской смеси с использованием обозначения на табличке. Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Закрашенные фигуры известные значения. Индикация [K] означает вектор размера K.

Типичная небайесовская гауссовская модель смеси выглядит следующим образом:

K, N = как указано выше ϕ i = 1… K, ϕ = как указано выше zi = 1… N, xi = 1… N = как указано выше θ i = 1… K = {μ i = 1… K, σ i = 1… K 2} μ i = 1… K = среднее значение компонента i σ i = 1… K 2 = дисперсия компонента izi = 1… N ∼ Категориальная ⁡ (ϕ) xi = 1… N ∼ N (μ zi, σ zi 2) {\ displaystyle {\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указано выше}} \\ z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N} = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K} = \ {\ mu _ { i = 1 \ dots K}, \ sigma _ {i = 1 \ dots K} ^ {2} \} \\\ mu _ {i = 1 \ dots K} = {\ text {среднее значение компонента}} i \\\ sigma _ {i = 1 \ dots K} ^ {2} = {\ text {дисперсия компонента}} i \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ mathcal {N}} (\ mu _ {z_ {i}}, \ sigma _ {z_ {i}} ^ {2}) \ end {array} }}{\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указановыше}} \\ z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N} = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K} = \ {\ mu _ {i = 1 \ dots K}, \ sigma _ {i = 1 \ dots K} ^ {2} \} \\\ mu _ {i = 1 \ dots K} = {\ text {среднее значение компонента}} i \\\ sigma _ {i = 1 \ dots K} ^ {2 } = {\ text {дисперсия компонента}} i \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ mathcal {N}} (\ mu _ {z_ {i}}, \ sigma _ {z_ {i}} ^ {2}) \ end {array}}
Байесовская гауссовская модель смеси с использованием обозначения пластины. Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Закрашенные фигуры известные значения. Индикация [K] означает вектор размера K.

Байесовская версия модели гауссовской смеси выглядит следующим образом:

K, N = как указано выше ϕ i = 1… K, ϕ = как указано выше zi = 1… N, xi = 1… N = как указано выше θ i = 1… K = {μ i = 1… K, σ i = 1… K 2} μ i = 1… K = среднее значение компонента i σ i = 1… K 2 = дисперсия компонента i μ 0, λ, ν, σ 0 2 = общие гиперпараметры μ i = 1… K ∼ N (μ 0, λ σ i 2) σ i = 1… K 2 ∼ I nverse - G amma ⁡ (ν, σ 0 2) ϕ ∼ S ymmetric - D irichlet K ⁡ (β) zi = 1… N ∼ Категориальный ⁡ (ϕ) xi = 1… N ∼ N (μ zi, σ zi 2) {\ displaystyle {\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указано выше}} \\ z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N} = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K} = \ {\ mu _ {i = 1 \ dots K}, \ sigma _ {i = 1 \ dots K} ^ {2} \} \\\ mu _ {i = 1 \ dots K} = {\ text {среднее значение компонента}} i \\\ sigma _ {i = 1 \ d ots K} ^ {2} = {\ text {дисперсия компонента}} i \\\ mu _ {0}, \ lambda, \ nu, \ sigma _ {0} ^ {2} = {\ text {общее гиперпространство параметров}} \\\ mu _ {i = 1 \ dots K} \ sim {\ mathcal {N}} (\ mu _ {0}, \ lambda \ sigma _ {i} ^ {2}) \\ \ sigma _ {i = 1 \ dots K} ^ {2} \ sim \ operatorname {Inverse-Gamma} (\ nu, \ sigma _ {0} ^ {2}) \\ {\ boldsymbol { \ phi}} \ sim \ operatorname {Symmetric-Dirichlet} _ {K} (\ beta) \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi }}) \\ x_ {i = 1 \ dots N} \ sim {\ mathcal {N}} (\ mu _ {z_ {i}}, \ sigma _ {z_ {i}} ^ {2}) \ end {array}}}{\ begin {array} {lcl} K, N = {\ text {как указано выше}} \\\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}} = {\ text {как указано выше}} \\ z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N} = {\ text {как указано выше}} \\\ theta _ {i = 1 \ dots K} = \ {\ mu _ {i = 1 \ dots K}, \ sigma _ {i = 1 \ dots K} ^ {2} \} \\\ mu _ {i = 1 \ dots K} = {\ text {среднее значение компонента}} i \\\ sigma _ {i = 1 \ dots K} ^ {2} = {\ text {дисперсия компонента}} i \ \\ mu _ {0}, \ lambda, \ nu, \ sigma _ {0} ^ {2} = {\ text {общие гиперпараметры}} \\\ mu _ {i = 1 \ dots K} \ sim {\ mathcal {N}} (\ mu _ {0}, \ lambda \ sigma _ {i} ^ {2}) \\\ sigma _ {i = 1 \ dots K} ^ {2} \ sim \ operatorname {Inverse-Gamma} (\ nu, \ sigma _ {0} ^ {2}) \\ {\ boldsymbol {\ phi}} \ sim \ operatorname {Symmetric-Dirichlet} _ {K} (\ бета) \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ bold symbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ mathcal { N}} (\ mu _ {z_ {i}}, \ sigma _ {z_ {i}} ^ {2}) \ end {array}}
Файл: процесс оценки параметров бесконечной смеси Гаусса model.webm Воспроизвести мультимедиа Анимация процесса кластеризации для одномерных данных с использованием модели байесовской гауссовской смеси, в которой нормальные распределения выводятся из процесса Дирихле. Гистограммы кластеров показаны разными цветами. Во время процесса набора и растут новые кластеры на данных. В легенде показаны цвета кластера и количество точек данных, назначенных каждому кластеру.

Модель многомерной гауссовской смеси

Модель многомерной гауссовской смеси обычно расширяется для соответствия вектору неизвестных параметров (выделенных жирным шрифтом), или многомерные нормальные распределения. В многомерном распределении (то есть при моделировании изображения x {\ displaystyle {\ boldsymbol {x}}}{\ boldsymbol {x}} с N случайными величинами) можно смоделировать векторные параметры (например, несколько наблюдений за сигнала или фрагментов в изображении)) с использованием априорного распределения гауссовой модели смеси на векторе оценок, заданных как

p (θ) = ∑ i = 1 K ϕ i N (μ i, Σ i) {\ displaystyle p ({\ boldsymbol {\ theta}}) = \ sum _ {i = 1} ^ {K} \ phi _ {i} {\ mathcal {N}} ({\ boldsymbol {\ mu _ {i}, \ Sigma _ {i}}})}p ({\ boldsymbol {\ theta}}) = \ sum _ { i = 1} ^ {K} \ phi _ {i} {\ mathcal {N}} ({\ boldsymbol {\ mu _ {i}, \ Sigma _ {i}}})

где компонент представлен нормальным распределением с весами ϕ i {\ displaystyle \ phi _ {i}}\ phi _ {i } , означает μ i {\ displaystyle {\ boldsymbol {\ mu _ { i}}}}{\ boldsymbol {\ mu _ {i}}} и ковариационные матрицы Σ i {\ displaystyle {\ boldsymbol {\ Sigma _ {i}}}}{\ boldsymbol {\ Sigma _ {i}}} . Чтобы включить это априорное значение в байесовскую оценку, априорное значение умножается на известное распределение p (x | θ) {\ displaystyle p ({\ boldsymbol {x | \ theta}})}p ({\ boldsymbol {x | \ theta}}) из данных x {\ displaystyle {\ boldsymbol {x}}}{\ boldsymbol {x}} , обусловленные обязательства θ {\ displaystyle {\ boldsymbol {\ theta}}}{\ boldsymbol {\ theta}} , чтобы быть оцененным. В этой формулировке апостериорное распределение p (θ | x) {\ displaystyle p ({\ boldsymbol {\ theta | x}})}p ({\ boldsymbol {\ theta | x}}) также является гауссовой смесью модель формы

п (θ | Икс) знак равно ∑ я знак равно 1 К ϕ я ~ N (μ я ~, Σ я ~) {\ Displaystyle p ({\ boldsymbol {\ theta | x}}) = \ сумма _ {я = 1} ^ {K} {\ tilde {\ phi _ {i}}} {\ mathcal {N}} ({\ boldsymbol {{\ tilde {\ mu _ {i}}}, {\ тильда {\ Sigma _ {i}}}})}p ({\ boldsymbol {\ theta | x}}) = \ sum _ {i = 1} ^ {K} {\ tilde {\ phi _ {i} }} {\ mathcal {N}} ({\ boldsymbol {{\ tilde {\ mu _ {i}}}, {\ tilde {\ Sigma _ {i}}}}})

с новыми предусмотренными ϕ i ~, μ i ~ {\ displaystyle {\ tilde {\ phi _ {i}}}, {\ boldsymbol {\ tilde {\ mu _ {i}}}}}{\ tilde {\ phi _ {i}}}, {\ b oldsymbol {\ tilde {\ mu _ {i}}}} и Σ i ~ {\ displaystyle {\ boldsymbol {\ tilde {\ Sigma _ {i}}}}}{\ boldsymbol {\ tilde {\ Sigma _ {i}}}} , которые обновляются с Использование алгоритма EM. Хотя известно обновление параметров на основе ЭМ, известно. Обратите внимание, что эта формулировка дает решение в замкнутой форме для полного апостериорного распределения. Оценки случайной величины θ {\ displaystyle {\ boldsymbol {\ theta}}}{\ boldsymbol {\ theta}} могут быть получены с одной из нескольких оценок, таких как среднее или максимальное значение апостериорного распределения.

Такие распределения полезны, например, для допущения патч-форм изображений и кластеров. В случае представления изображения каждый гауссиан может быть наклонен, расширен и деформирован в соответствии с ковариационными матрицами Σ i {\ displaystyle {\ boldsymbol {\ Sigma _ {i}}}}{\ boldsymbol {\ Sigma _ {i}}} . Одно распределение Гаусса из набора соответствует каждому фрагменту (обычно размером 8x8 пикселей) на изображении. Примечательно, что любое распределение точек вокруг кластера (см. k-means ) может быть точно более задано достаточным количеством компонентов гауссовых компонентов, но точно более чем требуется K = 20 компонентов для точного моделирования данного распределения изображения или кластера данных.

Модель категориальной смеси

Небайесовская модель категориальной смеси с использованием обозначения на пластине. Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Закрашенные фигуры известные значения. Индикация [K] означает вектор размера K; то же самое для [V].

Типичная модель небайесовской смеси с категориальными наблюдениями выглядит так:

  • K, N: {\ displaystyle K, N:}K, N: как указано выше
  • ϕ i = 1 … K, ϕ: {\ displaystyle \ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}}:}\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}}: как указано выше
  • zi = 1… N, xi = 1… N: {\ displaystyle z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N}:}z_ { i = 1 \ dots N}, x_ {i = 1 \ dots N}: , как указано выше
  • V: {\ displaystyle V:}V: измерение категориальных наблюдений, например, размер словарного запаса
  • θ i = 1… K, j = 1… V: {\ displaystyle \ theta _ {i = 1 \ dots K, j = 1 \ dots V} :}\ theta _ {i = 1 \ dots K, j = 1 \ dots V}: вероятность для компонента i {\ displaystyle i}i наблюдения за элементом j {\ displaystyle j}j
  • θ i = 1… K: {\ displaystyle {\ boldsymbol {\ theta}} _ {i = 1 \ dots K}:}{\ boldsymbol {\ theta}} _ {i = 1 \ dots K} : вектор размерности V, {\ displaystyle V,}V, состоит из θ i, 1… V; {\ displaystyle \ theta _ {i, 1 \ dots V};}\ theta _ {i, 1 \ dots V}; должно суммироваться до 1

Случайные величины:

zi = 1… N ∼ Категориальная ⁡ (ϕ) xi = 1… N ∼ Категориальный (θ zi) {\ displaystyle {\ begin {array} {lcl} z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ text {Категориальный}} ({\ boldsymbol {\ theta}} _ {z_ {i}}) \ end {array}}}{\ begin {array} {lcl} z_ {i = 1 \ dots N} \ sim \ Operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ text {Категориальный}} ({\ boldsymbol {\ theta}} _ {z_ {i}}) \ end {array}}

.

Байесовская категориальная смесь Модель с обозначением на табличке . Меньшие квадраты обозначают фиксированные параметры; большие кружки обозначают случайные величины. Закрашенные фигуры известные значения. Индикация [K] означает вектор размера K; то же самое для [V].

Типичная модель байесовской смеси с категориальными наблюдениями выглядит так:

  • K, N: {\ displaystyle K, N:}K, N: как указано выше
  • ϕ i = 1 … K, ϕ: {\ displaystyle \ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}}:}\ phi _ {i = 1 \ dots K}, {\ boldsymbol {\ phi}}: как указано выше
  • zi = 1… N, xi = 1… N: {\ displaystyle z_ {i = 1 \ dots N}, x_ {i = 1 \ dots N}:}z_ { i = 1 \ dots N}, x_ {i = 1 \ dots N}: , как указано выше
  • V: {\ displaystyle V:}V: измерение категориальных наблюдений, например, размер словаря слов
  • θ i = 1… K, j = 1… V: {\ displaystyle \ theta _ {i = 1 \ dots K, j = 1 \ dots V} :}\ theta _ {i = 1 \ dots K, j = 1 \ dots V}: вероятность для компонента i {\ displaystyle i}i наблюдения за элементом j {\ displaystyle j}j
  • θ i = 1… K: {\ displaystyle {\ boldsymbol {\ theta}} _ {i = 1 \ dots K}:}{\ boldsymbol {\ theta}} _ {i = 1 \ dots K} : вектор размерности V, {\ displaystyle V,}V, состоит из θ i, 1… V; {\ displaystyle \ theta _ {i, 1 \ dots V};}\ theta _ {i, 1 \ dots V}; должно суммироваться до 1
  • α: {\ displaystyle \ alpha:}\ alpha : общий гиперпараметр концентрации θ {\ displaystyle {\ boldsymbol {\ theta}}}{\ boldsymbol {\ theta}} для каждого компонента
  • β: {\ displaystyle \ beta:}\ b eta: гиперпараметр концентрации ϕ {\ displaystyle { \ boldsymbol {\ phi}}}{\ boldsymbol {\ phi}}

Случайные величины:

ϕ ∼ S ymmetric - D irichlet K ⁡ (β) θ i = 1… K ∼ Symmetric-Dirichlet V (α) zi = 1… N ∼ категориальный ⁡ (ϕ) xi = 1… N ∼ категориальный (θ zi) {\ displaystyle {\ begin {array} {lcl} {\ boldsymbol {\ phi}} \ sim \ operatorname {Symmetric-Dirichlet} _ {K} (\ beta) \\ {\ boldsymbol {\ theta}} _ {i = 1 \ dots K} \ sim {\ text{Симметричный-Дирихле}} _ {V} (\ alpha) \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ({\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ text {Категориальный}} ({\ boldsymbol {\ theta}} _ {z_ {i}}) \ end {array}}}{\ begin {array} {lcl} {\ boldsymbol {\ phi}} \ sim \ operatorname {Symmetric-Dirichlet} _ {K} (\ beta) \ \ {\ boldsymbol {\ theta}} _ {i = 1 \ dots K} \ sim {\ text {Symmetric-Dirichlet}} _ {V} (\ alpha) \\ z_ {i = 1 \ dots N} \ sim \ operatorname {Категориальный} ( {\ boldsymbol {\ phi}}) \\ x_ {i = 1 \ dots N} \ sim {\ text {Категориальный}} ({\ boldsymbol {\ theta}} _ {z_ {i} }) \ end {массив}}

.

Примеры

Финансовая модел ь

Построено нормальное распределение используя разные средства и отклонения

Финансовая отдача в нормальных ситуациях и во время кризиса часто бывает разной. Смешанная модель для возвращаемых данных кажется разумной. Иногда используется модель скачкообразной диффузии или смесь двух нормальных распределений. См. Финансовая экономика # Проблемы и критика для получения дополнительной информации.

Цены на дома

Предположим, что мы наблюдаем цены на N разных домов. Разные типы дома в конкретных районах (например, дома с тремя спальнями в умеренно престижном районе) будет иметь тенденцию близко группироваться вокруг среднего значения. Одна из моделей таких цен в предположении, что цены точно представлены смешанной моделью с различными компонентами, каждый из которых распределен как нормальное распределение с неизвестным средним средним значением и дисперсией, причем каждый компонент определяет конкретную комбинацию. типа дома / микрорайона. Подгонка этой модели к наблюдаемым ценам, например, с использованием алгоритма максимизации ожидания, будет тенденцию сгруппировать в соответствии с типом дома / районом и выявить разброс цен в каждом типе / районе. (Обратите внимание, что для таких значений, как цены или доходы, которые имеют тенденцию к экспоненциальному росту, логнормальное распределение может быть лучшей моделью, чем нормальное распределение.)

Темы в документе

Предположим, что документ состоит из N разных слов из общего словаря размера V, где каждое слово соответствует одному из K виновного тем. Распределение таких слов можно смоделировать как смесь K различных V-мерных категориальных распределений. Подобную модель обычно называют тематической моделью. Обратите внимание, что максимизация ожидания, примененная к такой модели, обычно не дает реалистичных результатов из-за (среди прочего) чрезмерного количества параметров. Для получения хороших результатов обычно необходимы некоторые дополнительные предположения. Обычно к модели добавляются два вида дополнительных компонентов:

  1. A предварительное распределение помещается поверх параметров описывающих распределений, с использованием распределения Дирихле с параметрами концентрации который установлен значительно ниже 1, чтобы стимулировать разреженные распределения (где только небольшое количество слов имеет ненулевые вероятности).
  2. На тематические идентичности слов накладывается какое-то дополнительное ограничение, чтобы воспользоваться преимуществами естественной кластеризации.
  • Например, цепь Маркова может быть помещена на идентичности темы (т. Е. Скрытые переменные, определяющие компоненты смеси каждого наблюдения), в соответствии с тем фактом, что соседние слова кей похожей тематике. (Это приводит к скрытой марковской модели, в частности, в которой предварительное определение помещается поверх переходов состояний, которые благоприятствуют переходам, которые остаются в том же состоянии.)
  • Другой возможна модель скрытого распределения Дирихле, которая разделяет слова на D разных документов и предполагает, что в каждом документе с любым встречается только небольшое количество тем.

Распознавание рукописного ввода

Следующий пример основан на примере из Кристофера М. Бишопа, Распознавание образов и машинное обучение.

Представьте, что нам дано черно-белое изображение размером N × N, это известно, что это сканирование рукописной цифры от 0 до 9, но мы не знаем, какая цифра написана. Мы можем создать смешанную модель из K = 10 {\ displaystyle K = 10}K = 10 различных компонентов, где каждый компонент представляет собой вектор размером N 2 {\ displaystyle N ^ {2}}N ^ {2} из распределений Бернулли (по одному на пиксель). Такую модель можно обучить с помощью алгоритма максимизации ожидания на немаркированном наборе рукописных цифр, и она будет эффективно кластеризовать изображения в соответствии с записываемой цифрой. Затем ту же модель можно использовать для распознавания цифры другого изображения, просто сохраняя параметры постоянными, вычисляя вероятность изображения для каждой возможной цифры (тривиальное вычисление) и возвращая цифру, которая сгенерировала наибольшую вероятность.

Оценка точности снаряда (также известная как круговая вероятная ошибка, CEP)

Модели смешения применяются в задаче наведения нескольких снарядов на цель (например, при защите в воздухе, на суше или на море), где физические и статистические характеристики снарядов различаются в пределах нескольких снарядов. Примером могут быть случаи из нескольких типов файлов из нескольких мест, атаковать по одной цели. Комбинацию типов снарядов можно охарактеризовать как модель смеси Гаусса. Кроме того, хорошо известной мерой точности для группы снарядов является вероятная круговая ошибка (CEP), которая представляет собой число R, такое, что в среднем половина группы снарядов попадает в круг радиуса R относительно точки. Модель программы должным образом фиксирует различные типы снарядов.

Прямые и косвенные приложения

Приведенный выше финансовый пример представляет собой одно прямое приложение смешанной модели, ситуацию, в которой предполагаем наличие базового механизма, так что каждое наблюдение принадлежит одному из некоторого количества различных источников или категории. Однако этот основной механизм может быть или не наблюдаться. В этой смеси каждого из источников описывается функция плотности вероятности компонента, а его вес смеси представляет собой вероятность того, что наблюдение исходит от этого компонента.

В используемом применении модели смеси мы не предполагаем такой механизм. Модель смеси используется просто из-за ее математической гибкости. Например, смесь двух нормальных распределений с разными средними значениями может привести к плотности с двумя режимами , которая не моделируется стандартными стандартными распределениями. Другой пример - возможность смешанных распределений для моделирования более толстых хвостов, чем основные гауссовы, чтобы быть кандидатом для моделирования более экстремальных явлений. В сочетании с этим подходом был применен к оценке производных финансовых инструментов при наличии волатильности smile в контексте моделей волатильности. Это определить наше приложение.

Профилактическое обслуживание

Кластеризация на основе смешанной модели также преимущественно используется для состояния машины в профилактическом обслуживании. Графики плотности используются для анализа плотности объектов больших размеров. Если наблюдаются многомодельные плотности, то окончательный набор плотностей формируется конечным набором нормальных смесей. Многомерная модель гауссовой смеси используется для кластеризации признаков в k групп, где k представляет состояние машины. Состояние машины может быть нормальным, отключенным или неисправным. Каждый сформированный кластер можно диагностировать с помощью таких методов, как спектральный анализ. В последние годы это также широко использовалось в других областях, как раннее обнаружение неисправностей.

Сегментация нечеткого изображения

Пример гауссовой смеси в сегменте изображения с серой гистограммой

При обработке изображений и компьютерное зрение, на основе модели сегментации изображения часто присваивают одно пикселю только один эксклюзивный шаблон. При нечеткой или мягкой сегментации любой шаблон может иметь определенное «право собственности» на любой отдельный пиксель. Если шаблоны являются гауссовскими, нечеткая сегментация естественным образом приводит к гауссовым смесям. В сочетании с другими аналитическими или геометрическими инструментами (например, через диффузионные границы) такие пространственно регуляризованные модели смеси переходы к более реалистичным и вычислительным методам сегментации.

Регистрация набора точек

Вероятностная смесь таких моделей, как модели смеси Гаусса (GMM), используются для решения проблем регистрация набора точек в области обработки изображений и компьютерного зрения. Для парной регистрации набора точек один набор точек зрения как центроиды моделей смеси, а другой набор проблем как точки данных (наблюдения). Современные методы, например, когерентный дрейф точки (CPD) и t-распределение Стьюдента модели смесей (TMM). Результаты недавних исследований демонстрируют превосходство гибридных моделей смесей (например, сочетание t-распределения Стьюдента и распределения Ватсона / распределение Бингема для раздельного моделирования пространственных положений и ориентации осей) по сравнению с CPD и TMM с точки зрения присущих надежность, точность и различительная способность.

Идентифицируемость

Идентифицируемость означает наличие уникальной характеристики для любого из моделей рассматриваемого класса (семейства). Процедуры оценки могут быть плохо оценены, и асимптотическая теория может быть, если модель не идентифицируема.

Пример

Пусть J будет классом всех биномиальных распределений с n = 2. Тогда смесь двух членов J будет иметь

p 0 = π (1 - θ 1) 2 + (1 - π) (1 - θ 2) 2 {\ displaystyle p_ {0} = \ pi (1- \ theta _ {1}) ^ {2} + (1- \ pi) (1- \ theta _ {2}) ^ {2}}p_ {0} = \ pi (1- \ theta _ {1}) ^ {2} + (1- \ pi) (1- \ theta _ {2}) ^ {2 }
п 1 = 2 π θ 1 (1 - θ 1) + 2 (1 - π) θ 2 (1 - θ 2) {\ displaystyle p_ {1} = 2 \ pi \ theta _ {1} (1- \ theta _ {1}) + 2 (1- \ pi) \ theta _ {2} (1- \ theta _ {2})}p_ {1} = 2 \ pi \ theta _ {1} (1- \ theta _ {1}) + 2 (1- \ pi) \ theta _ {2} (1- \ theta _ {2})

и p 2 = 1 - p 0 - p 1. Очевидно, что при p 0 и p 1 невозможно однозначно определить указанную выше модель смеси, поскольку есть три параметра (π, θ 1, θ 2) подлежит определению.

Определение

Рассмотрим смесь параметрических распределений одного и того же класса. Пусть

J = {f (⋅; θ): θ ∈ Ω} {\ displaystyle J = \ {f (\ cdot; \ theta): \ theta \ in \ Omega \}}J = \ {f (\ cdot; \ theta): \ theta \ in \ Omega \}

будет классом все компонентные дистрибутивы. Тогда выпуклая оболочка KJ определяет класс всей конечной смеси распределений в J:

K = {p (⋅): p (⋅) = ∑ i = 1 naifi (⋅; θ я), ai>0, ∑ я знак равно 1 nai = 1, fi (⋅; θ я) ∈ J ∀ я, n} {\ displaystyle K = \ left \ {p (\ cdot): p (\ cdot) = \ sum _ {i = 1} ^ {n} a_ {i} f_ {i} (\ cdot; \ theta _ {i}), a_ {i}>0, \ sum _ {i = 1} ^ {n} a_ {i} = 1, f_ {i} (\ cdot; \ theta _ {i}) \ in J \ \ forall i, n \ right \}}K=\left\{p(\cdot):p(\cdot)=\sum _{i=1}^{n}a_{i}f_{i}(\cdot ;\theta _{i}),a_{i}>0, \ sum _ {i = 1} ^ { n} a_ {i} = 1, f_ {i} (\ cdot; \ theta _ {i}) \ in J \ \ forall i, n \ right \}

Считается, что K можно идентифицировать, если все его элементы уникальны, т.е. есть, учитывая два члена p и p ′ в K, которые представляют собой смесью k распределений и k ′ распределений соответственно в J, мы имеем p = p ′ тогда и только тогда, когда, во-первых, k = k ′, а во-втором, мы можем переупорядочить суммиро вания такие, что a i = a i ′ и ƒ i = ƒ i ′ для всех i.

Параметр оценки и идентификация системы

Параметрические модели часто используются, когда мы разделяем Y и используем выбор из X, но мы хотели бы определить i и θ i значений. Такие ситуации могут возникнуть в исследованиях, в которых мы выбираем группу, состоящую из отдельных субпопуляций.

Принято думать о моделировании смеси вероятностей как проблема с отсутствующими данными. Один из способов предположить, что рассматриваемые точки данных имеют «членство» в одном из распределений, которые мы используем для моделирования данных. Когда мы начинаем, это членство неизвестно или отсутствует. В том числе представлены соответствующие параметры функций, которые мы выбираем, с подключением к точкам данных, представленным как членство в отдельных распределительных моделях.

Было предложено множество методов решения проблем, многие из которых установлены методы определения размера правдоподобия, таких как максимизация ожидания (EM) или максимальная апостериорная оценка (MAP). Как правило, эти методы рассматривают отдельно вопросы идентификации системы и оценки параметров; методы определения количества и функциональной формы компонентов в смеси отличаются от методов оценки соответствующих значений параметров. Некоторыми заметными отклонениями являются графические методы, описанные в Tarter and Lock, и недавние методы минимальной длины сообщения (MML), такие как Figueiredo и Jain, и в некоторой степени процедуры анализа шаблонов совпадения моментов, предложенные McWilliam и Loh ( 2009).

Максимизация ожидания (EM)

Максимизация ожидания (EM), по-видимому, является наиболее популярным методом, используемым для определения параметров смеси с заранее заданным числом компонентов. Это особый способ реализации оценки максимального правдоподобия для этой проблемы. EM особенно привлекательна для конечных нормальных смесей, где возможны выражения в замкнутой форме, например, в следующем итерационном алгоритме Демпстера и др. (1977)

ws (j + 1) = 1 N ∑ t = 1 N hs (j) (t) {\ displaystyle w_ {s} ^ {(j + 1)} = {\ frac {1} { N}} \ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t)}w_ { s} ^ {(j + 1)} = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t)
μ s (j + 1) = ∑ t = 1 N hs (j) ( t) Икс (T) ∑ T знак равно 1 N hs (J) (T) {\ Displaystyle \ mu _ {s} ^ {(j + 1)} = {\ frac {\ sum _ {t = 1} ^ { N} h_ {s} ^ {(j)} (t) x ^ {(t)}} {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t)} }}\ mu _ {s} ^ {(j + 1)} = {\ frac {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t) x ^ {(t)}} {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t)}}
Σ s (j + 1) = ∑ t = 1 N hs (j) (t) [x (t) - μ s (j + 1)] [x (t) - μ s (j + 1)] ⊤ ∑ T = 1 N hs (j) (t) {\ Displaystyle \ Sigma _ {s} ^ {(j + 1)} = {\ frac {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t) [x ^ {(t)} - ​​\ mu _ {s} ^ {(j + 1)}] [x ^ {(t)} - \ mu _ {s} ^ {(j + 1)}] ^ {\ top}} {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t)}}}\ Sigma _ {s} ^ {(j + 1)} = {\ frac {\ sum _ {t = 1} ^ {N} h_ {s} ^ {(j)} (t) [x ^ {(t)} - ​​\ mu _ {s} ^ {(j + 1)}] [x ^ {(t)} - ​​\ mu _ {s} ^ {(j + 1)}] ^ {\ top}} {\ sum _ {t = 1 } ^ {N} h_ {s} ^ {(j)} (t)}}

с апостериорными вероятностями

hs (j) (t) = ws (j) ps (x (t); μ s (j), Σ s (j)) ∑ i = 1 nwi (j) pi ( x (t); μ i (j), Σ i (j)). {\ Displaystyle h_ {s} ^ {(j)} (t) = {\ frac {w_ {s} ^ {(j)} p_ {s} (x ^ {(t)}; \ mu _ {s} ^ {(j)}, \ Sigma _ {s} ^ {(j)})} {\ sum _ {i = 1} ^ {n} w_ {i} ^ {(j)} p_ {i} (x ^ {(t)}; \ mu _ {i} ^ {(j)}, \ Sigma _ {i} ^ {(j)})}}.}h_ {s} ^ {(j)} (t) = {\ frac {w_ {s} ^ {(j)} p_ { s} (x ^ {(t)}; \ mu _ {s} ^ {(j)}, \ Sigma _ {s} ^ {(j)})} {\ sum _ {i = 1} ^ {n } w_ {i} ^ {(j)} p_ {i} (x ^ {(t)}; \ mu _ {i} ^ {(j)}, \ Sigma _ {i} ^ {(j)}) }}.

Таким образом, на основании настоящих параметров параметров, условная вероятность для данного наблюдения x, генерируемого из состояний s, определяется для каждого t = 1,…, N; N - размер выборки. Затем параметры обновляются таким образом, чтобы новые параметры веса соответствовали средней условной вероятности, а среднее значение и ковариация каждого компонента были средневзвешенным значением среднего и ковариации для каждого компонента для всей выборки.

Демпстер также показала, что каждая последняя итерация ЭМ не будет уменьшать вероятность - свойство, не уменьшаемые другими методами максимизации на основе градиента. Более того, EM естественным образом включает в себя ограничение на вектор вероятности, и для достаточно больших размеров выбор повторяется положительная определенность ковариации. Это преимущество, поскольку методы с явными ограничениями требуют дополнительных вычислительных затрат для проверки и поддержания соответствующих значений. Теоретически алгоритм алгоритма первого порядка и поэтому сходится к решению с фиксированной точкой. Реднер и Уокер (1984) аргументируют это утверждение в пользу суперлинейных методов Ньютона и квазиньютона второго порядка и сообщают о медленной сходимости в ЭМ на основе своих эмпирических тестов. Они действительно признают, что сходимость вероятностей была быстрой, даже если сходимости в значениях параметров не было. Относительные преимущества ЭМ и других алгоритмов по с конвергенцией обсуждаются в другой литературе.

Другие распространенные возражения против использования ЭМ заключаются в том, что он имеет склонность к ложному определению локальных значений, а также показывает чувствительности к начальным значениям. Можно решить эти проблемы. для первоначальных предположений), может быть предпочтительнее.

Фигейредо и Джейн отмечают, что сходимость к «бессмысленным» значениям, полученным на границе (где нарушение регулярных условий, например, Ghosh and Sen (1985)), часто присутствует, когда количество компонентов модели является оптимальным / правда один. На этой основе установлен единый подход к оценке и идентификации, в котором начальное состояние выбирается так, чтобы оно превышало ожидаемое оптимальное значение. Их процедура оптимизации построена на основе критерия минимальной поддержки сообщения (MML), который эффективно исключает компонент-кандидат, если его информацию. Таким образом, можно систематизировать сокращение n и рассматривать оценку и совместно.

Алгоритм максимума ожидания Сообщение для параметров распределения параметрической модели смесей (a i и θ i). Это итерационный алгоритм с двумя этапами: этапом ожидания и этапом максимизации. Практические примеры электромагнитного моделирования и моделирования демонстрационные материалы SOCR.

Шаг ожидания

С начальными предположениями для параметров нашей модели смесей, «частичное членство» каждой информации в каждом распределении вычисляется путем вычислений значений ожидания для различных точек данных. То есть для каждой точки данных x j и Y i значения принадлежности y i, j равно:

yi, j = aif Y (xj; θ i) f X (xj). {\ displaystyle y_ {i, j} = {\ frac {a_ {i} f_ {Y} (x_ {j}; \ theta _ {i})} {f_ {X} (x_ {j})}}. }y_ {i, j} = {\ frac {a_ {i} f_ {Y} (x_ {j}; \ theta _ {i})} {f_ {X} (x_ { j})}}.

Шаг максимизации

Имея ожидаемые значения для членов в группе, пересчитываются для распределения.

Коэффициенты смешивания a i представляют собой средними значениями принадлежности по точкам данных.

ai = 1 N ∑ j = 1 N yi, j {\ displaystyle a_ {i} = {\ frac {1} {N}} \ sum _ {j = 1} ^ {N} y_ {i, j }}a_ {i} = {\ frac {1} {N}} \ sum _ {j = 1} ^ { N} y_ { i, j}

Параметры модели компонента θ i также вычисляются путем максимизации математического ожидания с использованием данных точек x j, которые были взвешены с использованием параметров. Например, если θ является средним, μ

μ i = ∑ j y i, j x j ∑ j y i, j. {\ displaystyle \ mu _ {i} = {\ frac {\ sum _ {j} y_ {i, j} x_ {j}} {\ sum _ {j} y_ {i, j}}}.}\ mu _ {i} = {\ frac {\ sum _ {j} y_ {i, j} x_ {j}} {\ sum _ {j} y_ {i, j}}}.

С новыми оценками для a i и θ i этап ожидания повторяется для пересчета значений характеристик. Вся процедура повторяется до схождения параметров модели.

Марковская цепь Монте-Карло

В качестве альтернативы алгоритму EM, параметры модели могут быть выведены с использованием, как указано в теореме Байеса. Это все еще изучено как проблема неполных данных. Может быть, двухэтапная итерационная процедура, известная как выборка Гиббса.

Предыдущий пример смеси двух гауссовых распределений может действовать, как работает метод. Как и прежде, делаются предположительные предположения о параметрах модели смеси. Вместо вычислений частичного члена для каждого элемента распределения значения членства для каждой точки распределения данных берется из распределения Бернулли (то есть оно будет присвоено либо первому, либо второму гауссову). Параметр Бернулли θ определяется для каждой точки на основе одного из составляющих распределений. Чертежи из распределения ассоциации членства для каждой точки данных. Затем можно использовать дополнительные модули оценки, как на этапе M программы EM, для создания нового набора моделей модели, и повторить этап биномиального рисования.

Сопоставление моментов

Метод сопоставления моментов - один из старейших методов определения соединений, восходящий к основополагающей работе Карла Пирсона 1894 года. параметры определяют таким образом, чтобы составное распределение имело моментов, соответствующему заданному значению. Во многих случаях получение решений алгебраических или вычислительных проблем. Более того, численный анализ Дэя показал, что такие методы могут быть неэффективными по сравнению с ЭМ. Тем не менее, интерес к этому методу возобновился, например, Крейгмил и Титтерингтон (1998) и Ван.

McWilliam and Loh (2009) рассматривают характерику гиперкубовидной нормальной среды копулы в больших размерах систем, для которых ЭМ будет недопустимо с вычислительной точки зрения. Здесь процедура анализа паттернов используется для генерации многомерных хвостовых зависимостей, согласующихся с набором одномерных и (в некотором смысле) двумерных моментов. Затем эффективность этого метода оценивается с использованием журнала-доходности капитала со статистикой теста Колмогорова - Смирнова, предполагаемое хорошее описательное соответствие.

Спектральный метод

Некоторые проблемы в оценке моделей смеси могут быть решены с использованием спектральных методов. В частности, это становится полезным, если точки данных x i используются точками в многомерном коммерческом пространстве, скрытые распределения известны как логарифмически вогнутые (например, как Гауссово распределение или Экспоненциальное распределение ).

Спектральные методы смешанным моделям основаны на использовании разложения по сингулярным значениям матрицы, содержащие точки данных. Идея состоит в том, чтобы рассмотреть верхние количество особых векторов, где k - распределений, которые необходимо изучить. Проекция каждой точки данных на линейное подпространство , охватываемое этим данным, группирует точки, происходящие из одного и того же распределения, очень близко друг к другу, в то время как точки из разных распределений остаются далеко друг от друга.

Отличительной особенностью спектрального метода является то, что он позволяет нам доказать, что если удовлетворяют определенному условию разделения (например, не слишком близко), то эта смесь будет очень близка к истинный с большой вероятностью.

Графические методы

Тартер и Локывают графический подход к идентификации описательной смеси, в которой функция используется к эмпирической частотной диаграмме, чтобы уменьшить внутрикомпонентную дисперсию. Таким образом можно идентифицировать компоненты, имеющие разные средства. Хотя этот λ-метод не требует предварительного изучения количества или функциональной формы компонентов, его успех зависит от параметра ядра, который в некоторой степени неявно включает предположения о структуре компонентов.

Другие методы

Некоторые из них, вероятно, могут даже изучить смеси распределений с тяжелыми хвостами, в том числе с бесконечной дисперсией (см. ссылки к статьям ниже). В этой настройке методы на основе EM не будут работать, так как шаг будет отличаться из-за наличия выбросов.

Моделирование

Для моделирования выборки размера N, которая получена из смесей распределений F i, i = от 1 до n, с вероятностями p i (сумма = p i = 1):

  1. Сгенерировать N случайных чисел из категориальное распределение размер n и вероятность p i для i = 1 = до n. Они сообщают вам, из какого из F i будет происходить каждое из N значений. Обозначим m i количество случайных чисел, присвоенных категории i.
  2. Для каждого i сгенерируйте m i случайных чисел из F i распределение.

Расширения

В байесовской настройки дополнительные уровни могут быть добавлены к графической модели, определяющей модель смеси. Например, в общем скрытом распределении Дирихле тематической модели наблюдения представляют собой наборы слов, взятых из D различных документов, компоненты смеси K выделяют темы, которые используются в разных документах. Каждый документ имеет различный набор весов, которые определяют преобладающие в этом документе темы. Все наборы весов смеси имеют общие гиперпараметры.

Очень распространенным расширением является соединение скрытыми числами, определяющих идентичности компонентов смеси, в Маркива цепи вместо предположения, что они являются независимыми одинаково распределенными случайными величинами. Результирующая модель называется скрытой марковской моделью является одной из наиболее распространенных последовательных последовательных моделей. Были разработаны многочисленные расширения скрытых марковских моделей; см. получающуюся статью для дополнительной информации.

История

Распределение смесей и проблема разложения смеси, то есть их идентификация составляющих ее компонентов и параметров, цитировались в литературе еще в 1846 г. (Кетле в McLachlan, 2000), хотя часто делается ссылка на работу Карла Пирсона (1894) как первый автор, который явно обратился к проблеме декомпозиции при описании ненормальных атрибутов отношения лба к длине тела в популяциях самок берегового краба.. Мотивом для этой работы послужил зоолог Уолтер Фрэнк Рафаэль Велдон, который в 1893 году предположил (у Тартера и Локка), что асимметрия в гистограмме этих технологий может сигнализировать об эволюционной дивергенции. Подход Пирсона заключался в одномерной смеси двух нормалей к данным путем выбора смеси таким образом.

Хотя его работа была успешной в представлении двух различных субпопуляций и демонстрации гибкости смесей в качестве инструмента согласования моментов, формулировка требовала решения полинома 9-й степени (нонического), который в то время представлял значительная вычислительная проблема.

Последующие работы были сосредоточены на решении этих проблем, но только с созданием современного компьютера и популяризацией параметров параметров Основные правдоподобия (MLE) исследования стали действительно популярными. С того времени было проведено огромное количество исследований по предметам, охватывающим такие области, как исследования рыболовства, сельское хозяйство, ботаника, экономика, медицина, генетика, психология, палеонтология, электрофорез, финансы, геология и зоология.

См.

Смесь

Иерархические модели

Обнаружение Также выброс

Ссылки

Дополнительная литература

Книги по смешанным моделям

  • Everitt, BS; Хэнд, Д.Дж. (1981). Распределения конечной смеси. Чепмен и Холл. ISBN 978-0-412-22420-1.
  • Линдси Б.Г. (1995). Модели смесей: теория, геометрия и приложения. Серия региональных конференций NSF-CBMS по вероятности и статистике. 5 . Хейворд: Институт математической статистики.
  • Марин, Дж. М.; Mengersen, K. ; Роберт, К. (2011). «Байесовское моделирование и вывод на смесях распределений» (PDF). In Dey, D.; Рао, C.R. (ред.). Основные байесовские модели. Справочник по статистике: байесовское мышление - моделирование и вычисления. 25 . Эльзевир. ISBN 9780444537324.
  • Маклахлан, Г.Дж.; Пил, Д. (2000). Модели конечной смеси. Вайли. ISBN 978-0-471-00626-8.
  • Пресс, WH; Теукольский С.А.; Феттерлинг, штат Вашингтон; Фланнери, ВР (2007). «Раздел 16.1. Модели гауссовской смеси и кластеризация к-средних ». Числовые рецепты: искусство научных вычислений (3-е изд.). Нью-Йорк: Издательство Кембриджского университета. ISBN 978-0-521-88068-8.
  • Титтерингтон, Д.; Смит, А.; Маков У. (1985). Статистический анализ распределений конечной смеси. Вайли. ISBN 978-0-471-90763-3. CS1 maint: ref = harv (ссылка )

Применение моделей смеси Гаусса

  1. Рейнольдс, DA; Rose, RC (январь 1995 г.). «Надежная независимая от текста идентификация говорящего с использованием гауссовских моделей динамиков ». IEEE Transactions по обработке речи и звука. 3 (1): 72–83. doi : 10.1109 / 89.365379.
  2. Пермутер, Х.; Франкос, Дж..; Jermyn, IH (2003). Гауссовские модели смесей текстуры и цвета для поиска в базе данных изображений. IEEE Международная конференция по Акустика, речь и обработка сигналов, 2003. Proceedings (ICASSP '03). doi : 10.1109 / ICASSP.2003.1199538.
  3. Лемке, Вольфганг (2005) Моделирование и оценка временной структуры в рамках государственного пространства. Springer Verlag. ISBN 978-3-540-28342-3.
  4. Бриго, Дамиано ; Меркурио, Фабио (2001). Смещенные и смешанные диффузии для аналитически поддающихся обработки моделей улыбки. Математические финансы - Конгресс бакалавриата 2000. Труды. Springer Verlag.
  5. Бриго, Дамиано; Меркурио, Фабио (июнь 2002 г.). «Логнормальная динамика смеси и калибровка волатильности рынка улыбается». Международный журнал теоретических и прикладных финансов. 5 (4): 427. CiteSeerX 10.1.1.210.4165. doi : 10.1142 / S0219024902001511.
  6. Сполл, J.C.; Марьяк, Дж. Л. (1992). «Возможная байесовская оценка квантилей для точности снаряда на основе не-i.i.d. Данных ». Журнал Американской статистической ассоциации. 87 (419): 676–681. doi : 10.1080 / 01621459.1992.10475269. JSTOR 2290205.
  7. Александр, Кэрол (декабрь 2004 г.). «Нормальная диффузия смесей с неопределенной летучестью: моделирование краткосрочных и долгосрочных эффектовки» (PDF). Журнал "Банковское дело и финансы". 28 (12): 2957–80. doi : 10.1016 / j.jbankfin.2003.10.017.
  8. Стилиану, Яннис; Пантазис, Яннис; Кальдереро, Фелипе; Ларрой, Педро; Северин, Франсуа; Шимке, Саша; Бонал, Роландо; Матта, Федерико; Валсамакис, Афанасиос (2005). Мультимодальная биометрическая проверка на основе GMM (PDF).
  9. Чен, Дж.; Адебоми, 0.E.; Олусайо, О.С.; Кулеша, В. (2010). Оценка плотности гипотезы вероятности гауссовой смеси для существующих целей. IEEE, 2010. doi : 10.1109 / IST.2010.5548541.

Внешние ссылки

  • Нильсен, Франк (23 марта 2012 г.). «K-MLE: быстрый алгоритм для изучения моделей статистической смеси». k-MLE: быстрый алгоритм для изучения модели статистической смеси. 2012 Международная конференция IEEE по акустике, обработке речи и сигналов (ICASSP). С. 869–872. arXiv : 1203.5181. Bibcode : 2012arXiv1203.5181N. DOI : 10.1109 / ICASSP.2012.6288022. ISBN 978-1-4673-0046-9. S2CID 935615.
  • Демонстрации SOCR ЭМ и моделирования смесей
  • Обновление моделирования смесей (и программа Snob для Минимум Длина сообщения (MML ) применительно к моделям конечной смеси) поддерживается DL Dowe.
  • PyMix - пакет Python Mixture, алгоритмы и структуры данных для широкого спектра приложений интеллектуального анализа данных на основе моделей смесей в Python
  • sklearn.mixture - пакет Python для изучения моделей смеси Gaussian (и выборка из их), ранее упакованный с SciPy, а теперь упакованный как SciKit
  • GMM.m код Matlab для реализации GMM
  • GPUmix реализация байесовской системы на C ++ Смешайте модели с использованием EM и MCMC со 100-кратным ускорением скорости с GPGPU.
  • [3] Код Matlab для реализации GMM с использованием алгоритма EM
  • [4] jMEF: библиотека Java с открытым исходным кодом для обучения и обработки смеси экспоненциальных семейств (с использованием двойственности с расходимостями Брегмана). Включает оболочку Matlab.
  • Очень быстрая и чистая реализация C алгоритма Максимизация ожиданий (EM) для оценки гауссовских моделей смесей (GMM).
  • mclust - это пакет R для моделирования смесей.
  • dpgmm Реализация модели гауссовой смеси процесса Дирихле на чистом Python (вариационная).
  • Модели смеси Гаусса Сообщение в блоге о моделях смеси Гаусса, обученных с помощью максимизации ожиданий, с реализацией на Python.
Последняя правка сделана 2021-05-30 03:52:12
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте