Усеченное нормальное распределение

редактировать
Функция плотности вероятности TnormPDF.png Функция плотности вероятности для усеченного нормального распределения для различных наборов параметров. Во всех случаях a = −10 и b = 10. Для черного: μ = −8, σ = 2; синий: μ = 0, σ = 2; красный: μ = 9, σ = 10; оранжевый: μ = 0, σ = 10.
Кумулятивная функция распределения TnormCDF.svg Кумулятивная функция распределения для усеченного нормального распределения для различных наборов параметров. Во всех случаях a = −10 и b = 10. Для черного: μ = −8, σ = 2; синий: μ = 0, σ = 2; красный: μ = 9, σ = 10; оранжевый: μ = 0, σ = 10.
Обозначениеξ = x - μ σ, α = a - μ σ, β = b - μ σ {\ displaystyle \ xi = {\ frac {x- \ mu} {\ sigma}}, \ \ alpha = {\ frac {a- \ mu} {\ sigma}}, \ \ beta = {\ frac {b- \ mu} {\ sigma}}}\ xi = {\ frac {x- \ mu } {\ sigma}}, \ \ alpha = {\ frac {a- \ mu} {\ sigma}}, \ \ beta = {\ frac {b- \ mu} {\ sigma}} . Z Знак равно Φ (β) - Φ (α) {\ displaystyle Z = \ Phi (\ beta) - \ Phi (\ alpha)}Z = \ Phi (\ beta) - \ Phi (\ alpha)
Параметрыμ ∈ R. σ ≥ 0 (но см. определение). a ∈ R - минимальное значение x. b ∈ R - максимальное значение x (b>a)
Поддержка x ∈ [a, b]
PDF f (x; μ, σ, a, b) = ϕ (ξ) σ Z {\ displaystyle f (x; \ mu, \ sigma, a, b) = { \ frac {\ phi (\ xi)} {\ sigma Z}} \,}f (x; \ mu, \ sigma, a, b) = {\ frac {\ phi (\ xi)} {\ sigma Z}} \,
CDF F (x; μ, σ, a, b) = Φ (ξ) - Φ (α) Z { \ Displaystyle F (x; \ mu, \ sigma, a, b) = {\ frac {\ Phi (\ xi) - \ Phi (\ alpha)} {Z}}}F (x; \ mu, \ sigma, a, b) = {\ гидроразрыва {\ Phi (\ xi) - \ Phi (\ alpha)} {Z}}
Среднее μ + ϕ (α) - ϕ (β) Z σ {\ displaystyle \ mu + {\ frac {\ phi (\ alpha) - \ phi (\ beta)} {Z}} \ sigma}\ mu + {\ frac {\ phi (\ alpha) - \ phi (\ beta)} {Z}} \ sigma
медиана μ + Φ - 1 (Φ (α) + Φ (β) 2) σ {\ displaystyle \ mu + \ Phi ^ {- 1} \ left ({\ frac {\ Phi (\ alpha) + \ Phi (\ beta)} {2}} \ right) \ sigma}{\ Displaystyle \ му + \ Phi ^ {- 1} \ влево ({\ гидроразрыва {\ Phi (\ alpha) + \ Phi (\ beta)} {2}} \ right) \ sigm a}
Mode {a, если μ < a μ, i f a ≤ μ ≤ b b, i f μ>b {\ display style \ left \ {{\ begin {array} {ll} a, \ mathrm {if} \ \ mu b \ end {array}} \ right.}\left\{{\begin{array}{ll}a,\mathrm {if} \ \mu <a\\\mu,\mathrm {if} \ a\leq \mu \leq b\\b,\mathrm {if} \ \mu>b \ end {array }} \ right.
Вариант σ 2 [1 + α ϕ (α) - β ϕ (β) Z - (ϕ (α) - ϕ (β) Z) 2] {\ displaystyle \ sigma ^ {2} \ left [1+ { \ frac {\ alpha \ phi (\ alpha) - \ beta \ phi (\ beta)} {Z}} - \ left ({\ frac {\ phi (\ alpha) - \ phi (\ beta)} {Z}) } \ right) ^ {2} \ right]}\ sigma ^ {2} \ left [1 + {\ frac {\ alpha \ phi (\ alpha) - \ beta \ phi (\ beta)} {Z}} - \ left ({\ frac {\ phi (\ alpha) - \ phi (\ beta)} {Z}} \ right) ^ {2} \ right]
Энтропия ln ⁡ (2 π e σ Z) + α ϕ (α) - β ϕ (β) 2 Z {\ displaystyle \ ln ({\ sqrt {2 \ pi e}} \ sigma Z) + {\ frac {\ alpha \ phi (\ alpha) - \ beta \ phi (\ beta)} {2Z}}}\ ln ({\ sqrt {2 \ pi e}} \ sigma Z) + {\ frac {\ alpha \ phi (\ alpha) - \ beta \ phi (\ beta)} {2Z}}
MGF e μ t + σ 2 T 2/2 [Φ (β - σ t) - Φ (α - σ t) Φ (β) - Φ (α)] {\ displaystyle e ^ {\ mu t + \ sigma ^ {2} t ^ {2} / 2} \ left [{\ frac {\ Phi (\ beta - \ sigma t) - \ Phi (\ alpha - \ sigma t)} {\ Phi (\ beta) - \ Phi (\ alpha)} } \ right]}{\ displaystyle e ^ {\ mu t + \ sigma ^ {2} t ^ {2} / 2} \ left [{\ frac {\ Phi (\ beta - \ sigma t) - \ Phi (\ alpha - \ sigma t)} {\ Phi (\ beta) - \ Phi (\ alpha)}} \ right]}

В вероятности и статистике усеченное нормальное распределение является распределением вероятности получен из случайной величины нормально распределенной случайной величины путем ограничения случайной величины снизу или сверху (или обоих). Усеченное нормальное распределение имеет широкое применение в статистике и эконометрике. Например, он используется для моделирования вероятностей двоичных исходов в пробит-модели и для моделирования цензурированных данных в Тобит-модели.

Содержание
  • 1 Определения
  • 2 Свойства
    • 2.1 Моменты
      • 2.1.1 Двустороннее усечение
      • 2.1.2 Одностороннее усечение (нижнего хвоста)
      • 2.1.3 Одностороннее усечение (верхнего хвоста)
  • 3 Вычислительные методы
    • 3.1 Генерация значений из усеченного нормального распределения
  • 4 См. Также
  • 5 Примечания
  • 6 Ссылки
Определения

Предположим, X {\ displaystyle X}X имеет нормальное распределение со средним значением μ {\ displaystyle \ mu}\ mu и дисперсией σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} и находится в пределах интервал (a, b), где - ∞ ≤ a < b ≤ ∞ {\displaystyle (a,b),{\text{with}}\;-\infty \leq a{\ displaystyle (a, b), {\ text {with}} \; - \ infty \ leq a <b \ leq \ infty} . Тогда X {\ displaystyle X}X с условием от a < X < b {\displaystyle aa <X <b имеет усеченное нормальное распределение.

Его функция плотности вероятности, f {\ displaystyle f}е , для a ≤ x ≤ b {\ displaystyle a \ leq x \ leq b}a \ leq x \ leq b , определяется как

f (x; μ, σ, a, b) = 1 σ ϕ (x - μ σ) Φ (b - μ σ) - Φ (a - μ σ) {\ displaystyle f (x; \ mu, \ sigma, a, b) = {\ frac {1} {\ sigma}} \, {\ frac {\ phi ({\ frac {x- \ mu}) {\ sigma}})} {\ Phi ({\ frac {b- \ mu} {\ sigma}}) - \ Phi ({\ frac {a- \ mu} {\ sigma}})}}}{\ displaystyle f (x; \ mu, \ sigma, a, b) = {\ frac {1} {\ sigma}} \, {\ frac {\ phi ({\ frac {x- \ mu} {\ sigma}})} {\ Phi ({\ frac { b- \ mu} {\ sigma}}) - \ Phi ({\ frac {a- \ mu} {\ sigma}})}}}

и на f = 0 {\ displaystyle f = 0}f = 0 в противном случае.

Здесь

ϕ (ξ) = 1 2 π exp ⁡ (- 1 2 ξ 2) {\ displaystyle \ phi (\ xi) = {\ frac {1} {\ sqrt {2 \ pi}}} \ exp \ left (- {\ frac {1} {2}} \ xi ^ {2} \ right)}{\ displaystyle \ phi (\ xi) = {\ frac {1} {\ sqrt {2 \ pi}}} \ exp \ left (- {\ frac { 1} {2}} \ xi ^ {2} \ right)}

- функция плотности вероятности стандартного нормального распределения и Φ (⋅) {\ displaystyle \ Phi (\ cdot)}\ Phi (\ cdot) - его кумулятивная функция распределения

Φ (x) = 1 2 (1 + erf ⁡ (x / 2)). {\ displaystyle \ Phi (x) = {\ frac {1} {2}} \ left (1+ \ operatorname {erf} (x / {\ sqrt {2}}) \ right).}{\ displaystyle \ Phi (x) = {\ frac {1} {2}} \ left (1+ \ operatorname {erf} (x / {\ sqrt {2}}) \ right).}

По определению, если b = ∞ {\ displaystyle b = \ infty}b = \ infty , то Φ (b - μ σ) = 1 {\ displaystyle \ Phi \ left ({\ tfrac {b- \ mu} {\ sigma}} \ right) = 1}{\ displaystyle \ Phi \ left ({\ tfrac {b- \ mu} {\ sigma}} \ right) = 1} , и аналогично, если a = - ∞ {\ displaystyle a = - \ infty}a = - \ infty , то Φ (a - μ σ) = 0 {\ displaystyle \ Phi \ left ({\ tfrac {a- \ mu} {\ sigma}} \ right) = 0}{\ displaystyle \ Phi \ left ({\ tfrac {a- \ mu} {\ sigma}} \ right) = 0} .

. Приведенные выше формулы показывают, что когда - ∞ < a < b < + ∞ {\displaystyle -\infty {\ displaystyle - \ infty <a <b <+ \ infty} параметр масштаба σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} усеченного нормального распределения может принимать отрицательные значения. Параметр σ {\ displaystyle \ sigma}\ sigma в данном случае является мнимым, но функция f {\ displaystyle f}е , тем не менее, действительна, положительна и нормализуема.. Параметр масштаба σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} канонического нормального распределения должен быть положительным, поскольку в противном случае распределение не было бы нормализуемым. С другой стороны, дважды усеченное нормальное распределение может в принципе иметь отрицательный масштабный параметр (который отличается от дисперсии, см. Сводные формулы), потому что в ограниченной области таких проблем интегрируемости не возникает. В этом случае распределение не может быть интерпретировано как каноническое нормальное условие для a < X < b {\displaystyle aa <X <b , конечно, но все же может быть интерпретировано как распределение максимальной энтропии с первым и вторым моментами в качестве ограничений, и имеет дополнительные своеобразная особенность: он представляет два локальных максимума вместо одного, расположенных в x = a {\ displaystyle x = a}x = a и x = b {\ displaystyle x = b}{\ displaystyle x = b} .

Усеченная нормаль - это максимальное распределение вероятностей энтропии для фиксированного среднего значения и дисперсии, при этом случайная переменная X должна находиться в интервале [a, b].

Моменты

Если случайная величина была усечена только снизу, некоторая вероятностная масса была смещена в сторону более высоких значений, давая стохастически доминирующее распределение первого порядка и, следовательно, увеличение среднего до значения, превышающего среднее μ {\ displaystyle \ mu}\ mu исходного нормального распределения. Аналогично, если случайная величина была усечена только сверху, усеченное распределение имеет среднее значение меньше μ. {\ displaystyle \ mu.}\ mu.

Независимо от того, ограничена ли случайная величина сверху, снизу или и там, и там, усечение представляет собой сокращение с сохранением среднего значения в сочетании с жестким сдвигом, изменяющим среднее значение, и, следовательно, дисперсия усеченного распределения меньше, чем дисперсия σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} исходного нормального распределения.

Двустороннее усечение

Пусть α = (a - μ) / σ {\ displaystyle \ alpha = (a- \ mu) / \ sigma}{\ displaystyle \ alpha = (a- \ mu) / \ sigma} и β = (b - μ) / σ {\ displaystyle \ beta = (b- \ mu) / \ sigma}{\ displaystyle \ beta = (b- \ mu) / \ sigma} . Тогда:

E ⁡ (X ∣ a < X < b) = μ + σ ϕ ( α) − ϕ ( β) Φ ( β) − Φ ( α) {\displaystyle \operatorname {E} (X\mid a{\ displaystyle \ operatorname {E} (X \ mid a <X <b) = \ mu + \ sigma {\ frac {\ phi (\ alpha) - \ phi (\ beta)} {\ Phi (\ beta) - \ Phi (\ alpha)}} \!}

и

Var ⁡ (X ∣ a < X < b) = σ 2 [ 1 + α ϕ ( α) − β ϕ ( β) Φ ( β) − Φ ( α) − ( ϕ ( α) − ϕ ( β) Φ ( β) − Φ ( α)) 2 ] {\displaystyle \operatorname {Var} (X\mid a{\ displaystyle \ operatorname {Var} (X \ mid a <X <b) = \ sigma ^ {2} \ left [1 + {\ frac {\ alpha \ phi (\ альфа) - \ beta \ phi (\ beta)} {\ Phi (\ beta) - \ Phi (\ alpha)}} - \ left ({\ frac {\ phi (\ alpha) - \ phi (\ beta)} {\ Phi (\ beta) - \ Phi (\ alpha)}} \ right) ^ {2} \ right] \!}

) Следует проявлять осторожность при численной оценке этих формул, которая может привести к катастрофическому отказу когда интервал [a, b] {\ displaystyle [a, b]}[a, b] не включает μ {\ displaystyle \ mu}\ mu . Есть лучшие способы их переписывания, позволяющие избежать этой проблемы.

Одностороннее усечение (нижнего хвоста)

В этом случае ϕ (β) = 0, Φ (β) = 1, { \ displaystyle \; \ phi (\ beta) = 0, \; \ Phi (\ beta) = 1,}{\ displaystyle \; \ phi (\ beta) = 0, \; \ Phi (\ beta) = 1,} , затем

E ⁡ (X ∣ X>a) = μ + σ ϕ ( α) / Z, {\ Displaystyle \ OperatorName {E} (X \ середина X>а) = \ му + \ сигма \ фи (\ альфа) / Z, \!}{\displaystyle \operatorname {E} (X\mid X>а) = \ му + \ sigma \ phi (\ alpha) / Z, \!}

и

Var ⁡ (X ∣ X>a) = σ 2 [1 + α ϕ (α) / Z - (ϕ (α) / Z) 2], {\ displaystyle \ operatorname {Var} (X \ mid X>a) = \ sigma ^ {2} [1+ \ alpha \ phi (\ al pha) / Z - (\ phi (\ alpha) / Z) ^ {2}],}{\displaystyle \operatorname {Var} (X\mid X>a) = \ sigma ^ {2} [1+ \ alpha \ phi (\ alpha) / Z - (\ phi (\ alpha) / Z) ^ {2}],}

где Z = 1 - Φ (α). {\ displaystyle Z = 1- \ Phi (\ alpha).}{\ displaystyle Z = 1- \ Phi (\ альфа).}

Одностороннее усечение (верхнего хвоста)

E ⁡ (X ∣ X < b) = μ − σ ϕ ( β) Φ ( β) {\displaystyle \operatorname {E} (X\mid X\ operatorname {E} (X \ mid X <b) = \ mu - \ sigma {\ frac {\ phi (\ beta)} {\ Phi (\ beta)}} \! ,

Var ⁡ (X ∣ X < b) = σ 2 [ 1 − β ϕ ( β) Φ ( β) − ( ϕ ( β) Φ ( β)) 2 ]. {\displaystyle \operatorname {Var} (X\mid X{\ displaystyle \ operatorname {Var} (X \ mid X <b) = \ sigma ^ { 2} \ left [1- \ beta {\ frac {\ phi (\ beta)} {\ Phi (\ beta)}} - \ left ({\ frac {\ phi (\ beta)} {\ Phi (\ beta))}} \ right) ^ {2} \ right]. \!}

Барр и Шерилл (1999) дают более простое выражение для дисперсии односторонних усечений. Их формула представлена ​​в терминах CDF хи-квадрат, который реализован в стандартных библиотеках программного обеспечения. Бебу и Мэтью (2009) предоставляют формулы для (обобщенных) доверительных интервалов около усеченные моменты.

Рекурсивная формула

Что касается неусеченного случая, существует рекурсивная формула для усеченных моментов.

Многовариантная

Вычислить моменты многомерной усеченной нормали сложнее.

Вычислительные методы

Генерация значений из усеченного нормального распределения

Случайная величина x, определяемая как x = Φ - 1 (Φ (α) + U ⋅ (Φ (β) - Φ (α))) σ + μ {\ displaystyle x = \ Phi ^ {- 1} (\ Phi (\ alpha) + U \ cdot (\ Phi (\ beta) - \ Phi (\ alpha))) \ sigma + \ mu}x = \ Phi ^ {- 1} (\ Phi (\ alpha) + U \ cdot (\ Phi (\ beta) - \ Phi (\ alpha))) \ sigma + \ mu с Φ {\ displaystyle \ Phi}\ Phi кумулятивным распределением n функция и Φ - 1 {\ displaystyle \ Phi ^ {- 1}}\ Phi ^ {- 1} обратная ей функция, U {\ displaystyle U}U равномерное случайное число на (0, 1) {\ displaystyle (0,1)}(0,1) , следует распределению, усеченному до диапазона (a, b) {\ displaystyle (a, b)}(a, b) . Это просто метод обратного преобразования для моделирования случайных величин. Хотя этот метод является одним из самых простых, он может либо дать сбой при выборке в хвосте нормального распределения, либо оказаться слишком медленным. Таким образом, на практике приходится искать альтернативные методы моделирования.

Один такой усеченный нормальный генератор (реализованный в Matlab и в R (язык программирования) как trandn.R ) основан на приеме идея отказа из-за Марсальи. Несмотря на несколько неоптимальную степень принятия Марсальи (1964) по сравнению с Робертом (1995), метод Марсальи, как правило, быстрее, потому что он не требует дорогостоящей численной оценки экспоненциальной функции.

Подробнее о моделировании вытяжки из усеченного нормального распределения см. Robert (1995), Lynch (2007), раздел 8.1.3 (страницы 200–206), Devroye (1986). В пакете MSM в R есть функция rtnorm, которая вычисляет отрисовку из усеченной нормали. В пакете truncnorm в R также есть функции для извлечения из усеченной нормали.

Шопен (2011) предложил (arXiv ) алгоритм, вдохновленный алгоритмом Зикгурата Марсальи и Цанга (1984, 2000), который обычно считается самым быстрым гауссовым сэмплером, а также очень близок к алгоритму Аренса (1995). Реализации можно найти в C, C ++, Matlab и Python.

Выборка из многомерного усеченного нормального распределения значительно сложнее. Точное или идеальное моделирование возможно только в случае усечения нормального распределения до области многогранника. В более общих случаях Дэмиен и Уокер (2001) вводят общую методологию выборки усеченных плотностей в рамках выборки Гиббса. Их алгоритм вводит одну скрытую переменную, и в рамках модели выборки Гиббса он более эффективен с точки зрения вычислений, чем алгоритм Роберта (1995).

См. Также
Примечания
Ссылки
  • Грин, Уильям Х. (2003). Эконометрический анализ (5-е изд.). Прентис Холл. ISBN 978-0-13-066189-0.
  • Норман Л. Джонсон и Сэмюэл Котц (1970). Непрерывные одномерные распределения-1, глава 13. John Wiley Sons.
  • Линч, Скотт (2007). Введение в прикладную байесовскую статистику и оценки для социологов. Нью-Йорк: Спрингер. ISBN 978-1-4419-2434-6.
  • Роберт, Кристиан П. (1995). «Моделирование усеченных нормальных переменных». Статистика и вычисления. 5 (2): 121–125. arXiv : 0907.4010. doi : 10.1007 / BF00143942. S2CID 15943491.
  • Barr, Donald R.; Шерилл, Э. Тодд (1999). «Среднее значение и дисперсия усеченных нормальных распределений». Американский статистик. 53 (4): 357–361. doi : 10.1080 / 00031305.1999.10474490.
  • Бебу, Ионут; Мэтью, Томас (2009). «Доверительные интервалы для ограниченных моментов и усеченных моментов в нормальной и логнормальной моделях». Статистика и вероятностные письма. 79 (3): 375–380. doi : 10.1016 / j.spl.2008.09.006.
  • Дэмиен, Пол; Уокер, Стивен Г. (2001). «Выборка усеченной нормальной, бета- и гамма-плотности». Журнал вычислительной и графической статистики. 10 (2): 206–215. doi : 10.1198 / 10618600152627906. S2CID 123156320.
  • Николас Шопен, «Быстрое моделирование усеченных гауссовских распределений». Статистика и вычисления 21 (2): 275-288, 2011, doi: 10.1007 / s11222-009-9168-1
  • Буркардт, Джон. «Усеченное нормальное распределение» (PDF). Веб-сайт отдела научных вычислений. Государственный университет Флориды. Проверено 15 февраля 2018 г.
Последняя правка сделана 2021-06-11 12:56:34
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте