Распределение Пуассона

редактировать
Дискретное распределение вероятностей
Распределение Пуассона
Функция массы вероятности Poisson pmf.svg По горизонтальной оси отложен индекс k, число случаев. λ - ожидаемая частота появления. По вертикальной оси отложена вероятность k событий при λ. Функция определяется только при целочисленных значениях k; соединительные линии растения только ориентиры для глаза.
Кумулятивная функция распределения Пуассон cdf.svg По горизонтальной оси отложен индекс k, количество вхождений. CDF является прерывистой в целых числах k и плоской везде, потому что переменная с распределением Пуассона принимает только целые значения.
ОбозначениеПуа ⁡ (λ) {\ displaystyle \ operatorname {Pois} (\ lambda)}{\ displaystyle \ operatorname {Pois} (\ lambda)}
Параметрыλ ∈ (0, ∞) {\ displaystyle \ lambda \ in (0, \ infty)}{\displaystyle \lambda \in (0,\infty)}(рейтинг)
Поддержка k ∈ N 0 {\ displaystyle k \ in \ mathbb {N} _ {0}}{\ displaystyle к \ in \ mathbb {N} _ {0}} (Натуральные числа начиная с 0)
PMF λ ke - λ k! {\ displaystyle {\ frac {\ lambda ^ {k} e ^ {- \ lambda}} {k!}}}{\displaystyle {\frac {\lambda ^{k}e^{-\lambda }}{k!}}}
CDF

Γ (⌊ k + 1 ⌋, λ) ⌊ k ⌋! {\ displaystyle {\ frac {\ Gamma (\ lfloor k + 1 \ rfloor, \ lambda)} {\ lfloor k \ rfloor!}}}{\frac {\Gamma (\lfloor k+1\rfloor,\lambda)}{\lfloor k\rfloor !}}, или e - λ ∑ i = 0 ⌊ k ⌋ λ ii! {\ displaystyle e ^ {- \ lambda} \ sum _ {i = 0} ^ {\ lfloor k \ rfloor} {\ frac {\ lambda ^ {i}} {i!}} \}e ^ {- \ lambda} \ sum _ {i = 0} ^ {\ lfloor k \ rfloor} {\ frac {\ lambda ^ {i}} {i!}} \ , или Q (⌊ К + 1 ⌋, λ) {\ Displaystyle Q (\ lfloor k + 1 \ rfloor, \ lambda)}Q(\lfloor k+1\rfloor,\lambda)

(для k ≥ 0 {\ displaystyle k \ geq 0 }k \ geq 0 , где Γ (x, y) {\ displaystyle \ Gamma (x, y)}\Gamma (x,y)- верхняя неполная гамма-функция, ⌊ k ⌋ {\ displaystyle \ lfloor k \ rfloor}\ lfloor k \ rfloor - это функция пола, а Q - регуляризованная гамма-функция )
Среднее λ {\ displaystyle \ lambda}\ lambda
Медиана ≈ ⌊ λ + 1/3 - 0,02 / λ ⌋ {\ displaystyle \ приблизительно \ lfloor \ lambda + 1 / 3-0.02 / \ lambda \ rfloor}\approx \lfloor \lambda +1/3-0.02/\lambda \rfloor
Mode ⌈ λ ⌉ - 1, ⌊ λ ⌋ {\ displaystyle \ lceil \ lambda \ rceil -1, \ lfloor \ lambda \ rfloor}\ lceil \ lambda \ rceil -1, \ lfloor \ lambda \ rfloor
дисперсия λ {\ displaystyle \ lambda}\ lambda
асимметрия λ - 1/2 {\ displaystyle \ lambda ^ {- 1/2}}\ lambda ^ {- 1/2}
Например, эксцесс λ - 1 {\ displaystyle \ lambda ^ {- 1}}\ lambda ^ {- 1}
Энтропия

λ [1 - журнал ⁡ (λ)] + е - λ ∑ К знак равно 0 ∞ λ К журнал ⁡ (к!) К! {\ Displaystyle \ лямбда [1- \ журнал (\ lambda)] + e ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} {\ frac {\ lambda ^ {k} \ log (k !)} {k!}}}\lambda [1-\log(\lambda)]+e^{- \lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\log(k!)}{k!}}(для большого λ {\ displaystyle \ lambda}\ lambda )

1 2 log ⁡ (2 π e λ) - 1 12 λ - 1 24 λ 2 - {\ displaystyle {\ frac {1} {2}} \ log (2 \ pi e \ lambda) - {\ frac {1} {12 \ lambda}} - {\ frac {1} {24 \ lambda ^ { 2}}} - {}}{\displaystyle {\frac {1}{2}}\log(2\pi e\lambda)-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-{}}. 19 360 λ 3 + О (1 λ 4) {\ displaystyle \ qquad {\ frac {19} {360 \ lambda ^ {3}}} + O \ left ({\ гидроразрыв {1} {\ lambda ^ {4}}} \ right)}\qquad {\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)
MGF exp ⁡ [λ (et - 1)] {\ displaystyle \ exp [\ lambda (e ^ {t} -1)]}{\displaystyle \exp[\lambda (e^{t}-1)]}
CF ехр ⁡ [λ (eit - 1)] {\ displaystyle \ exp [\ lambda (e ^ {it} -1)]}{\ displaystyle \ exp [\ lambda ( е ^ {it} -1)]}
PGF exp ⁡ [λ (z - 1)] {\ displaystyle \ exp [\ lambda (z-1)]}{\displaystyle \exp[\lambda (z-1)]}
Информация Фишера 1 λ {\ displaystyle {\ frac {1} {\ lambda}}}\frac{1}{\lambda}

В теории вероятностей и статистика, распределение Пуассона (; Французское произношение: ), названн ое в честь французского математика Симеона Дени Пуассона, представляет собой дискретное распределение вероятностей, которое выражает вероятность заданного количества событий, происходящих в фиксированном интервале времени или пространства, если эти данные события неизменной постоянной средней скорости, и независимо времени, прошедшего с последнего события. Распределение Пуассона также можно использовать для количества событий в других заданных интервалах, таких как расстояние, площадь или объем.

количество, человек, отслеживающий писем, он получает каждый день, может заметить, что в среднем он получает 4 письма в день. Получение какого-либо почтового отправления не влияет на время получения почтовых отправлений, т. Е. Если почтовые отправления из широкого диапазона источников прибывают независимо друг от друга, то количество полученных почтовых отправлений в день подчиняется распределению Пуассона. Другие примеры, которые могут следовать за распределением Пуассона, включая телефонных звонков, полученное время обработки вызова в час, и количество событий распада в секунду отактивного источника.

Содержание
  • 1 Определения
    • 1.1 Вероятностная функция масс
    • 1.2 Пример
    • 1.3 Допущения и достоверность
      • 1.3.1 Примеры вероятностей для распределений Пуассона
      • 1.3.2 Один раз в интервале события : частный случай λ = 1 и k = 0
    • 1.4 Примеры, нарушение предположения Пуассона
  • 2 Свойства
    • 2.1 Описательная статистика
    • 2.2 Медиана
    • 2.3 Высшие моменты
    • 2.4 Суммы случайных величин, распределенных по Пуассону
    • 2.5 Другие свойства
    • 2.6 Расы Пуассона
  • 3 Связанные положения
    • 3.1 Общие положения
    • 3.2 Приближение Пуассона
    • 3.3 Двумерное распределение Пуассона
    • 3.4 Свободное распределение Пуассона
      • 3.4.1 Некоторые преобразования этого закона
  • 4 Статистический вывод
    • 4.1 Оценка параметров
    • 4.2 Доверительный интервал
    • 4.3 Байесовский вывод
    • 4.4 Одновременная оценка нескольких средних Пуассона
  • 5 Возникновение и приложения
    • 5.1 Закон редких событий
    • 5.2 Точечный процесс Пуассона
    • 5. 3 Пуассоновская регрессия и отрицательная биномиальная регрессия
    • 5.4 Другие приложения в науке
  • 6 Вычислительные методы
    • 6.1 Оценка распределения Пуассона
    • 6.2 Случайное извлечение из распределения Пуассона
    • 6.3 Генерация случайных величин с распределением Пуассона
  • 7 История
  • 8 См. также
  • 9 Ссылки
    • 9.1 Цитаты
    • 9.2 Источники
Определения

Вероятная функция масс

Распределение Пуассона популярно для моделирования количества раз, когда событие происходит в интервал времени или пространства.

Дискретная случайная величина X, как говорят, имеет распределение Пуассона с параметром λ>0, если для k = 0, 1, 2,... вероятность Функция масс X определяется как:

f (k; λ) = Pr (X = k) = λ ke - λ k!, {\ Displaystyle \! е (к; \ лямбда) = \ Pr (X = k) = {\ гидроразрыва {\ lambda ^ {k} e ^ {- \ lambda}} {k!}},}\!f(k;\lambda)=\Pr(X=k)={\frac {\lambda ^{k}e^{-\lambda }}{k!}},

где

Положительное вещественное число λ равно ожидаемому значению X, а также его дисперсии

λ = E ⁡ (X) = Var ⁡ (X). {\ displaystyle \ lambda = \ operatorname {E} (X) = \ operatorname {Var} (X).}\lambda =\operatorname {E} (X)=\operatorname {Var} (X).

Распределение Пуассона может использоваться к системам с большим количеством событий, каждое из которых редко. Количество таких событий, которые проходят в течение фиксированного промежутка времени, при определенных обстоятельствах является случайным с распределением Пуассона.

Уравнение можно адаптировать, если вместо среднего количества событий λ {\ displaystyle \ lambda}\ lambda нам задана временная скорость для количества событий r {\ displaystyle r}rдолжно произойти. Тогда λ = rt {\ displaystyle \ lambda = rt}{\ displaystyle \ lambda = rt} (показывает r {\ displaystyle r}rколичество событий в единицу времени) и

P ( k событий в интервале t) = (rt) ke - rtk! {\ displaystyle P (k {\ text {события в интервале}} t) = {\ frac {(rt) ^ {k} e ^ {- rt}} {k!}}}{\displaystyle P(k{\text{ events in interval }}t)={\frac {(rt)^{k}e^{-rt}}{k!}}}

Пример

Распределение Пуассона может быть полезно для моделирования таких событий, как

  • Количество метеоритов диаметром более 1 метра, падающих на Землю за год
  • Количество пациентов, прибывающих в отделение неотложной помощи, от 10 до 23:00
  • Число лазерных фотонов, попадающих в детектор в конкретном интервале времени

Допущения и достоверность

Распределение Пуассона является подходящей моделью, если верны следующие предположения:

  • k - количество раз, когда событие происходит в интервале, а k может принимать значения 0, 1, 2,....
  • Возникновение одного события не влияет на вероятность того, что второе событие происходит. То есть события независимо.
  • Средняя скорость, с которой происходят события, не зависит от каких-либо событий. Для простоты это обычно считается постоянным, но на практике может меняться со временем.
  • Два события не могут происходить в один и тот же момент; вместо этого на каждом очень маленьком подынтервале одно событие либо происходит, либо не происходит.

Если эти условия верны, то является случайной величиной Пуассона, а распределение является распределением Пуассона.

Распределение Пуассона также является пределом биномиального распределения, для которого вероятность успеха для каждого испытания равно λ, деленному на количество испытаний, как количество испытаний приближается к бесконечности (см. Связанные распределения ).

.

Примеры вероятностей для распределений Пуассона

На конкретной реке паводки последние каждые 100 лет. Рассчитайте вероятность k = 0, 1, 2, 3, 4, 5 или 6 паводков в течение 100-летнего интервала, предполагая, что модель Пуассона подходит.

Средняя частота событий составляет одно наводнение в течение 100 лет, λ = 1

P (k паводков за 100 лет) = λ k e - λ k! = 1 к е - 1 к! {\ displaystyle P (k {\ text {наводнение через 100 лет}}) = {\ frac {\ lambda ^ {k} e ^ {- \ lambda}} {k!}} = {\ frac {1 ^ {k } e ^ {- 1}} {k!}}}{\ displaystyle P (k {\ text {наводнение через 100 лет}}) = {\ frac {\ lambda ^ {k} e ^ {- \ lambda}} {k!}} = {\ frac {1 ^ {k} e ^ {-1}} {k!}}}
P (k = 0 оценок за 100 лет) = 1 0 e - 1 0! = e - 1 1 ≈ 0,368 {\ displaystyle P (k = 0 {\ text {наводнение переполнения за 100 лет}}) = {\ frac {1 ^ {0} e ^ {- 1}} {0!}} = {\ frac {e ^ {- 1}} {1}} \ приблизительно 0,368}{\ displaystyle P (k = 0 {\ text {наводнение через 100 лет}}) = {\ frac {1 ^ {0} e ^ {- 1}} {0!}} = {\ frac {e ^ {- 1}} {1}} \ приблизительно 0,368}
P (k = 1 наводнение за 100 лет) = 1 1 e - 1 1! = e - 1 1 ≈ 0,368 {\ displaystyle P (k = 1 {\ text {наводнение за 100 лет}}) = {\ frac {1 ^ {1} e ^ {- 1}} {1!}} = { \ frac {e ^ {- 1}} {1}} \ приблизительно 0,368}{\displaystyle P(k=1{\text{ overflow flood in 100 years}})={\frac {1^{1}e^{-1}}{1!}}={\frac {e^{-1}}{1}}\approx 0.368}
P (k = 2 наводнения за 100 лет) = 1 2 e - 1 2! = e - 1 2 ≈ 0,184 {\ displaystyle P (k = 2 {\ text {наводнение за 100 лет}}) = {\ frac {1 ^ {2} e ^ {- 1}} {2!}} = { \ frac {e ^ {- 1}} {2}} \ приблизительно 0,184}{\displaystyle P(k=2{\text{ overflow floods in 100 years}})={\frac {1^{2}e^{-1}}{2!}}={\frac {e^{-1}}{2}}\approx 0.184}

В таблице ниже представлена ​​вероятность от 0 до 6 паводков за 100-летний период.

kP (k разливов за 100 лет)
00,368
10,368
20,184
30,061
40,015
50,003
60,0005

Угарте и его коллеги сообщают, что среднее количество голов в футбольном матче чемпионата мира составляет примерно 2,5, и модель Пуассона подходит. Так как средняя частота событий составляет 2,5 гола за матч, λ = 2,5.

P (k голов в матче) = 2,5 k e - 2,5 k! {\ displaystyle P (k {\ text {голов в матче}}) = {\ frac {2.5 ^ {k} e ^ {- 2.5}} {k!}}}{\displaystyle P(k{\text{ goals in a match}})={\frac {2.5^{k}e^{-2.5}}{k!}}}
P (k = 0 голов в совпадение) = 2,5 0 е - 2,5 0! = e - 2,5 1 ≈ 0,082 {\ displaystyle P (k = 0 {\ text {цели в матче}}) = {\ frac {2,5 ^ {0} e ^ {- 2,5}} {0 !}} = {\ frac {e ^ {- 2.5}} {1}} \ приблизительно 0,082}{\ displaystyle P (k = 0 {\ text {целей в совпадении}}) = {\ frac {2.5 ^ {0} e ^ {- 2.5}} {0!}} = {\ frac {e ^ {- 2.5}} {1}} \ приблизительно 0,082}
P (k = 1 гол в матче) = 2,5 1 e - 2,5 1! = 2,5 e - 2,5 1 ≈ 0,205 {\ displaystyle P (k = 1 {\ text {цель в матче}}) = {\ frac {2,5 ^ {1} e ^ {- 2,5} } {1!}} = {\ Frac {2.5e ^ {- 2.5}} {1}} \ приблизительно 0,205}{\ displaystyle P (k = 1 {\ text {цель в матче}}) = {\ frac {2.5 ^ {1} e ^ {- 2.5}} {1!}} = {\ Frac { 2,5e ^ {- 2,5}} {1}} \ приблизительно 0,205}
P (k = 2 гола в матче) = 2,5 2 e - 2,5 2 ! = 6,25 e - 2,5 2 ≈ 0,257 {\ displaystyle P (k = 2 {\ text {цели в матче}}) = {\ frac {2,5 ^ {2} e ^ {- 2,5} } {2!}} = {\ Frac {6.25e ^ {- 2.5}} {2}} \ приблизительно 0,257}{\displaystyle P(k=2{\text{ goals in a match}})={\frac {2.5^{2}e^{-2.5}}{2!}}={\frac {6.25e^{-2.5}}{2}}\approx 0.257}

В таблице ниже указаны вероятности от 0 до 7 голов в матче.

kP (k голов в матче чемпионата мира по футболу)
00,082
10,205
20,257
30,213
40,133
50,067
60,028
70,010

Один раз в интервальных событиях: частный случай λ = 1 и k = 0

Предположим, что астрономы оценивают, что большие метеориты (более определенного размера) падают на Землю в среднем один раз в 100 лет (λ = 1 событие на 100 лет), и что количество падений метеоритов следует распределению Пуассона. Какова вероятность падения k = 0 метеоритов в следующие 100 лет?

P (k = 0 падений метеоритов в следующие 100 лет) = 1 0 e - 1 0! = 1 e ≈ 0,37 {\ displaystyle P (k = {\ text {0 попаданий метеоритов в следующие 100 лет}}) = {\ frac {1 ^ {0} e ^ {- 1}} {0!}} = {\ frac {1} {e}} \ приблизительно 0,37}{\ displaystyle P (k = {\ text {0 попадание метеоритов в следующий 100 уе ars}}) = {\ frac {1 ^ {0} e ^ {- 1}} {0!}} = {\ frac {1} {e}} \ приблизительно 0,37}

При этом предположении вероятность того, что в ближайшие 100 лет не упадет на Землю ни один крупный метеорит, составляет примерно 0,37. Оставшееся 1 - 0,37 = 0,63 - это вероятность падения 1, 2, 3 или более крупных метеоритов в следующие 100 лет. В приведенном выше примере наводнение раз в 100 лет (λ = 1). По той же расчету вероятность отсутствия оценок через 100 лет составляет примерно 0,37.

В общем, если событие происходит в среднем за интервал (λ = 1), и события следуют распределению Пуассона, то P (0 событий в следующем интервале) = 0,37. Кроме того, P (ровно одно событие в следующем интервале) = 0,37, как показано в таблице для наводок переполнения.

Примеры, нарушение предположения Пуассона

Количество студентов, которые приходят в студенческий союз за минуту, скорее всего, не будет соответствовать распределению Пуассона, потому что скорость не является постоянной ( низкий процент во время уроков, высокий процент между уроками) и прибытие отдельных студентов не является независимым (студенты, как правило, приходят группы).

Число землетрясений магнитудой 5 в стране может не соответствовать распределению Пуассона, если одно сильное землетрясение увеличивает вероятность афтершоков аналогичной силы.

Примеры, в которых гарантировано хотя бы одно событие, распространяются; но может быть смоделировано с использованием усеченного нулем распределения Пуассона.

Распределение счетчиков, в количестве интервалов с нулевыми событиями больше, чем прогнозируется модель Пуассона, могут быть смоделированы с использованием модели с нулевым раздутием.

Свойства

Описательная статистика

E ⁡ [| X - λ | ] = 2 λ ⌊ λ ⌋ + 1 e - λ ⌊ λ ⌋!. {\ displaystyle \ operatorname {E} [| X- \ lambda |] = {\ frac {2 \ lambda ^ {\ lfloor \ lambda \ rfloor +1} e ^ {- \ lambda}} {\ lfloor \ lambda \ rfloor!}}.}{\ displaystyle \ operatorname {E} [| X- \ lambda |] = {\ frac {2 \ lambda ^ {\ lfloor \ lambda \ rfloor +1} e ^ {- \ lambda}} {\ lfloor \ lambda \ rfloor!}}.}
  • Режим случайной величины с распределением Пуассона с нецелым числом λ равенство ⌊ λ ⌋ {\ displaystyle \ scriptstyle \ lfloor \ lambda \ rfloor}\ scriptstyle \ lfloor \ lambda \ rfloor , которое является наибольшим целым, меньшим или равным λ. Это также записывается как этаж (λ). Когда λ является положительным целым числом, режимами являются λ и λ - 1.
  • Все кумулянты распределения Пуассона равны ожидаемому значению λ. N-й факторный момент распределения Пуассона равен λ.
  • ожидаемое значение процесса Пуассона иногда разлагается на произведение и воздействие (или, в более общем смысле, выражается как интеграл от «функции силы» во времени или пространстве, иногда описываемый как «воздействие»).

Медиана

Границы для медианы (ν {\ displaystyle \ nu}\nu ) распределения известны и резкие :

λ - ln ⁡ 2 ≤ ν < λ + 1 3. {\displaystyle \lambda -\ln 2\leq \nu <\lambda +{\frac {1}{3}}.}\lambda -\ln 2\leq \nu <\lambda +{\frac {1}{3}}.

Высшие моменты

mk = ∑ i = 0 k λ i {ki}, {\ displaystyle m_ {k} = \ sum _ {i = 0} ^ {k} \ lambda ^ {i} \ left \ {{\ begin {matrix} k \\ i \ end {matrix}} \ right \},}{\displaystyle m_{k}=\sum _{i=0}^{k}\lambda ^{i}\left\{{\begin{matri x}k\\i\end{matrix}}\right\},}
где {фигурные скобки} обозначают числа Стирлинга второго рода. Коэффициенты полиномов имеют комбинаторное значение . Фактически, когда ожидаемое значение распределения Пуассона равно 1, тогда формула Добинского говорит, что n-й момент равен количеству разделов набора размера n.

Для нецентрированных моментов мы определяем B = k / λ {\ displaystyle B = k / \ lambda}{\ displaystyle B = k / \ lambda} ,

E [X k] 1 / k ≤ C ⋅ {k / B, если B < e k / log ⁡ B if B ≥ e {\displaystyle E[X^{k}]^{1/k}\leq C\cdot {\begin{cases}k/B{\text{if}}\quad B{\displaystyle E[X^{k}]^{1/k}\leq C\cdot {\begin{cases}k/B{\text{if}}\quad B<e\\k/\log B{\text{if}}\quad B\geq e\end{cases}}}

, где C {\ displaystyle C}C- некоторая абсолютная константа больше 0.

Суммы случайных величин с распределением Пуассона

Если Икс я ∼ Пуа ⁡ (λ я) {\ Displaystyle X_ {i} \ sim \ operatorname {Pois} (\ lambda _ {i})}{\displaystyle X_{i}\sim \operatorname {Pois} (\lambda _{i})}для i = 1,…, n {\ displaystyle i = 1, \ dotsc, n}{\displaystyle i=1,\dotsc,n}независимы, тогда ∑ i = 1 n X i ∼ Pois ⁡ (∑ i = 1 n λ i) { \ displaystyle \ sum _ {i = 1} ^ {n} X_ {i} \ sim \ operatorname {Pois} \ left (\ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right)}{\displaystyle \sum _{i=1}^{n}X_{i}\sim \operatorname {Pois} \left(\sum _{i=1}^{n}\lambda _{i}\right)}. Обратным является теорема Райкова, которая гласит, что если сумма двух независимых случайных величин распределена по Пуассону, то каждая из этих двух независимых величин также.

Другие

D KL ⁡ (λ ∣ λ 0) = λ 0 - λ + λ журнал ⁡ λ λ 0. {\ Displaystyle \ OperatorName {D} _ {\ text {KL}} (\ lambda \ mid \ lambda _ {0}) = \ lambda _ {0} - \ lambda + \ lambda \ log {\ frac {\ lambda} {\ lambda _ {0}}}.}{\ displaystyle \ operatorname {D} _ {\ text {KL}} (\ lambda \ mid \ lambda _ {0}) = \ lambda _ {0} - \ lambda + \ lambda \ log {\ frac {\ lambda} {\ lambda _ {0}}}.}
  • Границы вероятностей хвоста пуассоновской случайной величины X ∼ Pois ⁡ (λ) {\ displaystyle X \ sim \ operatorname {Pois} (\ lambda)}X \ sim \ operatorname {Pois} (\ lambda) можно получить с помощью аргумента Граница Чернова.
п (Икс ≥ Икс) ≤ (е λ) Икс - λ ХХ, для Икс>λ {\ Displaystyle P (X \ GEQ х) \ Leq {\ гидроразрыва {(е \ лямбда) ^ {х} е ^ {- \ lambda}} {x ^ {x}}}, {\ text {for}} x>\ lambda}{\displaystyle P(X\geq x)\leq {\frac {(e\lambda)^{x}e^{-\lambda }}{x^{x}}},{\text{ for }}x>\ lambda} ,
P (X ≤ x) ≤ (e λ) xe - λ xx, для x < λ. {\displaystyle P(X\leq x)\leq {\frac {(e\lambda)^{x}e^{-\lambda }}{x^{x}}},{\text{ for }}x<\lambda.}{\ displaystyle P (X \ leq x) \ leq {\ frac {(e \ lambda) ^ {x} e ^ {- \ lambda}} {x ^ {x} }}, {\ text {for}} x <\ lambda.}
  • Вероятность верхнего хвоста может быть ужесточена (минимум в два раза) следующим образом:
P (X ≥ x) ≤ е - D KL ⁡ (Икс ∣ λ) макс (2, 4 π D KL ⁡ (x ∣ λ)), для Икс>λ, {\ Displaystyle P (X \ geq x) \ Leq {\ frac {e ^ {- \ operatorname {D} _ {\ text {KL}} (x \ mid \ lambda)}} {\ max {(2, {\ sqrt {4 \ pi \ operatorname {D} _ {\ text {KL}} (x \ mid \ lambda)}}})}}, {\ text {for}} x>\ lambda,}{\displaystyle P(X\geq x)\leq {\frac {e^{-\operatorname {D} _{\text{KL}}(x\mid \lambda)}}{\max {(2,{\sqrt {4\pi \operatorname {D} _{\text{KL}}(x\mid \lambda)}}})}},{\text{ for }}x>\ lambda,}
где D KL ⁡ (x ∣ λ) {\ displaystyle \ operator name {D} _ {\ text {KL}} (x \ mid \ lambda)}{\displaystyle \operatorname {D} _{\text{KL}}(x\mid \lambda)}- это направленное расхождение Кульбака - Лейблера, как опис
  • Неравенства, которые связывают функцию распределения пуассоновской случайной величины X ∼ Pois ⁡ (λ) {\ displaystyle X \ sim \ operatorname {Pois} (\ lambda)}X \ sim \ operatorname {Pois} (\ lambda) с Стандартное нормальное распределение функция Φ (x) {\ displaystyle \ Phi (x)}\Phi (x)имеет следующий вид:
Φ (знак ⁡ (k - λ) 2 D KL ⁡ (К ∣ λ)) < P ( X ≤ k) < Φ ( sign ⁡ ( k − λ + 1) 2 D KL ⁡ ( k + 1 ∣ λ)), for k>0, {\ displaystyle \ Phi \ left (\ operatorname {sign} (k- \ lambda) {\ sqrt {2 \ operatorname {D} _ {\ text {KL}} (k \ mid \ lambda)}} \ right) 0,}{\displaystyle \Phi \left(\operatorname {sign} (k-\lambda){\sqrt {2\operatorname {D} _{\text{KL}}(k\mid \lambda)}}\right)<P(X\leq k)<\Phi \left(\operatorname {sign} (k-\lambda +1){\sqrt {2\operatorname {D} _{\text{KL}}(k+1\mid \lambda)}}\right),{\text{ for }}k>0,}
где D KL ⁡ (k ∣ λ) {\ displaystyle \ operatorname {D} _ {\ text {KL}} (k \ mid \ lambda)}{\ displaystyle \ operatorname {D} _ {\ text {KL}} (k \ mid \ lambda)} снова является направленным расхождением Кульбака - Лейблера.

Расы Пуассона

Пусть X ∼ Pois ⁡ (λ) {\ displaystyle X \ sim \ operatorname {Pois} (\ lambda)}{\displaystyle X\sim \operatorname {Pois} (\lambda)}и Y ∼ Пуа ⁡ (μ) {\ displaystyle Y \ sim \ operatorname {Pois} (\ mu)}{\displaystyle Y\sim \operatorname {Pois} (\mu)}быть независимыми случайными величинами с λ < μ {\displaystyle \lambda <\mu }\lambda <\mu , тогда имеем

e - (μ - λ) 2 ( λ + μ) 2 - е - (λ + μ) 2 λ μ - e - (λ + μ) 4 λ μ ≤ P (X - Y ≥ 0) ≤ е - (μ - λ) 2 {\ displaystyle {\ гидроразрыв {e ^ {- ({\ sqrt {\ mu}} - {\ sqrt {\ lambda}}) ^ {2}}} {(\ lambda + \ mu) ^ {2}}} - {\ frac { e ^ {- (\ lambda + \ mu)}} {2 {\ sqrt {\ lambda \ mu}}}} - {\ frac {e ^ {- (\ lambda + \ mu)}} {4 \ lambda \ mu}} \ leq P (XY \ geq 0) \ leq e ^ {- ({\ sqrt {\ mu}} - {\ sqrt {\ lambda})}) ^ {2}}}{\frac {e^{-({\sqrt {\mu }}-{\sqrt {\lambda }})^{2}}}{(\lambda +\mu)^{2}}}-{\frac {e^{-(\lambda +\mu)}}{2{\sqrt {\lambda \mu }}}}-{\frac {e^{-(\lambda +\mu)}}{4\lambda \mu }}\leq P(X-Y\geq 0)\leq e^{-({\sqrt {\mu }}-{\sqrt {\lambda }})^{2}}

Верхняя оценка доказывается с использованием стандартной оценки Чернова.

Нижнюю границу можно доказать, отметив, что P (X - Y ≥ 0 ∣ X + Y = i) {\ displaystyle P (XY \ geq 0 \ mid X + Y = i)}{\displaystyle P(X-Y\geq 0\mid X+Y=i)}- вероятность того, что Z ≥ i 2 {\ displaystyle Z \ geq {\ frac {i} {2}}}Z\geq {\frac {i}{2}}, где Z ∼ Bin ⁡ ( я, λ λ + μ) {\ displaystyle Z \ sim \ operatorname {Bin} \ left (i, {\ frac {\ lambda} {\ lambda + \ mu}} \ right)}Z \ sim \ operatorname {Bin} \ left (i, {\ frac {\ lambda} {\ lambda + \ mu}} \ right) , что ограничено снизу 1 (i + 1) 2 e (- i D (0,5 ‖ λ λ + μ)) {\ displaystyle {\ frac {1} {(i + 1) ^ {2}}} e ^ {\ left (-iD \ left (0.5 \ | {\ frac {\ lambda} {\ lambda + \ mu}} \ right) \ right)}}{\displaystyle {\f rac {1}{(i+1)^{2}}}e^{\left(-iD\left(0.5\|{\frac {\lambda }{\lambda +\mu }}\right)\right)}}, где D {\ displaystyle D}D- это относительная энтропия (подробности см. в записи о границах хвостов биномиальных распределений ). Отмечая далее, что X + Y ∼ Pois ⁡ (λ + μ) {\ displaystyle X + Y \ sim \ operatorname {Pois} (\ lambda + \ mu)}{\ displaystyle X + Y \ sim \ operatorname {Pois} (\ lambda + \ mu)} , и вычисляя нижнюю границу по безусловной вероятности дает результат. Более подробную информацию можно найти в приложении Камата и др..

Связанные распределения

Общие

  • Если X 1 ∼ P ois (λ 1) {\ displaystyle X_ { 1} \ sim \ mathrm {Pois} (\ lambda _ {1}) \,}X_ {1} \ sim \ mathrm {Pois} (\ lambda _ {1}) \, и X 2 ∼ P ois (λ 2) {\ displaystyle X_ {2} \ sim \ mathrm {Pois} (\ lambda _ {2}) \,}X_ {2} \ sim \ mathrm {Pois} (\ lambda _ {2}) \, независимы, тогда разница Y = X 1 - X 2 {\ displaystyle Y = X_ {1} -X_ {2} }Y = X_ {1} -X_ {2} следует распределению Скеллама.
  • Если X 1 ∼ P ois (λ 1) {\ displaystyle X_ {1} \ sim \ mathrm {Pois} (\ lambda _ {1 }) \,}X_ {1} \ sim \ mathrm {Pois} (\ lambda _ {1}) \, и X 2 ∼ P ois (λ 2) {\ displaystyle X_ {2} \ sim \ mathrm {Pois} (\ lambda _ {2}) \,}X_ {2} \ sim \ mathrm {Pois} (\ lambda _ {2}) \, являются независимыми, тогда распределение X 1 {\ displaystyle X_ {1}}X_ {1} условно на X 1 + X 2 {\ displaystyle X_ {1} + X_ {2}}X_{1}+X_{2}является биномиальным распределением.
В частности, если X 1 + X 2 = k {\ displaystyle X_ {1} + X_ {2} = k}X_{1}+X_{2}=k, тогда X 1 ∼ B inom (k, λ 1 / (λ 1 + λ 2)) {\ displaystyle \! X_ {1} \ sim \ mathrm {Binom} (k, \ lambda _ {1} / (\ lambda _ {1} + \ lambda _ {2}))}\! X_ {1} \ sim \ mathrm {Binom} (k, \ lambda _ {1} / (\ lambda _ {1 } + \ lambda _ {2})) .
В более общем смысле, если X 1, X 2,..., X n - независимые пуассоновские случайные величины с параметрами λ 1, λ 2,..., λ n, затем
с учетом ∑ j = 1 n X j = k, {\ displaystyle \ sum _ {j = 1} ^ {n} X_ {j} = k,}\sum _{j=1}^{n}X_{j}=k,Икс я ∼ В inom (К, λ я ∑ J = 1 N λ j) {\ Displaystyle X_ {i} \ sim \ mathrm {Binom} \ left (k, {\ frac {\ lambda _ {i}} { \ sum _ {j = 1} ^ {n} \ lambda _ {j}}} \ right)}X_ {i} \ sim \ mathrm {Binom} \ left (k, {\ frac {\ lambda _ {i}} {\ sum _ {j = 1} ^ {n} \ lambda _ {j}}} \ right) . Фактически, {X i} ∼ M ultinom (k, {λ i ∑ j = 1 n λ j}) {\ displaystyle \ {X_ {i} \} \ sim \ mathrm {Multinom} \ left (k, \ left \ {{\ frac {\ lambda _ {i}} {\ sum _ {j = 1} ^ {n} \ lambda _ {j}}} \ right \} \ right)}\{X_{i}\}\sim \mathrm {Multinom} \left(k,\left\{{\frac {\lambda _{i}}{\sum _{j=1}^{n}\lambda _{j}}}\right\}\right).
  • Если Икс ∼ P ois (λ) {\ displaystyle X \ sim \ mathrm {Pois} (\ lambda) \,}X \ sim \ mathrm {Pois} (\ lambda) \, и распределение Y {\ displaystyle Y}Y, при условии X = k, является биномиальным распределением, Y ∣ (X = k) ∼ B inom (k, p) {\ displaystyle Y \ mid (X = k) \ sim \ mathrm {Binom} (k, p)}Y\mid (X=k)\sim \mathrm {Binom} (k,p), тогда распределение Y следует распределению Пуассона Y ∼ P ois (λ ⋅ p) {\ displaystyle Y \ sim \ mathrm {Pois } (\ лямбда \ cdot p) \,}Y\sim \mathrm {Pois} (\lambda \cdot p)\,. Фактически, если {Y i} {\ displaystyle \ {Y_ {i} \}}\{Y_{i}\}при условии X = k, следует полиномиальному распределению, {Y i} ∣ ( Икс = К) ∼ М ультином (к, пи) {\ Displaystyle \ {Y_ {i} \} \ mid (X = k) \ sim \ mathrm {Multinom} \ left (k, p_ {i} \ right)}\{Y_{i}\}\mid (X=k)\sim \mathrm {Multinom} \left(k,p_{i}\right), то каждый Y i {\ displaystyle Y_ {i}}Y_ {i} следует независимому распределению Пуассона Y i ∼ P ois (λ ⋅ pi), ρ (Y я, Y j) знак равно 0 {\ displaystyle Y_ {i} \ sim \ mathrm {Pois} (\ lambda \ cdot p_ {i}), \ rho (Y_ {i}, Y_ {j}) = 0}Y_ {i} \ sim \ mathr m {Pois} (\ lambda \ cdot p_ {i}), \ rho (Y_ {i}, Y_ {j}) = 0 .
  • Распределение Пуассона может быть получено как предельный случай для биномиального распределения, поскольку количество попыток стремится к бесконечности, а ожидаемое количество успехов остается фиксированным - см. закон редких событий ниже. Следовательно, его можно использовать в качестве аппроксимации биномиального распределения, если n достаточно велико, а p достаточно мало. Существует эмпирическое правило, согласно которому распределение Пуассона является хорошим приближением биномиального распределения, если n не менее 20, а p меньше или равно 0,05, и отличным приближением, если n ≥ 100 и np ≤ 10.
FB inomial (k; n, p) ≈ FP oisson (k; λ = np) {\ displaystyle F _ {\ mathrm {Binomial}} (k; n, p) \ приблизительно F _ {\ mathrm {Poisson}} (k ; \ lambda = np) \,}F_{\mathrm {Binomial} }(k;n,p)\approx F_{\mathrm {Poisson} }(k;\lambda =np)\,
  • Распределение Пуассона - это частный случай дискретного составного распределения Пуассона (или распределения Пуассона с заиканием) только с параметром. Дискретное составное распределение Пуассона можно вывести из предельного распределения одномерного полиномиального распределения. Это также частный случай составного распределения Пуассона.
  • . Для достаточно больших значений λ (скажем, λ>1000) нормальное распределение со средним λ и дисперсия λ (стандартное отклонение λ {\ displaystyle {\ sqrt {\ lambda}}}{\ sqrt {\ lambda}} ) - отличное приближение к распределению Пуассона. Если λ больше примерно 10, то нормальное распределение является хорошим приближением, если выполняется соответствующая поправка на непрерывность, т. Е. Если P (X ≤ x), где x - неотрицательное целое число, равно заменяется на P (X ≤ x + 0,5).
FP oisson (x; λ) ≈ F normal (x; μ = λ, σ 2 = λ) {\ displaystyle F _ {\ mathrm {Poisson}} (x; \ lambda) \ приблизительно F _ {\ mathrm {normal}} (x; \ mu = \ lambda, \ sigma ^ {2} = \ lambda) \,}F_{\mathrm {Poisson} }(x;\lambda)\approx F_{\mathrm {normal} }(x;\mu =\lambda,\sigma ^{2}=\lambda)\,
Y = 2 X ≈ N (2 λ; 1) {\ displaystyle Y = 2 {\ sqrt {X}} \ приблизительно {\ mathcal {N}} (2 {\ sqrt {\ lambda}}; 1)}{\displaystyle Y=2{\sqrt {X}}\approx {\mathcal {N}}(2{\sqrt {\lambda }};1)},
и
Y = X ≈ N (λ; 1 / 4) {\ displaystyle Y = {\ sqrt {X}} \ приблизительно {\ mathcal {N}} ({\ sqrt {\ lambda}}; 1/4)}{\ displaystyle Y = {\ sqrt {X}} \ приблизительно {\ mathcal {N}} ({\ sqrt {\ lambda}}; 1/4)} .
При этом преобразовании сходимость к нормальности (поскольку λ {\ displaystyle \ lambda}\ lambda увеличивается) намного быстрее, чем непреобразованная переменная. Доступны другие, несколько более сложные преобразования, стабилизирующие дисперсию, одно из которых - преобразование Анскомба. См. Преобразование данных (статистика) для более общего использования преобразований.
F Пуассона (k; λ) = 1 - F χ 2 (2 λ; 2 (k + 1)) целое число k, {\ displaystyle F _ {\ текст {Пуассон}} (k; \ lambda) = 1-F _ {\ chi ^ {2}} (2 \ lambda; 2 (k + 1)) \ quad \ quad {\ text {integer}} k,}F_{\text{Poisson}}(k;\lambda)=1-F_{\chi ^{2}}(2\lambda ;2(k+1))\quad \quad {\text{ integer }}k,
и
Pr (X = k) = F χ 2 (2 λ; 2 (k + 1)) - F χ 2 (2 λ; 2 k). {\ Displaystyle \ Pr (Икс = К) = F _ {\ чи ^ {2}} (2 \ лямбда; 2 (к + 1)) - F _ {\ чи ^ {2}} (2 \ лямбда; 2к). }\Pr(X=k)=F_{\chi ^{2}}(2\lambda ;2(k+1))-F_{\chi ^{2}}(2\lambda ;2k).

Приближение Пуассона

Предположим, X 1 ∼ Пуа ⁡ (λ 1), X 2 ∼ Пуа ⁡ (λ 2),…, X n ∼ Пуа ⁡ (λ n) {\ displaystyle X_ {1} \ sim \ operatorname {Pois} (\ lambda _ {1}), X_ {2} \ sim \ operatorname {Pois} (\ lambda _ {2}), \ dots, X_ {n} \ sim \ имя оператора {Pois} (\ lambda _ {n})}{\ displaystyle X_ {1} \ sim \ operatorname {Pois} (\ lambda _ {1}), X_ {2 } \ sim \ operatorname {Pois} (\ lambda _ {2}), \ dots, X_ {n} \ sim \ operatorname {Pois} (\ lambda _ {n})} где λ 1 + λ 2 + ⋯ + λ n = 1 {\ displaystyle \ lambda _ {1} + \ lambda _ {2 } + \ точки + \ lambda _ {n} = 1}{\displaystyle \lambda _{1}+\lambda _{2}+\dots +\lambda _{n}=1}, затем (X 1, X 2,…, X n) {\ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n})}{\displaystyle (X_{1},X_{2},\dots,X_{n})}является полиномиально распределенным (X 1, X 2,…, X n) ∼ Mult ⁡ (N, λ 1, λ 2,…, λ n) {\ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n}) \ sim \ operatorname {Mult} (N, \ lambda _ {1}, \ lambda _ { 2}, \ dots, \ lambda _ {n})}{\displaystyle (X_{1},X_{2},\ dots,X_{n})\sim \operatorname {Mult} (N,\lambda _{1},\lambda _{2},\dots,\lambda _{n})}при условии N = X 1 + X 2 +… X n {\ displaystyle N = X_ {1} + X_ {2} + \ dots X_ {n}}{\ displaystyle N = X_ {1} + X_ {2} + \ dots X_ {n}} .

Это означает, среди прочего, что для любой неотрицательной функции f (x 1, x 2,…, xn) {\ displa ystyle f (x_ {1}, x_ {2}, \ d ots, x_ {n})}{\displaystyle f(x _{1},x_{2},\dots,x_{n})}, если (Y 1, Y 2,…, Y n) ∼ Mult ⁡ (m, p) {\ displaystyle (Y_ {1}, Y_ {2}, \ dots, Y_ {n}) \ sim \ operatorname {Mult} (m, \ mathbf {p})}{\displaystyle (Y_{1},Y_{2},\dots,Y_{n})\sim \operatorname {Mult} (m,\mathbf {p})}является полиномиальным распределено, тогда

E ⁡ [f (Y 1, Y 2,…, Y n)] ≤ em E ⁡ [f (X 1, X 2,…, X n)] {\ displaystyle \ operatorname {E} [f (Y_ {1}, Y_ {2}, \ dots, Y_ {n})] \ leq e {\ sqrt {m}} \ operatorname {E} [f (X_ {1}, X_ {2}, \ точки, X_ {n})]}{\ displaystyle \ operatorname {E} [f (Y_ {1}, Y_ {2}, \ dots, Y_ {n})] \ leq e {\ sqrt {m}} \ operatorname {E} [f (X_ {1}, X_ {2}, \ dots, X_ {n})]}

где (X 1, X 2,…, X n) ∼ Pois ⁡ (p) {\ displaystyle (X_ {1}, X_ {2}, \ точки, X_ {n}) \ sim \ operatorname {Pois} (\ mathbf {p})}{ \ displaystyle (X_ {1}, X_ {2}, \ dots, X_ {n}) \ sim \ operatorname {Pois} (\ mathbf {p})} .

Коэффициент em {\ displaystyle e {\ sqrt {m}}}{\displaystyle e{\sqrt {m}}}может быть удален, если предполагается, что f {\ displaystyle f}f монотонно увеличивается или уменьшается.

Двумерное распределение Пуассона

Это распределение было расширено до двумерного случая. производящая функция для этого распределения равна

g (u, v) = exp ⁡ [(θ 1 - θ 12) (u - 1) + (θ 2 - θ 12) (v - 1) + θ 12 (uv - 1)] {\ displaystyle g (u, v) = \ exp [(\ theta _ {1} - \ theta _ {12}) (u-1) + (\ theta _ {2 } - \ theta _ {12}) (v-1) + \ theta _ {12} (uv-1)]}g(u,v)=\exp[(\theta _{1}-\theta _{12})(u-1)+(\theta _{2}-\theta _{12})(v-1)+\theta _{12}(uv-1)]

с

θ 1, θ 2>θ 12>0 {\ displaystyle \ theta _ {1}, \ theta _ {2}>\ theta _ {12}>0 \,}\theta _{1},\theta _{2}>\ theta _ {12}>0 \,

Маргинальные распределения - Пуассон (θ 1) (θ 2), а коэффициент корреляции ограничен диапазоном

0 ≤ ρ ≤ min {θ 1 θ 2, θ 2 θ 1} {\ displaystyle 0 \ leq \ rho \ leq \ min \ left \ {{\ frac {\ theta _ {1}} {\ theta _ {2}}}, {\ frac {\ theta _ {2}} {\ theta _ {1}}} \ right \}}0 \ leq \ rho \ leq \ min \ left \ {{ \ frac {\ theta _ {1}} {\ theta _ {2}}}, {\ frac {\ theta _ {2}} {\ theta _ {1}}} \ right \}

Простой способ сгенерировать двумерное распределение Пуассона X 1, X 2 {\ displaystyle X_ {1}, X_ {2}}X_{1},X_{2}- взять т ри независимых распределения Пуассона Y 1, Y 2, Y 3 {\ displaystyle Y_ {1}, Y_ {2}, Y_ {3}}Y_{1},Y_{2},Y_{3}со средствами λ 1, λ 2, λ 3 {\ displaystyle \ lambda _ {1}, \ lambda _ {2}, \ lambda _ {3}}\lambda _{1},\lambda _{2},\lambda _{3}, а затем установите X 1 = Y 1 + Y 3, X 2 = Y 2 + Y 3 {\ displaystyle X_ {1} = Y_ {1} + Y_ {3}, X_ {2} = Y_ {2} + Y_ {3}}X_ {1} = Y_ {1} + Y_ {3}, X_ {2} = Y_ {2} + Y_ {3} . Функция вероятности двумерного распределения Пуассона равна

Pr (X 1 = k 1, X 2 = k 2) = exp ⁡ (- λ 1 - λ 2 - λ 3) λ 1 k 1 k 1! λ 2 К 2 К 2! ∑ К знак равно 0 мин (К 1, К 2) (К 1 К) (К 2 К) К! (λ 3 λ 1 λ 2) к {\ Displaystyle {\ begin {align} \ Pr (X_ {1} = k_ {1}, X_ {2} = k_ {2}) \\ = {} \ exp \ left (- \ lambda _ {1} - \ lambda _ {2} - \ lambda _ {3} \ right) {\ frac {\ lambda _ {1} ^ {k_ {1}}} {k_ {1} !}} {\ frac {\ lambda _ {2} ^ {k_ {2}}} {k_ {2}!}} \ sum _ {k = 0} ^ {\ min (k_ {1}, k_ {2 })} {\ binom {k_ {1}} {k}} {\ binom {k_ {2}} {k}} k! \ left ({\ frac {\ lambda _ {3}} {\ lambda _ { 1} \ lambda _ {2}}} \ right) ^ {k} \ end {align}}}{\ begin {align} \ Pr (X_ {1} = k_ {1}, X_ {2} = k_ {2 }) \\ = {} \ exp \ left (- \ lambda _ {1} - \ lambda _ {2} - \ lambda _ {3} \ right) {\ frac {\ lambda _ {1} ^ {k_ {1}}} {k_ {1}!}} {\ Frac {\ lambda _ {2} ^ {k_ {2}}} {k_ {2}!}} \ Sum _ {k = 0} ^ {\ min (k_ {1}, k_ {2})} {\ binom {k_ {1}} {k}} {\ binom {k_ {2}} {k}} k! \ left ({\ frac {\ lambda _ {3}} {\ lambda _ {1} \ lambda _ {2}}} \ right) ^ {k} \ end {align}}

Свободное распределение Пуассона

Свободное распределение Пуассона с размером скачка α {\ displaystyle \alpha }\alpha and rate λ {\displaystyle \lambda }\ lambda arises in free probability theory as the limit of repeated free convolution

( ( 1 − λ N) δ 0 + λ N δ α) ⊞ N {\displaystyle \left(\left(1-{\frac {\lambda }{N}}\right)\delta _{0}+ {\frac {\lambda }{N}}\delta _{\alpha }\right)^{\boxplus N}} \left( \left(1-\frac{\lambda}{N}\right)\delta_0 + \frac{\lambda}{N}\delta_\alpha\right)^{\boxplus N}

as N → ∞.

In other words, let X N {\displaystyle X_{N}}X_{N}be random variables so that X N {\displaystyle X_{N}}X_{N}has value α {\displaystyle \alpha }\alpha with probability λ N {\displaystyle {\frac {\lambda }{N}}}\frac{\lambda}{N}and value 0 with the remaining probability. Assume also that the family X 1, X 2, … {\displaystyle X_{1},X_{2},\ldots }X_{1},X_{2},\ldots are freely independent. Then the limit as N → ∞ {\displaystyle N\to \infty }N \ to \ infty of the law of X 1 + ⋯ + X N {\displaystyle X_{1}+\cdots +X_{N}}X_1 + \ cdots + X_N is given by the Free Poisson law with parameters λ, α {\displaystyle \lambda,\alpha }\lambda,\alpha.

This definition is analogous to one of the ways in which the classical Poisson distribution is obtained from a (classical) Poisson process.

The measure associated to the free Poisson law is given by

μ = { ( 1 − λ) δ 0 + λ ν, if 0 ≤ λ ≤ 1 ν, if λ>1, {\displaystyle \mu ={\begin{cases}(1-\lambda)\delta _{0}+\lambda \nu,{\text{if }}0\leq \lambda \leq 1\\\nu,{\text{if }}\lambda>1,\end{cases}}}{\displaystyle \mu ={\begin{cases}(1-\lambda)\delta _{0}+\lambda \nu,{\text{if }}0\leq \lambda \leq 1\\\nu,{\text{if }}\lambda>1,\end{cases}}}

where

ν = 1 2 π α t 4 λ α 2 − ( t − α ( 1 + λ)) 2 d t {\displaystyle \nu ={\frac {1}{2\pi \alpha t}}{\sqrt {4\lambda \alpha ^{2}-(t-\alpha (1+\lambda))^{2}}}\,dt}{\displaystyle \nu ={\frac {1}{2\pi \alpha t}}{\sqrt {4\lambda \alpha ^{2}-(t-\alpha (1+\lambda))^{2}}}\,dt}

and has support [ α ( 1 − λ) 2, α ( 1 + λ) 2 ] {\displaystyle [\alpha (1-{\sqrt {\lambda }})^{2},\alpha (1+{\sqrt {\lambda }})^{2}]}[\ alpha (1- \ sqrt {\ lambda}) ^ 2, \ alpha (1+ \ sqrt {\ lambda}) ^ 2] .

This law also arises in random matrix theory as the Marchenko–Pastur law. Its are equal to κ n = λ α n {\displaystyle \kappa _{n}=\lambda \alpha ^{n}}{\displaystyle \kappa _{n}=\lambda \alpha ^{n}}.

Some transforms of this law

We give values of some important transforms of the free Poisson law; the computation can be found in e.g. in the book Lectures on the Combinatorics of Free Probability by A. Nica and R. Speicher

The of the free Poisson law is given by

R ( z) = λ α 1 − α z. {\displaystyle R(z)={\frac {\lambda \alpha }{1-\alpha z}}.}R(z)=\frac{\lambda \alpha}{1-\alpha z}.

The (which is the negative of the Stieltjes transformation ) is given by

G ( z) = z + α − λ α − ( z − α ( 1 + λ)) 2 − 4 λ α 2 2 α z {\displaystyle G(z)={\frac {z+\alpha -\lambda \alpha -{\sqrt {(z-\alpha (1+\lambda))^{2}-4\lambda \alpha ^{2}}}}{2\alpha z}}} G(z) = \frac{ z + \alpha - \lambda \alpha - \sqrt{ (z-\alpha (1+\lambda))^2 - 4 \lambda \alpha^2}}{2\alpha z}

The is given by

S ( z) = 1 z + λ {\displaystyle S(z)={\frac {1}{z+\lambda }}}S(z) = \frac{1}{z+\lambda}

in the case that α = 1 {\displaystyle \alpha =1}\alpha =1.

Statist ical Inference

Оценка параметра

Дана выборка из n измеренных значений k i ∈ {0, 1,... } {\ displaystyle k_ {i} \ in \ {0,1,... \}}{\ displaystyle k_ {i} \ in \ {0,1,... \}} , для i = 1,..., n мы хотим оценить значение параметра λ популяции Пуассона, из которой была взята выборка. Оценка максимального правдоподобия равна

λ ^ M L E = 1 n ∑ i = 1 n k i. {\ displaystyle {\ widehat {\ lambda}} _ {\ mathrm {MLE}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} k_ {i}. \!}{\widehat {\lambda }}_{\mathrm {MLE} }={\frac {1}{n}}\sum _{i=1}^{n}k_{i}.\!

Поскольку каждое наблюдение имеет математическое ожидание λ, то же самое и среднее значение выборки. Следовательно, оценка максимального правдоподобия - это несмещенная оценка λ. Это также эффективная оценка, поскольку ее дисперсия достигает нижней границы Крамера – Рао (CRLB). Следовательно, это несмещенный с минимальной дисперсией. Также можно доказать, что сумма (и, следовательно, выборочное среднее значение, поскольку оно является взаимно однозначной функцией от суммы) является полной и достаточной статистикой для λ.

Чтобы доказать достаточность, мы можем использовать теорему факторизации . Рассмотрите возможность разделения вероятностной функции массы совместного распределения Пуассона для выборки на две части: одна, которая зависит исключительно от выборки x {\ displaystyle \ mathbf {x}}\ mathbf {x} (называемая h (x) {\ displaystyle h (\ mathbf {x})}h(\mathbf {x})) и тот, который зависит от параметра λ {\ displaystyle \ lambda}\ lambda и выборки x {\ displaystyle \ mathbf {x}}\ mathbf {x} только через функцию T (x) {\ displaystyle T (\ mathbf {x})}T( \mathbf {x}). Тогда T (x) {\ displaystyle T (\ mathbf {x})}T( \mathbf {x})является достаточной статистикой для λ {\ displaystyle \ lambda}\ lambda .

P (x) = ∏ я знак равно 1 N λ xie - λ xi! Знак равно 1 ∏ я знак равно 1 N Икс я! × λ ∑ я знак равно 1 nxie - n λ {\ displaystyle P (\ mathbf {x}) = \ prod _ {i = 1} ^ {n} {\ frac {\ lambda ^ {x_ {i}} e ^ { - \ lambda}} {x_ {i}!}} = {\ frac {1} {\ prod _ {i = 1} ^ {n} x_ {i}!}} \ times \ lambda ^ {\ sum _ { i = 1} ^ {n} x_ {i}} e ^ {- n \ lambda}}{\ displaystyle P (\ mathbf {x}) = \ prod _ {i = 1} ^ {n} {\ frac {\ lambda ^ {x_ {i}} e ^ {- \ lambda}} {x_ {i}!}} = {\ frac {1} { \ prod _ {i = 1} ^ {n} x_ {i}!}} \ times \ la mbda ^ {\ sum _ {i = 1} ^ {n} x_ {i}} e ^ {- n \ lambda} }

Первый член, h (x) {\ displaystyle h (\ mathbf {x})}h(\mathbf {x}), зависит только от x {\ displaystyle \ mathbf {x}}\ mathbf {x} . Второй член, g (T (x) | λ) {\ displaystyle g (T (\ mathbf {x}) | \ lambda)}g(T(\mathbf {x})|\lambda), зависит от образца только через Т ( Икс) знак равно ∑ я знак равно 1 NXI {\ Displaystyle Т (\ mathbf {х}) = \ сумма _ {я = 1} ^ {п} х_ {я}}T(\mathbf {x})=\sum _{i=1}^{n}x_{i}. Таким образом, T (x) {\ displaystyle T (\ mathbf {x})}T( \mathbf {x})достаточно.

Чтобы найти параметр, который максимизирует функцию вероятности для пуассоновской популяции, мы можем использовать логарифм функции правдоподобия:

ℓ (λ) = ln ⁡ ∏ i = 1 nf (ki ∣ λ) = ∑ i = 1 n ln (e - λ λ kiki!) = - n λ + (∑ i = 1 nki) ln ⁡ (λ) - i = 1 n ln ⁡ (ki!). {\ Displaystyle {\ begin {align} \ ell (\ lambda) = \ ln \ prod _ {i = 1} ^ {n} f (k_ {i} \ mid \ lambda) \\ = \ sum _ { я = 1} ^ {n} \ ln \! \ left ({\ frac {e ^ {- \ lambda} \ lambda ^ {k_ {i}}} {k_ {i}!}} \ right) \\ = -n \ lambda + \ left (\ sum _ {i = 1} ^ {n} k_ {i} \ right) \ ln (\ lambda) - \ sum _ {i = 1} ^ {n} \ ln (k_ {i}!). \ end {align}}}{\ displaystyle {\ begin {align} \ ell (\ lambda) = \ ln \ prod _ {i = 1} ^ {n} f (k_ {i} \ mid \ lambda) \\ = \ sum _ {i = 1} ^ {n} \ ln \! \ left ({\ frac {e ^ {- \ lambda} \ lambda ^ {k_ {i}}} {k_ {i}!}} \ right) \\ = - n \ lambda + \ left (\ sum _ {i = 1} ^ {n} k_ {i} \ right) \ ln (\ lambda) - \ sum _ {i = 1} ^ {n} \ ln (k_ {i}!). \ end {align}}}

Берем производную от ℓ {\ displaystyle \ ell}\ell по λ и сравниваем с нулем:

дд λ ℓ (λ) знак равно 0 ⟺ - N + (∑ я = 1 nki) 1 λ = 0. {\ displaystyle {\ frac {\ mathrm {d}} {\ mathrm {d} \ lambda}} \ ell (\ lambda) = 0 \ iff -n + \ left (\ sum _ {i = 1} ^ {n} k_ {i} \ right) {\ frac {1} {\ lambda}} = 0. \!}{\displaystyle {\frac {\mathrm {d} }{\mathrm {d} \lambda }}\ell (\lambda)=0\iff -n+\left(\sum _{i=1}^{n}k_{i}\right){\frac {1}{\lambda }}=0.\!}

Решение для λ дает стационарную точку.

λ = ∑ я = 1 nkin {\ displaystyle \ lambda = {\ frac {\ sum _ {i = 1} ^ {n} k_ {i}} {n}}}\lambda ={\frac {\sum _{i=1}^{n}k_{i}}{n}}

Итак, λ - среднее значения k i. Получение знака второй производной от L в точке экстремальной точки определит, что такое значение λ.

∂ 2 ℓ ∂ λ 2 знак равно - λ - 2 ∑ я знак равно 1 nki {\ displaystyle {\ frac {\ partial ^ {2} \ ell} {\ partial \ lambda ^ {2}}} = - \ lambda ^ {- 2} \ sum _ {i = 1} ^ {n} k_ {i}}{\displaystyle {\frac {\partial ^{2}\ell }{\partial \lambda ^{2}}}=-\lambda ^{-2}\sum _{i=1}^{n}k_{i}}

Вычисление второй производной в стационарной точке дает:

∂ 2 ℓ ∂ λ 2 = - n 2 ∑ i = 1 nki {\ displaystyle {\ frac {\ partial ^ {2} \ ell} {\ partial \ lambda ^ {2}}} = - {\ frac {n ^ {2}} {\ sum _ {i = 1 } ^ {n} k_ {i}}}{\displaystyle {\frac {\partial ^{2}\ell }{\partial \lambda ^{2}}}=-{\frac {n^{2}}{\sum _{i=1}^{n}k_{i}}}}

который является отрицательным в n раз обратным среднему значению k i. Это выражение отрицательно, когда среднее положительное. Если это выполнено, то стационарная точка максимизирует функцию вероятности.

Для полноты семейство распределений называется полным тогда и только тогда, когда E (g (T)) = 0 {\ displaystyle E (g (T)) = 0}E(g(T))=0означает, что P λ (g (T) = 0) = 1 {\ displaystyle P _ {\ lambda} (g (T) = 0) = 1}P_{\lambda }(g(T)=0)=1для всех λ {\ displaystyle \ lambda}\ lambda . Если человек Икс i {\ displaystyle X_ {i}}X_{i}имеет идентификатор P o (λ) {\ displaystyle \ mathrm {Po} (\ lambda)}\mathrm {Po} (\lambda), затем T (Икс) = ∑ я = 1 N Икс я ∼ Р о (N λ) {\ Displaystyle T (\ mathbf {x}) = \ sum _ {i = 1} ^ {n} X_ { i} \ sim \ mathrm {Po} (n \ lambda)}T(\mathbf {x})=\sum _{i=1}^{n}X_{i}\sim \mathrm {Po} (n\lambda). Зная распределение, которое мы хотим исследовать, легко увидеть, что статистика завершена.

E (g (T)) = ∑ t = 0 ∞ g (t) (n λ) t e - n λ t! Знак равно 0 {\ displaystyle E (g (T)) = \ sum _ {t = 0} ^ {\ infty} g (t) {\ frac {(n \ lambda) ^ {t} e ^ {- n \ лямбда}} {t!}} = 0}E(g(T))=\sum _{t=0}^{\infty }g(t){\frac {(n\lambda)^{t}e^{-n\lambda }}{t!}}=0

Для выполнения этого равенства g (t) {\ displaystyle g (t)}g (t) должен быть 0. Это следует из того факта, что ни один из других членов не будет равен 0 для t {\ displaystyle t}t в сумме и для всех примененных значений λ {\ displaystyle \ lambda}\ lambda . Следовательно, E (g (T)) = 0 {\ displaystyle E (g (T)) = 0}E(g(T))=0для всех λ {\ displaystyle \ lambda}\ lambda означает, что P λ (g (T) = 0) = 1 {\ displaystyle P _ {\ lambda} (g (T) = 0) = 1}P_{\lambda }(g(T)=0)=1, и статистика была методом быть полным.

Доверительный интервал

Доверительный интервал для среднего значения распределения Пуассона можно выразить с помощью отношений между кумулятивными функциями распределения Пуассона и хи. квадратные распределения. Само распределение хи-квадрат использует с гамма-распределением , и это приводит к альтернативному выражению. Учитывая наблюдение k из распределения Пуассона со средним значением μ, доверительный интервал для μ с показателем достоверности 1 - α равенство

1 2 χ 2 (α / 2; 2 k) ≤ μ ≤ 1 2 χ 2 (1 - α / 2 ; 2 к + 2), {\ displaystyle {\ tfrac {1} {2}} \ chi ^ {2} (\ alpha / 2; 2k) \ leq \ mu \ leq {\ tfrac {1} {2}} \ chi ^ {2} (1- \ alpha / 2; 2k + 2),}{\tfrac {1}{2}}\chi ^{2}(\alpha /2;2k)\leq \mu \leq {\tfrac {1}{2}}\chi ^{2}(1-\alpha /2;2k+2),

или эквивалентно,

F - 1 (α / 2; k, 1) ≤ μ ≤ F - 1 (1 - α / 2; к + 1, 1), {\ displaystyle F ^ {- 1} (\ alpha / 2; k, 1) \ leq \ mu \ leq F ^ {- 1} (1- \ alpha / 2; k + 1,1),}F^{-1}(\alpha /2;k,1)\leq \mu \leq F^{-1}(1-\alpha /2;k+1,1),

где χ 2 (p; n) {\ displaystyle \ chi ^ {2} (p; n)}\chi ^{2}(p;n)- это функция квантиля (соответствующая области нижнего хвоста p) распределения хи-квадрат с n степенями свободы и F - 1 (p; n, 1) {\ displaystyle F ^ {- 1} (p; n, 1)}F^{-1}(p;n,1)- функция квантиля гамма-распределения с параметром формы и параметром масштаба 1. Этот интервал является «точным » в том смысле, что что его вероятность охвата никогда не меньше н оминальной 1 - α.

Когда квантили гамма-распределения недоступны, было предложено точное приближение к этому точному интервалу (на основе преобразования Уилсона - Хильферти ):

k (1 - 1 9 k - z α / 2 3 k) 3 ≤ μ ≤ (к + 1) (1 - 1 9 (k + 1) + z α / 2 3 k + 1) 3, {\ displaystyle k \ left (1 - {\ frac {1)} {9k}} - {\ frac {z _ {\ alpha / 2}} {3 {\ sqrt {k}}}} \ right) ^ {3} \ leq \ mu \ leq (k + 1) \ left (1 - {\ frac {1} {9 (k + 1)}} + {\ frac {z _ {\ alpha / 2}} {3 {\ sqrt {k + 1}}}} \ right) ^ {3},}k \ left (1 - {\ frac {1} {9k}} - {\ frac {z _ {\ alpha / 2}} {3 {\ sqrt {k}}}} \ right) ^ {3} \ leq \ mu \ leq (k + 1) \ left (1 - {\ frac {1} {9 (k + 1)}} + {\ frac {z_ {\ alpha / 2}} {3 {\ sqrt {k + 1}}}} \ right) ^ {3},

где z α / 2 {\ displaystyle z _ {\ alpha / 2}}z _ {\ alpha / 2} обозначает стандартное нормальное отклонение с верхней областью хвоста α / 2.

Для применения этих формул в том же контексте, что и выше (учитывая выбор из n измеренных значений k i, каждое из извлечено из распределения Пуассона со средним λ), можно было бы установить

k = ∑ я = 1 nki, {\ displaystyle k = \ sum _ {i = 1} ^ {n} k_ {i}, \!}k = \ sum _ {i = 1} ^ {n} k_ {i}, \!

вычислить интервал для μ = nλ, а получить интервал для λ.

Байесовский вывод

В Байесовский вывод,, сопряженный априор для параметра скорости λ распределения Пуассона - это гамма-распределение. Пусть

λ ∼ G amma (α, β) {\ displaystyle \ lambda \ sim \ mathrm {Gamma} (\ alpha, \ beta) \!}\lambda \sim \mathrm {Gamma} (\alpha,\beta)\!

обозначает, что λ распределено в соответствии с гаммой плотность g, параметризованная с помощью параметра формы α и обратного плана масштаб β:

g (λ ∣ α, β) = β α Γ (α) λ α - 1 е - β λ при λ>0. {\ Displaystyle г (\ лямбда \ середина \ альфа, \ бета) = {\ гидроразрыва {\ бета ^ {\ альфа}} {\ Гамма (\ альфа)}} \; \ lambda ^ {\ alpha -1} \; e ^ {- \ beta \, \ lambda} \ qquad {\ text {for}} \ lambda>0 \, \!.}g(\lambda \mid \alpha,\beta)={\frac {\beta ^{\alpha }}{\Gamma (\alpha)}}\;\lambda ^{\alpha -1}\;e^{-\beta \,\lambda }\qquad {\text{ for }}\lambda>0 \, \!.

Затем, тот же из n измеренных значений k iКак и прежде, и априорное значение гаммы (α, β), апостериорное распределение равно

λ ∼ G amma (α + ∑ i = 1 nki, β + n) {. \ displaystyle \ lambda \ sim \ mathrm {Gamma} \ left (\ alpha + \ sum _ {i = 1} ^ {n} k_ {i}, \ beta + n \ right). \!}\lambda \sim \mathrm {Gamma} \left(\alpha +\sum _{i=1}^{n}k_{i},\beta +n\right).\!

Апостериорное среднее E [λ] приближается к оценке максимального правдоподобия λ ^ MLE {\ displaystyle {\ widehat {\ lambda}} _ {\ mathrm {MLE}}}{\widehat {\lambda }}_{\mathrm {MLE} }в пределе α → 0, β → 0 {\ displaystyle \ alpha \ to 0, \ beta \ to 0}\alpha \to 0,\ \beta \to 0, что непосредственно следует из общего выражения среднего значения гамма-распределения.

Апостериорное прогнозное распределение для одного дополнительного наблюдения представляет собой отрицательное биномиальное распределение, иног да называемое распределением гамма-Пуассона.

Одновременная оценка нескольких средних Пуассона

Предположим, X 1, X 2,…, X p {\ displaystyle X_ {1}, X_ {2}, \ dots, X_ { p}}X_ {1}, X_ {2}, \ dots, X_ {p} - набор независимых случайных величин из набора p {\ displaystyle p}pраспределений Пуассона, в соответствии с параметром λ i {\ displaystyle \ lambda _ {i }}\lambda _{i}, i = 1,…, p {\ displaystyle i = 1, \ dots, p}i=1,\dots,p, и мы хотели бы оценить эти параметры. Затем Клевенсон и Зидек показывают, что при нормированных квадратах потерь ошибок L (λ, λ ^) = ∑ i = 1 p λ i - 1 (λ ^ i - λ i) 2 {\ displaystyle L (\ lambda, { \ hat {\ lambda}}) = \ sum _ {i = 1} ^ {p} \ lambda _ {i} ^ {- 1} ({\ hat {\ lambda}} _ {i} - \ lambda _ { i}) ^ {2}}L(\lambda,{\hat {\lambda }})=\sum _{i=1}^{p}\lambda _{i}^{-1}({\hat {\lambda }}_{i}-\lamb da _{i})^{2}, когда p>1 {\ displaystyle p>1}p>1 , как в Стейна для нормальных средних оценок, оценка MLE λ ^ i = X i {\ displaystyle {\ hat {\ lambda}} _ {i} = X_ {i}}{\ hat {\ lambda}} _ {i} = X_ {i} является этим недопустимым.

В случае семейство из минимаксных оценки дается для любых 0 < c ≤ 2 ( p − 1) {\displaystyle 00<c\leq 2(p-1)и b ≥ (p - 2 + p - 1) {\ displaystyle b \ geq (p-2 + p ^ {- 1})}b\geq (p-2+p^{-1})as

λ ^ я знак равно (1 - CB + ∑ я знак равно 1 п Икс я) Икс я, я = 1,…, п. {\ Displaystyle {\ hat {\ lambda}} _ {i} = \ left (1 - {\ гидроразрыв {c} {b + \ sum _ {i = 1} ^ {p} X_ {i}}} \ right) X_ {i}, \ qquad i = 1, \ dots, p.}{\hat {\lambda }}_{i}=\left(1-{\frac {c}{b+\sum _{i=1}^{p}X_{i}}}\right)X_{i},\qquad i=1,\dots,p.
Возникновение и применение

Приложения распределения Пуассона можно найти во многих областях, включая:

Распределение Пуассона возникает в связи с процессами Пуассона. Он применяется к различным явлениям с дискретными свойствами (то есть к тем, которые могут происходить в течение 0, 1, 2, 3,... в течение данного периода времени или в данной области) всякий раз, когда вероятность возникновения постоянных явлений в время или пробел. Примеры событий, которые могут быть смоделированы как распределение Пуассона, включают:

  • Число солдат, убитых конными ударами каждый год в каждом корпусе в прусской кавалерии. Этот пример был использован в книге Ладислава Борткевича (1868–1931).
  • Количество дрожжевых клеток, используемых при приготовлении пива Guinness. Этот пример был использован Уильямом Сили Госсет (1876–1937).
  • Количество телефонных звонков, поступивших в телефонный центр в течение минуты. Этот пример описал А.К. Эрланг (1878–1929).
  • Интернет-трафик.
  • Количество голов в спорте с участием двух соревнующихся команд.
  • Количество смертей за год в данной возрастной группе.
  • Количество скачков цены акции в заданном временном интервале.
  • При предположении однородности, количество раз доступ к веб-серверу осуществляется в минуту.
  • Число мутаций данном участке ДНК после количества количества излучения.
  • Доля клеток, которые инфицированы данной совокупностью заражения.
  • Количество бактерий в определенном количестве жидкости.
  • Появление фотонов на схеме пикселя при заданном освещении и в течение заданного периода времени.
  • Нацеливание летающих бомбардиров V-1 в Лондон во время Второй мировой войны исследовал Р.Д. Кларк в 1946 году.

Галлахер показал в 1976 году, что подсчет простых чисел на коротких интервалах подчиняется правилу Пуассона. При условии, что верна определенная версия недоказанной гипотезы Харди-Литтлвуда о простых числах r-кортежей.

Закон редких событий

Сравнение распределения Пуассона (черные линии) и биномиального распределения при n = 10 (красные кружки), n = 20 (синие кружки), n = 1000 (зеленые кружки). Все распределения имеют среднее значение 5. На горизонтальной оси показано количество событий k. По мере увеличения n распределения Пуассона становится все более приближенным к биномиальному распределению с тем же средним размером.

Скорость события связана с вероятностью события, происходящего в некотором небольшом подынтервале (времени, пространства или иного). В случае распределения Пуассона, что существует достаточно малый подинтервал, для которого вероятность того, что произойдет дважды, «пренебрежимо мала». С этим предположением можно вывести распределение Пуассона из биномиального совокупного числа событий во всем интервале. Пусть это общее число будет λ {\ displaystyle \ lambda}\ lambda . Разделите весь интервал на n {\ displaystyle n}n подынтервала I 1,…, I n {\ displaystyle I_ {1}, \ dots, I_ {n}}I_ {1}, \ dots, I_ {n} равного размера, так что n {\ displaystyle n}n >λ {\ displaystyle \ lambda}\ lambda (поскольку нас интересуют только очень маленькие части интервала, это предположение значимый). Это означает ожидаемое количество событий в интервале I i {\ displaystyle I_ {i}}I_{i}для каждого i {\ displaystyle i}iравно λ / п {\ displaystyle \ lambda / n}\lambda /n. Теперь мы предполагаем, что возникновение событий во всем интервале можно рассматривать как испытание Бернулли, где i {\ displaystyle i ^ {th}}i ^ {th} соответствует испытанию для проверки того, происходит ли На подынтервале I i {\ displaystyle I_ {i}}I_{i}с вероятностью λ / n {\ displaystyle \ lambda / n}\lambda /n. Ожидаемое количество общих событий в n {\ displaystyle n}n таких испытаний будет λ {\ displaystyle \ lambda}\ lambda , ожидаемое количество общих событий в весь интервал. Следовательно, для каждого подразделения интервала мы аппроксимировали возникновение процесса Бернулли в форме B (n, λ / n) {\ displaystyle {\ textrm {B}} (n, \ lambda / n)}{\textrm {B}}(n,\lambda /n). Как мы уже отмечали ранее, мы рассматриваем только очень маленькие подынтервалы. Следовательно, мы принимаем предел, поскольку n {\ displaystyle n}n уходит в бесконечность. В этом случае биномиальное распределение сходится к так называемому распределению Пуассона по предельной теореме Пуассона.

. В некоторых из приведенных выше примеров, таких как количество мутаций в данной ДНК, используются подсчитанные результаты настоящих дискретных испытаний, и моделируются с использованием биномиального распределения, то есть

X ∼ B (n, п). {\ Displaystyle X \ sim {\ textrm {B}} (п, р). \,}X \ sim {\ textrm {B}} ( n, p). \,

В таких случаях n очень велико, а p очень мало (и поэтому математическое ожидание np имеет промежуточную позицию). Это распределение может быть аппроксимировано менее громоздким распределением Пуассона

X ∼ Pois (n p). {\ Displaystyle X \ sim {\ textrm {Pois}} (NP). \,}X\sim {\textrm {Pois}}(np).\,

Это приближение иногда называют законом редких событий, поскольку каждое из n отдельных событий Бернулли редко имеет место. Название может вводить в заблуждение, потому что общее количество успешных событий в пуассоновском процессе не обязательно должно быть редким, если параметр np не мал. Например, количество телефонных звонков на загруженный коммутатор за один час сообщает распределению Пуассона, при этом события кажутся операторы частыми, но они редко совершит звонок на тот коммутатор в тот час.

Слово закон иногда используется как синоним вероятностного распределения, а конвергенция означает закона конвергенцию в распределении. Соответственно, распределение Пуассона иногда называют «закономерностью малых чисел», потому что это распределение вероятностей количества появлений случается редко. Закон малых чисел - это книга Ладислава Борткевича о распределении Пуассона, опубликованная в 1898 году.

Точечный процесс Пуассона

Распределение Пуассона возникает как количество точек Пуассона. точечный процесс, расположенный в некоторой конечной области. Более конкретно, если D - некоторое пространство области, например евклидово пространство области R, для которого | D |, площадь, объем или в более общем смысле, мера Лебега области конечна, и если N (D) обозначает количество точек в D, тогда

P (N (D) = k) = (λ | D |) ke - λ | D | к!. {\ Displaystyle P (N (D) = k) = {\ frac {(\ lambda | D |) ^ {k} e ^ {- \ lambda | D |}} {k!}}.}P (N (D) = k) = {\ frac {(\ lambda | D |) ^ {k} e ^ {- \ lambda | D | }} {k!}}.

Пуассон регрессия и отрицательная биномиальная регрессия

регрессия Пуассона и отрицательная биномиальная регрессия количество полезны для анализа, в котором зависимая (ответная) переменная представляет собой (0, 1, 2,...) количества событий или вхождений в интервал.

Другие приложения в науке

В пуассоновском процессе наблюдаемых явлений колеблется около своего среднего значения λ со стандартным значением σ k = λ {\ displaystyle \ sigma _ {k} = {\ sqrt {\ lambda}}}\sigma _{k}={\sqrt {\lambda }}. Эти флуктуации обозначаются как пуассоновский шум или (особенно в электронике) как дробовой шум.

. Корреляция среднего и стандартного отклонения при подсчете независимых дискретных явлений полезна с научной точки зрения. Наблюдая за тем, как колебания меняются в зависимости от среднего сигнала, можно оценить вклад одного события, даже если этот вклад слишком мал для непосредственного наблюдения. Например, заряд e на электроне можно оценить путем корреляции величиной электрического тока с его дробовым шумом. Если N электронов в среднем проходит точку за заданный момент времени t, средний ток равен I = e N / t {\ displaystyle I = eN / t}I=eN/t; поскольку текущие колебания должны быть порядка σ I = e N / t {\ displaystyle \ sigma _ {I} = e {\ sqrt {N}} / t}\sigma _{I}=e{\sqrt {N}}/t(т. е. стандартное отклонение процесса Пуассона ), заряд e {\ displaystyle e}eможно оценить по результатению t σ I 2 / I {\ displaystyle t \ sigma _ {I} ^ {2} / I}t\sigma _{I}^{2}/I.

Обычный пример - зернистость, которая появляется при увеличении фотографий; зернистость обусловлена ​​пуассоновскими колебаниями количества восстановленных зерен серебра, а не самими отдельными зернами. Путем корреляции зернистости со степенью увеличения можно оценить вклад отдельной зернистости (которая в противном случае слишком мала, чтобы ее можно было увидеть без посторонней помощи). Было разработано множество других молекулярных приложений пуассоновского шума, например, для оценки плотности молекул рецептора в клеточной мембране.

Pr (N t = k) = f (k; λ t) = (λ t) ke - λ tk!. {\ displaystyle \ Pr (N_ {t} = k) = е (k; \ lambda t) = {\ frac {(\ lambda t) ^ {k} e ^ {- \ lambda t}} {k!}}.}{\ displaystyle \ Pr (N_ {t} = k) = f (k; \ lambda t) = {\ frac {(\ lambda t) ^ {k} e ^ {- \ lambda t}} {k!}}.}

В теории Причинного множества дискретные элементы пространства-времени следуют распределению Пуассона в объеме.

Вычислительные методы

Распределение Пуассона ставит две разные задачи для специализированных программных библиотек: Оценка распределения P (k; λ) {\ displaystyle P (k; \ lambda)}{\displaystyle P(k;\lambda)}и рисование случайных чисел в соответствии с этим распределением.

Оценка распределения Пуассона

Вычисление P (k; λ) {\ displaystyle P (k; \ lambda)}{\displaystyle P(k;\lambda)}для данного k { \ displaystyle k}kи λ {\ displaystyle \ lambda}\ lambda - тривиальная задача, которую можно решить, используя стандартное определение P (k; λ). {\ displaystyle P (k; \ lambda)}{\displaystyle P(k;\lambda)}в терминах экспоненциальной, степенной и факториальной функций. Однако обычное определение распределения Пуассона содержит два термина, которые могут легко переполниться на компьютерах: λ и k !. От λ до k! может также вызвать ошибку округления, которая очень велика по сравнению с e, и, следовательно, дать ошибочный результат. Поэтому для численной устойчивости функция вероятностных масс Пуассона должна оцениваться как

f (k; λ) = exp ⁡ [k ln ⁡ λ - λ - ln ⁡ Γ (k + 1)], {\ displaystyle \! F ( k; \ lambda) = \ exp \ left [k \ ln \ lambda - \ lambda - \ ln \ Gamma (k + 1) \ right],}{\displaystyle \!f(k;\lambda)=\exp \left[k\ln \lambda -\lambda -\ln \Gamma (k+1)\right],}

что математически эквивалентно, но численно стабильно. Натуральный логарифм гамма-функции можно получить с помощью функции lgammaв стандартной библиотеке C (версия C99) или R, функция gammalnв MATLAB или SciPy или функция log_gammaв Fortran 2008 и позже.

Некоторые языки программирования предоставляют встроенные функции для оценки распределения Пуассона, а именно

  • R : function dpois (x, lambda);
  • Excel : function POISSON (x, среднее, кумулятивное), с флагом для указания кумулятивного распределения;
  • Mathematica : одномерное распределение Пуассона как Распределение Пуассона [λ {\ displaystyle \ lambda}\ lambda ], двумерное Распределение Пуассона как Многомерное распределение Пуассона [θ 12 {\ displaystyle \ theta _ {12}}{\displaystyle \theta _{12}}, {θ 1 - θ 12 {\ displaystyle \ theta _ {1} - \ theta _ {12}}{\displaystyle \theta _{1}-\theta _{12}}, θ 2 - θ 12 {\ displaystyle \ theta _ {2} - \ theta _ {12}}{\ displaystyle \ theta _ {2} - \ theta _ {12}} }],.

Случайное извлечение из распределения Пуассона

Менее тривиальная задача заключается в извлечении случайных целых чисел из распределения Пуассона с заданным λ {\ displaystyle \ lambda}\ lambda .

Решения предоставляются:

Генерация случайных величин с распределением Пуассона

Простой алгоритм для генерации случайных чисел с распределением Пуассона (выборка псевдослучайных чисел ) был предоставлен алгоритмом Кнута :

случайным числом Пуассона ( Knuth): init : Пусть L ← e, k ← 0 и p ← 1. do : k ← k + 1. Сгенерировать равномерное случайное число u в [0,1 ] и пусть p ← p × u., а p>L. return k - 1.

Сложность зависит от возвращаемого значения k, которое в среднем равно λ. Есть много других алгоритмов для улучшения этого. Некоторые из них приведены в Ahrens Dieter, см. § Ссылки ниже.

Для больших значений λ значение L = e может быть настолько малым, что его трудно представить. Это может быть решено путем изменения алгоритма, который использует дополнительный параметр STEP, чтобы e не переполнялся:

алгоритм случайное число Пуассона (Junhao, на основе Knuth): init : Пусть λLeft ← λ, k ← 0 и p ← 1. do : k ← k + 1. Сгенерировать равномерное случайное число u в (0,1) и let p ← p × u. while p < 1 and λLeft>0: if λLeft>STEP: p ← p × e λLeft ← λLeft - STEP else : p ← p × e λLeft ← 0 тогда как p>1. return k - 1.

Выбор ШАГА зависит от порога переполнения. Для формата с плавающей запятой двойной точности порог близок к e, поэтому 500 должно быть безопасным ШАГОМ.

Другие решения для больших значений λ включают выборку отклонения и использование гауссовой аппроксимации.

Выборка с обратным преобразованием проста и эффективна для малых значений λ и требует только одного однородного случайного числа u на выборку. Кумулятивные вероятности исследуются по очереди, пока одна из них не превысит u.

алгоритм Генератор Пуассона на основе инверсии путем последовательного поиска: init : Пусть x ← 0, p ← e, s ← p. Сгенерируйте равномерное случайное число u в [0,1]. в то время как u>s do : x ← x + 1. p ← p × λ / x. s ← s + p. вернуть x.
История

Распределение было впервые введено Симеоном Дени Пуассоном (1781–1840) и опубликовано вместе с его теорией вероятностей в его работе Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1837). В работе теоретизировалось количество неправомерных приговоров в данной стране, фокусируясь на определенных случайных величинах N, которые учитывают, среди прочего, количество дискретных происшествий (иногда называемых «событиями» или «прибытием»), которые происходят в течение временного -интервала заданной длины. Результат был дан еще в 1711 году Абрахамом де Муавром в De Mensura Sortis seu; de Probabilitate Eventuum в Ludis a Casu Fortuito Pendentibus. Это делает его примером закона Стиглера и побуждает некоторых авторов утверждать, что распределение Пуассона должно носить имя де Муавра.

В 1860 году Саймон Ньюкомб подогнал распределение Пуассона к количеству звезд в единице пространства. Дальнейшее практическое применение этого распределения было сделано Ладиславом Борткевичем в 1898 г., когда ему было поручено исследовать количество солдат в прусской армии, случайно убитых ногами лошадей; этот эксперимент представил распределение Пуассона в области проектирования надежности.

См. также
Ссылки

Цитаты

Источники

Последняя правка сделана 2021-06-02 09:20:47
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте