Геометрическое распределение

редактировать
Геометрический
Вероятностная функция масс Geometric pmf.svg
Кумулятивная функция распределения Geometric cdf.svg
Параметры0 < p ≤ 1 {\displaystyle 0{\displaystyle 0<p\leq 1}вероятность успеха (действительный )0 < p ≤ 1 {\displaystyle 0{\displaystyle 0<p\leq 1}вероятность успеха (реальная )
Поддержка k испытаний, где k ∈ {1, 2, 3,…} {\ displaystyle k \ in \ {1,2,3, \ dots \}}{\displaystyle k\in \{1,2,3,\dots \}}k отказов, где k ∈ {0, 1, 2, 3,…} {\ displaystyle k \ in \ {0,1,2,3, \ dots \}}{\displaystyle k\in \{0,1,2,3,\dots \}}
PMF (1 - p) k - 1 p {\ displaystyle (1-p) ^ {k-1} p}{\displaystyle (1-p)^{k-1}p}(1 - p) kp {\ displaystyle (1-p) ^ {k} p }{\displaystyle (1-p)^{k}p}
CDF 1 - (1 - p) k {\ displaystyle 1- (1-p) ^ {k}}{\displaystyle 1-(1-p)^{k}}1 - (1 - p) k + 1 {\ displaystyle 1- ( 1-p) ^ {k + 1}}{\displaystyle 1-(1-p)^{k+1}}
Среднее 1 p {\ displaystyle {\ frac {1} {p}}}{\frac {1}{p}}1 - pp {\ displaystyle {\ frac {1-p } {p}}}{\frac {1-p}{p}}
Медиана

⌈ - 1 log 2 ⁡ (1 - p) ⌉ {\ displaystyle \ left \ lceil {\ frac {-1} {\ log _ {2} (1-p)}} \ right \ rceil}{\displaystyle \left\lceil {\frac {-1}{\log _{2}(1-p)}}\right\rceil }.

(не уникально, если - 1 / log 2 ⁡ (1 - p) {\ displaystyle -1 / \ log _ {2} (1-p)}-1/\log _{2}(1-p)- целое число)

⌈ - 1 log 2 ⁡ (1 - p) ⌉ - 1 {\ displa ystyle \ left \ lceil {\ frac {-1} {\ log _ {2} (1-p)}} \ right \ rceil -1}{\displaystyle \left\lceil {\frac {-1}{\log _{2}(1-p)}}\right\rceil -1}.

(не уникально, если - 1 / log 2 ⁡ ( 1 - p) {\ displaystyle -1 / \ log _ {2} (1-p)}-1/\log _{2}(1-p)целое число)
Mode 1 {\ displaystyle 1}10 { \ displaystyle 0}{\displaystyle 0}
Дисперсия 1 - pp 2 {\ displaystyle {\ frac {1-p} {p ^ {2}}}}{\displaystyle {\frac {1-p}{p^{2}}}}1 - pp 2 {\ displaystyle {\ frac {1 -p} {p ^ {2}}}}{\displaystyle {\frac {1-p}{p^{2}}}}
Асимметрия 2 - p 1 - p {\ displaystyle {\ frac {2-p} {\ sqrt {1-p}}}}{\displaystyle {\frac {2-p}{\sqrt {1-p}}}}2 - п 1 - п {\ displaystyle {\ frac {2-p} {\ sqrt {1-p}}}}{\displaystyle {\frac {2-p}{\sqrt {1-p}}}}
Пример. эксцесс 6 + p 2 1 - p {\ displaystyle 6 + {\ frac {p ^ {2}} {1-p}}}{\displaystyle 6+{\frac {p^{2}}{1-p}}}6 + p 2 1 - p {\ displaystyle 6 + {\ гидроразрыв {p ^ {2}} {1-p}}}{\displaystyle 6+{\frac {p^{2}}{1-p}}}
Энтропия - (1 - p) log 2 ⁡ (1 - p) - p log 2 ⁡ pp {\ displaystyle {\ tfrac {- (1-p) \ log _ {2} (1-p) -p \ log _ {2} p} {p}}}{\displaystyle {\tfrac {-(1-p)\log _{2}(1-p)-p\log _{2}p}{p}}}- (1 - p) журнал 2 ⁡ (1 - p) - p журнал 2 ⁡ пп {\ Displaystyle {\ tfrac {- (1-p) \ log _ {2} (1-p) -p \ log _ {2} p} {p}}}{\displaystyle {\tfrac {-(1-p)\log _{2}(1-p)-p\log _{2}p}{p}}}
MGF pet 1 - (1 - p) et, {\ displaystyle {\ frac {pe ^ {t}} {1- (1-p) e ^ {t}}},}{\displaystyle {\frac {pe^{t}}{1-(1-p)e^{t}}},}. для t < − ln ⁡ ( 1 − p) {\displaystyle t<-\ln(1-p)}{\displaystyle t<-\ln(1-p)}p 1 - (1 - p) et {\ displaystyle {\ frac {p} {1- (1-p) e ^ {t}}}}{\displaystyle {\frac {p}{1-(1-p)e^{t}}}}
CF peit 1 - (1 - p) eit {\ displaystyle {\ frac { pe ^ {it}} {1- (1-p) e ^ {it}}}}{\displaystyle {\frac {pe^{it}}{1-(1-p)e^{it}}}}p 1 - (1 - p) eit {\ displaystyle {\ frac {p} {1- (1-p) e ^ {it}}}}{\displaystyle {\frac {p}{1-(1-p)e^{it}}}}

В теории вероятностей и статистики геометрическое распределение представляет собой одно из двух дискретных распределений вероятностей :

  • Распределение вероятностей числа X из испытаний Бернулли, необходимых для достижения одного успеха, подтвержденного на множестве {1, 2, 3,...}
  • Вероятность распределение числа Y = X - 1 неудач до первого успеха, поддерживаемое на множестве {0, 1, 2, 3,...}

Какое из этих названий "геометрическое распределение" является вопросом условность и удобство.

Эти два разных геометрических распределения не следует путать друг с другом. Часто вместо прежнего (распределение числа X) принимается название "сдвинутое геометрическое распределение"; однако, чтобы избежать двусмысленности, считается разумным указать, что предполагается, путем явного упоминания поддержки.

Геометрическое распределение дает вероятность того, что для первого успешного выполнения потребуется k независимых испытаний, каждое с вероятностью успеха p. Если вероятность успеха в каждом испытании равна p, то вероятность того, что k-е испытание (из k испытаний) является первым успешным, равна

Pr (X = k) = (1 - p) k - 1 p {\ displaystyle \ Pr (X = k) = (1-p) ^ {k-1} p}{\displaystyle \Pr(X=k)=(1-p)^{k-1}p}

для k = 1, 2, 3,....

Приведенная выше форма геометрического Распределение используется для моделирования числа попыток до первого успеха включительно. Напротив, следующая форма геометрического распределения используется для моделирования количества отказов до первого успеха:

Pr (Y = k) = (1 - p) kp {\ displaystyle \ Pr (Y = k) = (1-p) ^ {k} p}{\displaystyle \Pr(Y=k)=(1-p)^{k}p}

для k = 0, 1, 2, 3,....

В любом случае последовательность вероятностей является геометрической последовательностью.

Например, предположим, что обычный кубик бросается несколько раз, пока не появится первая цифра «1». Распределение вероятности количества бросков поддерживается на бесконечном множестве {1, 2, 3,...} и является геометрическим распределением с p = 1/6.

Геометрическое распределение обозначается как Geo (p), где 0 < p ≤ 1.

Содержание
  • 1 Определения
    • 1.1 Допущения: когда геометрическое распределение является подходящей моделью?
    • 1.2 Примеры вероятностных результатов
  • 2 Свойства
    • 2.1 Моменты и кумулянты
      • 2.1.1 Примеры ожидаемых значений
    • 2.2 Общие свойства
  • 3 Связанные распределения
  • 4 Статистический вывод
    • 4.1 Оценка параметров
  • 5 Вычислительные методы
    • 5.1 Геометрическое распределение с использованием R
    • 5.2 Геометрическое распределение с использованием Excel
  • 6 См. Также
  • 7 Ссылки
  • 8 Внешние ссылки
Определения

Рассмотрим последовательность испытаний, где каждое испытание имеет только два возможных исхода (обозначенный провал и успех). Предполагается, что вероятность успеха одинакова для каждого испытания. В такой последовательности испытаний геометрическое распределение полезно для моделирования количества отказов до первого успеха. Распределение дает вероятность того, что будет ноль отказов перед первым успехом, одна неудача перед первым успехом, две неудачи перед первым успехом и так далее.

Допущения: Когда геометрическое распределение является подходящей моделью?

Геометрическое распределение является подходящей моделью, если верны следующие предположения.

  • Моделируемое явление представляет собой последовательность независимых испытаний.
  • Для каждого испытания есть только два возможных исхода, часто обозначаемых как успех или неудача.
  • Вероятность успеха p равна то же самое для каждого испытания.

Если эти условия верны, то геометрическая случайная величина Y является подсчетом количества неудач до первого успеха. Возможное количество неудач до первого успеха - 0, 1, 2, 3 и так далее. На графиках выше эта формулировка показана справа.

Альтернативная формулировка состоит в том, что геометрическая случайная величина X представляет собой общее количество испытаний до первого успеха включительно, а количество неудач равно X - 1. На графиках выше эта формулировка показана на слева.

Примеры вероятностных результатов

Общая формула для расчета вероятности k отказов до первого успеха, где вероятность успеха равна p, а вероятность отказа q = 1 - p, имеет вид

Pr (Y = k) = qkp. {\ displaystyle \ Pr (Y = k) = q ^ {k} \, p.}\Pr(Y=k)=q^{k}\,p.

для k = 0, 1, 2, 3,....

E1) Врач - это поиск антидепрессанта для недавно диагностированного пациента. Предположим, что среди доступных антидепрессантов вероятность того, что какое-либо конкретное лекарство будет эффективным для конкретного пациента, равна p = 0,6. Какова вероятность того, что первое лекарство, оказавшееся эффективным для этого пациента, было испытано первым, вторым и так далее? Какое ожидаемое количество лекарств будет предпринято для поиска эффективного?

Вероятность того, что первое лекарство подействует. До первого успеха нет ни одного провала. Y = 0 отказов. Вероятность P (ноль неудач до первого успеха) - это просто вероятность того, что первое лекарство подействует.

Pr (Y = 0) = q 0 p = 0,4 0 × 0,6 = 1 × 0,6 = 0,6. {\ displaystyle \ Pr (Y = 0) = q ^ {0} \, p \ = 0,4 ^ {0} \ times 0,6 = 1 \ times 0,6 = 0,6.}{\displaystyle \Pr(Y=0)=q^{0}\,p\ =0.4^{0}\times 0.6=1\times 0.6=0.6.}

Вероятность того, что первое лекарство не сработает, но второй препарат работает. Перед первым успехом остается одна неудача. Y = 1 сбой. Вероятность для этой последовательности событий равна P (первое лекарство неэффективно) × {\ displaystyle \ times}\times p (второе лекарство успешно), что определяется как

Pr (Y = 1) = q 1 p = 0,4 1 × 0,6 = 0,4 × 0,6 = 0,24. {\ displaystyle \ Pr (Y = 1) = q ^ {1} \, p \ = 0,4 ^ {1} \ times 0,6 = 0,4 \ times 0,6 = 0,24.}{\displaystyle \Pr(Y=1)=q^{1}\,p\ =0.4^{1}\times 0.6=0.4\times 0.6=0.24.}

Вероятность того, что первое лекарство не сработает, второй препарат не помогает, а третий действует. Перед первым успехом есть две неудачи. Y = 2 отказа. Вероятность этой последовательности событий равна P (первое лекарство не помогает) × {\ displaystyle \ times}\times p (второе лекарство не помогает) × {\ displaystyle \ times}\times P (третье лекарство - успех)

Pr (Y = 2) = q 2 p, = 0,4 2 × 0,6 = 0,096. {\ displaystyle \ Pr (Y = 2) = q ^ {2} \, p, = 0,4 ^ {2} \ times 0,6 = 0,096.}{\displaystyle \Pr(Y=2)=q^{2}\,p,=0.4^{2}\times 0.6=0.096.}

E2) Пара молодоженов планирует завести детей и будет продолжать до первая девушка. Какова вероятность того, что будет ноль мальчиков перед первой девочкой, один мальчик перед первой девочкой, два мальчика перед первой девочкой и так далее?

Вероятность иметь девочку (успех) равна p = 0,5, а вероятность иметь мальчика (неудача) равна q = 1 - p = 0,5.

Вероятность отсутствия мальчиков до первой девочки равна

Pr (Y = 0) = q 0 p = 0,5 0 × 0,5 = 1 × 0,5 = 0,5. {\ displaystyle \ Pr (Y = 0) = q ^ {0} \, p \ = 0,5 ^ {0} \ times 0,5 = 1 \ times 0,5 = 0,5.}{\displaystyle \Pr(Y=0)=q^{0}\,p\ =0.5^{0}\times 0.5=1\times 0.5=0.5.}

Вероятность того, что один мальчик окажется раньше первой девочки равно

Pr (Y = 1) = q 1 p = 0,5 1 × 0,5 = 0,5 × 0,5 = 0,25. {\ displaystyle \ Pr (Y = 1) = q ^ {1} \, p \ = 0,5 ^ {1} \ times 0,5 = 0,5 \ times 0,5 = 0,25.}{\displaystyle \Pr(Y=1)=q^{1}\,p\ =0.5^{1}\times 0.5=0.5\times 0.5=0.25.}

Вероятность появления двух мальчиков раньше первой девочки равно

Pr (Y = 2) = q 2 p = 0,5 2 × 0,5 = 0,125. {\ displaystyle \ Pr (Y = 2) = q ^ {2} \, p \ = 0,5 ^ {2} \ times 0,5 = 0,125.}{\displaystyle \Pr(Y=2)=q^{2}\,p\ =0.5^{2}\times 0.5=0.125.}

и так далее.

Свойства

Моменты и кумулянты

ожидаемое значение количества независимых испытаний для получения первого успеха геометрически распределенного случайная величина X - 1 / p, а дисперсия - (1 - p) / p:

E ⁡ (X) = 1 p, var ⁡ (X) = 1 - pp 2. {\ displaystyle \ operatorname {E} (X) = {\ frac {1} {p}}, \ qquad \ operatorname {var} (X) = {\ frac {1-p} {p ^ {2}}}.}{\displaystyle \operatorname {E} (X)={\frac {1}{p}},\qquad \operatorname {var} (X)={\frac {1-p}{p^{2}}}.}

Точно так же ожидаемое значение геометрически распределенной случайной величины Y = X - 1 (где Y соответствует PMF, указанной в правом столбце) равно q / p = (1 - p) / p, а его дисперсия равно (1 - p) / p:

E ⁡ (Y) = 1 - pp, var ⁡ (Y) = 1 - pp 2. {\ displaystyle \ operatorname {E} (Y) = {\ frac {1-p} {p}}, \ qquad \ operatorname {var} (Y) = {\ frac {1-p} {p ^ {2} }}.}{\displaystyle \operatorname {E} (Y)={\frac {1-p}{p}},\qquad \operatorname {var} (Y)={\frac {1-p}{p^{2}}}.}

Пусть μ = (1 - p) / p - ожидаемое значение Y. Тогда кумулянты κ n {\ displaystyle \ kappa _ {n}}\kappa _{n}распределения вероятностей Y удовлетворяют рекурсии

κ n + 1 = μ (μ + 1) d κ nd μ. {\ displaystyle \ kappa _ {n + 1} = \ mu (\ mu +1) {\ frac {d \ kappa _ {n}} {d \ mu}}.}\kappa _{n+1}=\mu (\mu +1){\frac {d\kappa _{n}}{d\mu }}.

Схема доказательства: ожидаемое значение (1 - p) / p может быть показано следующим образом. Пусть Y будет таким, как указано выше. Тогда

E (Y) = ∑ k = 0 ∞ (1 - p) kp ⋅ k = p ∑ k = 0 ∞ (1 - p) kk = p (1 - p) ∑ k = 0 ∞ (1 - p) k - 1 ⋅ k = p (1 - p) [ddp (- ∑ k = 0 ∞ (1 - p) k)] = p (1 - p) ddp (- 1 p) = 1 - pp. {\ Displaystyle {\ begin {align} \ mathrm {E} (Y) {} = \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} p \ cdot k \\ {} = p \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} k \\ {} = p (1-p) \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k-1} \ cdot k \\ {} = p (1-p) \ left [{\ frac {d} {dp}} \ left (- \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} \ right) \ right] \\ {} = p (1-p) {\ frac {d} {dp}} \ left (- { \ frac {1} {p}} \ right) = {\ frac {1-p} {p}}. \ end {align}}}{\begin{aligned}\mathrm {E} (Y){}=\sum _{k=0}^{\infty }(1-p)^{k}p\cdot k\\{}=p\sum _{k=0}^{\infty }(1-p)^{k}k\\{}=p(1-p)\sum _{k=0}^{\infty }(1-p)^{k-1}\cdot k\\{}=p(1-p)\left[{\frac {d}{dp}}\left(-\sum _{k=0}^{\infty }(1-p)^{k}\right)\right]\\{}=p(1-p){\frac {d}{dp}}\left(-{\frac {1}{p}}\right)={\frac {1-p}{p}}.\end{aligned}}

(Замена суммирования и дифференцирования оправдана тем, что сходящиеся степенные ряды сходятся равномерно на компактных подмножествах множества точек, где они сходятся.)

Примеры ожидаемых значений

E3) Пациент ожидает подходящего подходящего донора почки для трансплантации. Если вероятность того, что случайно выбранный донор является подходящим совпадением, равна p = 0,1, каково ожидаемое количество доноров, которые будут протестированы до того, как будет найден подходящий донор?

При p = 0,1 среднее количество отказов до первого успеха равно E (Y) = (1 - p) / p = (1 - 0,1) /0,1 = 9.

Для альтернативной формулировки, где X - количество испытаний до первого успеха включительно, ожидаемое значение будет E (X) = 1 / p = 1 / 0,1 = 10.

Для примера 1 выше, при p = 0,6 среднее количество неудач до первого успеха составляет E (Y) = (1 - p) / p = (1 - 0,6) / 0,6 = 0,67.

Общие свойства

GX (s) = sp 1 - s (1 - p), GY ( s) = p 1 - s (1 - p), | с | < ( 1 − p) − 1. {\displaystyle {\begin{aligned}G_{X}(s)={\frac {s\,p}{1-s\,(1-p)}},\\[10pt]G_{Y}(s)={\frac {p}{1-s\,(1-p)}},\quad |s|<(1-p)^{-1}.\end{aligned}}}{\begin{aligned}G_{X}(s)={\frac {s\,p}{1-s\,(1-p)}},\\[10pt]G_{Y}(s)={\frac {p}{1-s\,(1-p)}},\quad |s|<(1-p)^{-1}.\end{aligned}}
  • Как и его непрерывный аналог (экспоненциальное распределение ), геометрическое распределение - без памяти. Это означает, что если вы намереваетесь повторять эксперимент до первого успеха, тогда, учитывая, что первый успех еще не произошел, условное распределение вероятностей количества дополнительных испытаний не зависит от того, сколько неудач было обнаружено. Кость, которую бросают, или подбрасываемая монета не имеют «памяти» об этих неудачах. Геометрическое распределение является единственным дискретным распределением без памяти.

P r {X>m + n | X>n} = P r {X>m} {\ displaystyle Pr \ {X>m + n | X>n \} = Pr \ {X>m \}}{\displaystyle Pr\{X>m + n | X>n \} = Pr \ {X>m \}}

  • Среди всех дискретных распределений вероятностей, поддерживаемых на {1, 2, 3,...} с заданным ожидаемым значением μ, геометрическое распределение X с параметром p = 1 / μ является тем, у которого наибольшая энтропия.
  • Геометрическое распределение числа Y неудач до первого успеха бесконечно делимо, то есть для любого положительного целого числа n существуют независимые одинаково распределенные случайные величины Y 1,..., Y n, сумма которых имеет то же распределение, что и Y. Они не будут геометрически распределены, если n = 1; они следуют отрицательному биномиальному распределению.
  • Десятичное цифры геометрически распределенной случайной величины Y представляют собой последовательность независимых (и не одинаково распределенных) случайных переменных iables. Например, цифра сотен D имеет следующее распределение вероятностей:
Pr (D = d) = q 100 d 1 + q 100 + q 200 + ⋯ + q 900, {\ displaystyle \ Pr (D = d) = { q ^ {100d} \ over 1 + q ^ {100} + q ^ {200} + \ cdots + q ^ {900}},}\Pr(D=d)={q^{100d} \over 1+q^{100}+q^{200}+\cdots +q^{900}},
где q = 1 - p, и аналогично для других цифр, и в более общем смысле аналогично для систем счисления с основанием, отличным от 10. Когда основание равно 2, это показывает, что геометрически распределенная случайная величина может быть записана как сумма независимых случайных величин, распределения вероятностей которых неразложимое.
  • кодирование Голомба - это оптимальный префиксный код для геометрического дискретного распределения.
  • Сумма двух независимых Geo (p) распределенных случайных величин не является геометрическим распределением.
Связанные распределения
Z = ∑ m = 1 r Y m {\ displaystyle Z = \ sum _ {m = 1 } ^ {r} Y_ {m}}Z=\sum _{m=1}^{r}Y_{m}
следует отрицательному биномиальному распределению с параметрами r и p.
  • Геометрическое распределение является частным случаем дискретного составного распределения Пуассона.
  • Если Y 1,..., Y r - независимые геометрически распределенные переменные (с возможно разными параметрами успеха p m), тогда их минимум
W = min m ∈ 1,…, r Y m {\ displaystyle W = \ min _ {m \ in 1, \ ldots, r} Y_ {m} \,}{\displaystyle W=\min _{m\in 1,\ldots,r}Y_{m}\,}
также имеет геометрическое распределение с параметром p = 1 - ∏ м (13 - вечера). {\ displaystyle p = 1- \ prod _ {m} (1-p_ {m}).}p=1-\prod _{m}(1-p_{m}).
∑ k = 1 ∞ k X k {\ displaystyle \ sum _ {k = 1} ^ {\ infty} k \, X_ {k}}\sum _{k=1}^{\infty }k\,X_{k}
имеет геометрическое распределение, принимающее значения в наборе {0, 1, 2,...} с математическим ожиданием r / (1 - r).
  • экспоненциальное распределение является непрерывным аналогом геометрического распределения. Если X - экспоненциально распределенная случайная величина с параметром λ, то
Y = ⌊ X ⌋, {\ displaystyle Y = \ lfloor X \ rfloor,}Y=\lfloor X\rfloor,
где ⌊ ⌋ {\ displaystyle \ lfloor \ quad \ rfloor}\lfloor \quad \rfloor - функция floor (или наибольшее целое число), геометрически распределенная случайная величина с параметром p = 1 - e (таким образом, λ = −ln (1 - p)) и принимает значения из набора {0, 1, 2,...}. Это можно использовать для генерации геометрически распределенных псевдослучайных чисел, сначала генерируя экспоненциально распределенные псевдослучайные числа из однородного генератора псевдослучайных чисел : затем ⌊ ln ⁡ (U) / ln ⁡ ( 1 - p) ⌋ {\ displaystyle \ lfloor \ ln (U) / \ ln (1-p) \ rfloor}\lfloor \ln(U)/\ln(1-p)\rfloor геометрически распределен с параметром p {\ displaystyle p}p, если U {\ displaystyle U}Uравномерно распределен в [0,1].
  • Если p = 1 / n и X геометрически распределен с параметром p, то распределение X / n приближается к экспоненциальному распределению с ожидаемым значением 1 при n → ∞, поскольку
P (X / n>a) = P (X>na) = (1 - p) na = (1 - 1 n) na = [(1 - 1 n) n] a → [e - 1] a = e - a при n → ∞. {\ Displaystyle {\ begin {align} P (X / n>a) = P (X>na) = (1-p) ^ {na} = \ left (1 - {\ frac {1} {n}) } \ right) ^ {na} = \ left [\ left (1 - {\ frac {1} {n}} \ right) ^ {n} \ right] ^ {a} \\ \ to [e ^ { -1}] ^ {a} = e ^ {- a} {\ text {as}} n \ to \ infty. \ End {align}}}{\displaystyle {\begin{aligned}P(X/n>a) = P (X>na) = (1-p) ^ {na} = \ left (1 - {\ frac {1} {n}} \ right) ^ {na} = \ left [\ left (1 - {\ frac {1} { n}} \ right) ^ {n} \ right] ^ {a} \\ \ to [e ^ {- 1}] ^ {a} = e ^ {- a} {\ text {as}} n \ в \ infty. \ end {align}}} В более общем смысле, если p = λx / n, где λ - параметр, то при n → ∞ распределение приближается к экспоненциальному распределению с математическим ожиданием λ, которое дает общее определение экспоненциального распределения
P (X>x) знак равно лим N → ∞ (1 - λ Икс / N) N знак равно λ е - λ Икс {\ Displaystyle P (X>х) = \ lim _ {п \ к \ infty} (1- \ лямбда х / п) ^ {n} = \ lambda e ^ {- \ lambda x}}{\displaystyle P(X>x) = \ lim _ {n \ to \ infty} (1- \ lambda x / n) ^ {n} = \ лямбда e ^ {- \ lambda x}}
поэтому функция распределения x равна 1 - e - λ x {\ displaystyle 1-e ^ {- \ lambda x}}{\displaystyle 1-e^{-\lambda x}}и дифференцируя функцию плотности вероятности экспоненциальной функции, получаем
f X (x) = λ e - λ x {\ displaystyle f_ {X} (x) = \ lambda e ^ {- \ lambda x}}{\displaystyle f_{X}(x)=\lambda e^{-\lambda x}}для x ≥ 0.
Статистический вывод

Оценка параметра

Для обоих вариантов геометрического распределения параметр p можно оценить, приравняв ожидаемое значение к выборочному среднему. Это метод моментов, который в данном случае дает оценки максимального правдоподобия p.

В частности, для первого варианта пусть k = k 1,..., k n быть выборкой, где k i ≥ 1 для i = 1,..., n. Тогда p можно оценить как

p ^ = (1 n ∑ i = 1 n k i) - 1 = n ∑ i = 1 n k i. {\ displaystyle {\ widehat {p}} = \ left ({\ frac {1} {n}} \ sum _ {i = 1} ^ {n} k_ {i} \ right) ^ {- 1} = { \ frac {n} {\ sum _ {i = 1} ^ {n} k_ {i}}}. \!}{\widehat {p}}=\left({\frac {1}{n}}\sum _{i=1}^{n}k_{i}\right)^{-1}={\frac {n}{\sum _{i=1}^{n}k_{i}}}.\!

В байесовском выводе Бета-распределение является сопряженным предшествующим распределением для параметра p. Если этому параметру задано Beta (α, β) предшествующее, то апостериорное распределение равно

p ∼ B eta (α + n, β + ∑ i = 1 n (ки - 1)). {\ displaystyle p \ sim \ mathrm {Beta} \ left (\ alpha + n, \ \ beta + \ sum _ {i = 1} ^ {n} (k_ {i} -1) \ right). \!}p\sim \mathrm {Beta} \left(\alpha +n,\ \beta +\sum _{i=1}^{n}(k_{i}-1)\right).\!

Апостериорное среднее E [p] приближается к оценке максимального правдоподобия p ^ {\ displaystyle {\ widehat {p}}}{\widehat {p}}, когда α и β стремятся к нулю.

В альтернативном случае, пусть k 1,..., k n будет выборкой, где k i ≥ 0 для i = 1,..., п. Тогда p можно оценить как

p ^ = (1 + 1 n ∑ i = 1 n k i) - 1 = n ∑ i = 1 n k i + n. {\ displaystyle {\ widehat {p}} = \ left (1 + {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} k_ {i} \ right) ^ {- 1} = {\ frac {n} {\ sum _ {i = 1} ^ {n} k_ {i} + n}}. \!}{\widehat {p}}=\left(1+{\frac {1}{n}}\sum _{i=1}^{n}k_{i}\right)^{-1}={\frac {n}{\sum _{i=1}^{n}k_{i}+n}}.\!

Апостериорное распределение p при априорном бета (α, β)

p ∼ B eta (α + n, β + ∑ i = 1 nki). {\ displaystyle p \ sim \ mathrm {Beta} \ left (\ alpha + n, \ \ beta + \ sum _ {i = 1} ^ {n} k_ {i} \ right). \!}p\sim \mathrm {Beta} \left(\alpha +n,\ \beta +\sum _{i=1}^{n}k_{i}\right).\!

Снова апостериорное среднее E [p] приближается к оценке максимального правдоподобия p ^ {\ displaystyle {\ widehat {p}}}{\widehat {p}}, когда α и β стремятся к нулю.

Для любой оценки p ^ {\ displaystyle {\ widehat {p}}}{\widehat {p}}с использованием максимального правдоподобия смещение равно

b ≡ E ⁡ [( p ^ mle - p)] = p (1 - p) n {\ displaystyle b \ Equiv \ operatorname {E} {\ bigg [} \; ({\ hat {p}} _ {\ mathrm {mle}} - p) \; {\ bigg]} = {\ frac {p \, (1-p)} {n}}}{\displaystyle b\equiv \operatorname {E} {\bigg [}\;({\hat {p}}_{\mathrm {mle} }-p)\;{\bigg ]}={\frac {p\,(1-p)}{n}}}

, что дает оценку максимального правдоподобия с поправкой на смещение

p ^ mle ∗ = p ^ mle - b ^ {\ displaystyle {\ hat {p \,}} _ {\ text {mle}} ^ {*} = {\ hat {p \,}} _ {\ text {mle }} - {\ hat {b \,}}}{\displaystyle {\hat {p\,}}_{\text{mle}}^{*}={\hat {p\,}}_{\text{mle}}-{\hat {b\,}}}
Вычислительные методы

Геометрическое распределение с использованием R

Функция R dgeom (k, prob)вычисляет вероятность того, что будет k неудач до первого успеха, где аргумент «prob» - это вероятность успеха в каждом испытании.

Например,

dgeom (0,0.6) = 0,6

dgeom (1,0,6) = 0,24

R использует соглашение о том, что k - это количество отказов, так что число Количество испытаний до первого успеха включительно равно k + 1.

Следующий код R создает график геометрического распределения от Y = 0 до 10, с p = 0,6.

Y = 0: 10

plot (Y, dgeom (Y, 0.6), type = "h", ylim = c (0,1), main = "Геометрическое распределение для p = 0.6", ylab = "P (Y = Y)", xlab = "Y = количество неудач до первого успеха")

Геометрическое распределение с использованием Excel

Геометрическое распределение количества неудач до первого успеха: частный случай отрицательного биномиального распределения для количества неудач перед s успехами.

Функция Excel ОТРБИНОМРАСП (число_f, число_s, вероятность_s)вычисляет вероятность k = число_f неудач до того, как s = число_s успехов, где p = вероятность_s - вероятность успеха в каждом испытании. Для геометрического распределения пусть number_s = 1 успех.

Например,

= ОТРБИНОМРАСП (0, 1, 0,6)= 0,6

= ОТРБИНОМРАСП (1, 1, 0,6)= 0,24

Нравится R, в Excel используется соглашение, согласно которому k - это количество неудач, поэтому количество попыток до первого успеха включительно равно k + 1.

См. Также
Ссылки
Внешние ссылки
=== !!! == Знак равно <2>{\ displaystyle W = \ min _ {m \ in 1, \ ldots, r} Y_ {m} \,} <2><3>\ lfloor \ ln (U) / \ ln (1-p) \ rfloor <3><4>{\ displaystyle {\ frac {pe ^ {it}} {1- (1-p) e ^ {it}}}} <4><5>\ kappa _ {n} <5><6>{\ displaystyle \ Pr (Y = 0) = q ^ {0} \, p \ = 0,4 ^ {0} \ times 0,6 = 1 \ times 0,6 = 0,6.} <6><7>{\ displaystyle 1-e ^ {- \ lambda x}} <7><8>Z = \ sum _ {m = 1} ^ {r} Y_ {m} <8><9>{\ displaystyle {\ frac {1-p} {p ^ {2}}}} <9><10>{\ widehat {p}} <10><11>{\ displaystyle (1-p) ^ {k} p} <11><12>\ times <12><13>{\ displaystyle \ operatorname {E} (X) = {\ frac {1} {p}}, \ qquad \ operatorname {var} (X) = {\ frac {1 -p} {p ^ {2}}}.} <13><14>{\ displaystyle {\ frac {p} {1- (1-p) e ^ {it}}}} <14><15>{\ displaystyle P (X>x) = \ lim _ {n \ to \ infty} (1- \ lambda x / n) ^ {n} = \ lambda e ^ {- \ lambda x}} <15><16>p <16><17>\ sum _ {k = 1} ^ {\ infty} k \, X_ {k} <17><18>{\ displaystyle {\ begin {align} P (X / n>a) = P (X>na) = (1-p) ^ {na} = \ left (1 - {\ frac {1} {n}} \ right) ^ {na} = \ left [\ left (1 - {\ frac {1} {n}} \ right) ^ {n} \ right] ^ {a} \\ \ to [e ^ {- 1}] ^ { a} = e ^ {- a} {\ text {as}} n \ to \ infty. \ end {align}}} <18><19>{\ displaystyle 1- (1-p) ^ {k + 1 }} <19><20>{\ displaystyle f_ {X} (x) = \ lambda e ^ {- \ lambda x}} <20><21>{\ displaystyle 1- (1-p) ^ {k} } <21><22>{\ displaystyle \ Pr (Y = 0) = q ^ {0} \, p \ = 0,5 ^ {0} \ times 0,5 = 1 \ times 0,5 = 0,5.} <22><23>-1 / \ журнал _ {2} (1-p) <23><24>{\ displaystyle k \ in \ {0,1,2,3, \ dots \}} <24><25>{\ displaystyle {\ frac {pe ^ {t}} {1- (1-p) e ^ {t}}},} <25><26>{\ displaystyle \ Pr (Y = 1) = q ^ {1} \, p \ = 0,5 ^ {1} \ times 0,5 = 0,5 \ times 0,5 = 0,25.} <26><27>\ Pr (Y = k) = q ^ {k} \, p. <27><28>\ lfloor \ quad \ rfloor <28><29>{\ displaystyle k \ in \ {1,2,3, \ dots \}} <29><30>Геометрический cdf.svg <30><31>{\ displaystyle 0

<32>{\ displaystyle Pr \ {X>m + n | X>n \} = Pr \ {X>m \}} <32><33>U <33><34>Y = \ lfloor X \ rfloor, <34><35>{\ displaystyle 0} <35><36>{\ displaystyle {\ frac {2-p} {\ sqrt {1-p}}} } <36><37>{\ displaystyle {\ frac {p} {1- (1-p) e ^ {t}}}} <37><38>p = 1- \ prod _ {m} (1 -p_ {m}). <38><39>{\ displaystyle (1-p) ^ {k-1} p} <39><40>p \ sim \ mathrm {Beta} \ left (\ alpha + n, \ \ beta + \ sum _ {i = 1} ^ {n} k_ {i} \ right). \! <40><41>{\ displa ystyle t <- \ ln (1-p)} <41><42>{\ frac {1-p} {p}} <42><43>{\ begin {align} \ mathrm {E} (Y) {} = \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} p \ cdot k \\ {} = p \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} k \\ {} = p (1-p) \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k-1} \ cdot k \ \ {} = p (1-p) \ left [{\ frac {d} {dp}} \ left (- \ sum _ {k = 0} ^ {\ infty} (1-p) ^ {k} \ right) \ right] \\ {} = p (1-p) {\ frac {d} {dp}} \ left (- {\ frac {1} {p}} \ right) = {\ frac { 1-p} {p}}. \ End {align}} <43><44>\ kappa _ {n + 1} = \ mu (\ mu +1) {\ frac {d \ kappa _ {n}} {d \ mu}}. <44><45>{\ displaystyle \ left \ lceil {\ frac {-1} {\ log _ {2} (1-p)}} \ right \ rceil -1} <45><46>Геометрический pmf.svg <46><47>{\ displaystyle {\ tfrac {- (1-p) \ log _ {2} (1-p) -p \ log _ {2} p} {p }}} <47><48>\ Pr (D = d) = {q ^ {100d} \ over 1 + q ^ {100} + q ^ {200} + \ cdots + q ^ {900}}, <48><49>{\ displaystyle \ left \ lceil {\ frac {-1} {\ log _ {2} (1-p)}} \ right \ rceil} <49><50>{\ displaystyle 6+ { \ frac {p ^ {2}} {1-p}}} <50><51>{\ displaystyle \ Pr (X = k) = (1-p) ^ {k-1} p} <51><52>{\ widehat {p}} = \ left (1 + {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} k_ {i} \ right) ^ {- 1} = {\ frac {n} {\ sum _ {i = 1} ^ {n} k_ {i} + n}}. \! <52><53>{\ frac {1} {p}} <53><54>{\ begin {align} G_ {X} (s) = {\ frac {s \, p} {1-s \, (1-p)}}, \\ [10pt] G_ {Y} (s) = {\ frac {p} {1-s \, (1-p)}}, \ quad | s | <(1-p) ^ {- 1}. \ end {align}} <54><55>{\ widehat {p}} = \ left ({\ frac {1} {n}} \ sum _ {i = 1} ^ {n} k_ {i} \ right) ^ {- 1} = {\ frac {n} {\ sum _ {i = 1} ^ {n} k_ {i}}}. \! <55><56>{\ displaystyle b \ Equiv \ operatorname {E} {\ bigg [} \; ({\ hat {p}} _ {\ mathrm {mle}} -p) \; {\ bigg]} = {\ frac {p \, (1-p)} {n}}} <56><57>1<57><58>{\ displaystyle \ operatorname {E} (Y) = {\ frac {1-p} {p}}, \ qquad \ operatorname {var} (Y) = {\ frac { 1-p} {p ^ {2}}}.} <58><59>{\ displaystyle \ Pr (Y = 1) = q ^ {1} \, p \ = 0,4 ^ {1} \ times 0,6 = 0,4 \ раз 0,6 = 0,24.} <59><60>{\ displaystyle \ Pr (Y = 2) = q ^ {2} \, p \ = 0,5 ^ {2} \ times 0,5 = 0,125.} <60><61>{\ displaystyle {\ hat {p \,}} _ {\ text {mle}} ^ {*} = {\ hat {p \,}} _ {\ text {mle}} - {\ hat { б \,}}} <61><62>{\ displaystyle \ Pr (Y = k) = (1-p) ^ {k} p} <62><63>{\ displaystyle \ Pr (Y = 2) = q ^ {2} \, p, = 0,4 ^ {2} \ times 0,6 = 0,096.} <63><64>p \ sim \ mathrm {Beta} \ left (\ alpha + n, \ \ beta + \ сумма _ {i = 1} ^ {n} (k_ {i} -1) \ right). \! <64>html

Последняя правка сделана 2021-05-21 03:44:33
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте