Доверительный интервал биномиальной пропорции

редактировать
Статистический доверительный интервал для подсчетов успехов

В статистике, a доверительный интервал биномиальной пропорции - это доверительный интервал для вероятности успеха, рассчитанной по результатам серии экспериментов «успех-неудача» (испытания Бернулли ). Другими словами, доверительный интервал биномиальной пропорции представляет собой интервальную оценку вероятности успеха p, когда известны только количество экспериментов n и количество успешных n S.

Существует несколько формул для биномиального доверительного интервала, но все они основаны на предположении о биномиальном распределении. В общем, биномиальное распределение применяется, когда эксперимент повторяется фиксированное количество раз, каждое испытание эксперимента имеет два возможных результата (успех и неудача), вероятность успеха одинакова для каждого испытания, а количество испытаний статистически независимый. Поскольку биномиальное распределение является дискретным распределением вероятностей (т. Е. Не непрерывным) и его трудно вычислить для большого количества испытаний, для вычисления этого доверительного интервала используются различные приближения, все со своими собственными компромиссами в точности и вычислительная интенсивность.

Простым примером биномиального распределения является набор различных возможных результатов и их вероятностей для количества орлов, наблюдаемых, когда монета подбрасывается десять раз. Наблюдаемая биномиальная пропорция - это доля флипов, которые оказываются решенными. Учитывая эту наблюдаемую пропорцию, доверительный интервал для истинной вероятности выпадения монеты орлом представляет собой диапазон возможных пропорций, которые могут содержать или не содержать истинную пропорцию. Например, 95% доверительный интервал для пропорции будет содержать истинную долю 95% случаев, когда используется процедура построения доверительного интервала.

Содержание
  • 1 Нормальный интервал аппроксимации
    • 1.1 Стандартная ошибка оценки доли при использовании взвешенных данных
  • 2 Интервал оценки Уилсона
    • 2,1 Интервал оценки Вильсона с поправкой на непрерывность
  • 3 Интервал Джеффриса
  • 4 Интервал Клоппера – Пирсона
  • 5 Интервал Агрести – Кулла
  • 6 Преобразование арксинуса
  • 7 t преобразование
  • 8 Правило трех - когда не наблюдается успехов
  • 9 Сравнение различных интервалов
  • 10 См. Также
  • 11 Ссылки
Нормальный интервал аппроксимации

Обычно используемая формула для биномиального доверительного интервала основана на аппроксимации распределения ошибок для биномиально распределенного наблюдения, p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} , с нормальным распределением. Это приближение основано на центральной предельной теореме и ненадежно, если размер выборки мал или вероятность успеха близка к 0 или 1.

Используя нормальное приближение, вероятность успеха p оценивается как

p ^ ± zp ^ (1 - p ^) n, {\ displaystyle {\ hat {p}} \ pm z {\ sqrt {\ frac {{\ hat {p}} \ left (1 - {\ hat {p}} \ right)} {n}}},}{\ displaystyle {\ hat {p}} \ pm z {\ sqrt {\ frac {{\ hat {p}} \ left (1 - {\ hat {p}} \ right)} {n}}},}

или эквивалент

n S n ± znnn S n F, {\ displaystyle {\ frac {n_ {S}} { n}} \ pm {\ frac {z} {n {\ sqrt {n}}}} {\ sqrt {n_ {S} n_ {F}}},}{\ displaystyle {\ frac {n_ {S}} {n}} \ pm {\ frac {z} {n {\ sqrt {n}}} } {\ sqrt {n_ {S} n_ {F}}},}

где p ^ = n S / n {\ displaystyle {\ hat {p}} = n_ {S} / n}{\ displaystyle {\ hat {p}} = n_ {S } / n} - доля успехов в процессе испытания Бернулли, измеренная с помощью n { \ displaystyle n}n испытания, дающие n S {\ displaystyle n_ {S}}n_ {S} успехи и n F = n - n S {\ displaystyle n_ {F} = n-n_ {S}}{\ displaystyle n_ {F} = n-n_ {S}} сбои, и z {\ displaystyle z}z - 1 - α 2 {\ displaystyle 1 - {\ tfrac { \ alpha} {2}}}{\ displaystyle 1 - {\ tfrac {\ alpha} {2}}} квантиль стандартного нормального распределения (т. е. пробит ), что соответствует целевой частоте ошибок α {\ displaystyle \ alpha}\ альфа . Для уровня достоверности 95% ошибка α = 1 - 0,95 = 0,05 {\ displaystyle \ alpha = 1-0,95 = 0,05}{\ displaystyle \ alpha = 1-0.95 = 0,05} , поэтому 1 - α 2 = 0,975 {\ displaystyle 1 - {\ tfrac {\ alpha} {2}} = 0,975}{\ displaystyle 1 - {\ tfrac {\ alpha} {2}} = 0,975} и z = 1,96 {\ displaystyle z = 1,96}{\ displaystyle z = 1,96} .

Важный теоретический вывод этого доверительного интервала включает инверсия проверки гипотезы. В этой формулировке доверительный интервал представляет те значения параметра совокупности, которые имели бы большие p-значения, если бы они были протестированы как гипотетическая пропорция совокупности. Набор значений, θ {\ displaystyle \ theta}\ theta , для которых допустимо нормальное приближение, можно представить как

{θ | y ≤ p ^ - θ 1 np ^ (1 - p ^) ≤ z α 2}, {\ displaystyle \ left \ {\ theta \, \, {\ bigg |} \, \, y \ leq {\ frac { {\ hat {p}} - \ theta} {\ sqrt {{\ frac {1} {n}} {\ hat {p}} \ left (1 - {\ hat {p}} \ right)}}} \ leq z _ {\ tfrac {\ alpha} {2}} \ right \},}{\ displaystyle \ left \ {\ theta \, \, {\ bigg |} \, \, y \ leq {\ frac {{\ hat {p}} - \ theta} {\ sqrt { {\ frac {1} {n}} {\ hat {p}} \ left (1 - {\ hat {p}} \ right)}}} \ leq z _ {\ tfrac {\ alpha} {2}} \ right \},}

где y {\ displaystyle y}y - α 2 {\ displaystyle { \ tfrac {\ alpha} {2}}}{\ displaystyle {\ tfrac {\ alpha} {2}}} квантиль стандартного нормального распределения . Поскольку тест в середине неравенства является тестом Вальда, нормальный интервал аппроксимации иногда называют интервалом Вальда, но впервые он был описан Пьером-Симоном Лапласом. в 1812 году.

Стандартная ошибка оценки доли при использовании взвешенных данных

Пусть существует простая случайная выборка X 1,…, X n {\ displaystyle X_ { 1}, \ ldots, X_ {n}}X_1, \ ldots, X_n , где каждый X i {\ displaystyle X_ {i}}X_ {i} равен iid из Бернулли (p) распределение и вес wi {\ displaystyle w_ {i}}w_ {i} - вес для каждого наблюдения. Стандартизируйте (положительные) веса wi {\ displaystyle w_ {i}}w_ {i} так, чтобы они в сумме равнялись 1. пропорция взвешенной выборки : p ^ = ∑ i Знак равно 1 nwi Икс я {\ displaystyle {\ hat {p}} = \ sum _ {i = 1} ^ {n} w_ {i} X_ {i}}{\ displaystyle {\ hat {p}} = \ sum _ {i = 1} ^ {n} w_ {i} X_ {i}} . Поскольку Икс i {\ displaystyle X_ {i}}X_ {i} независимы и у каждого есть дисперсия, Var (X i) = p (1 - p) {\ displaystyle {\ text { Var}} (X_ {i}) = p (1-p)}{\ displaystyle {\ text {Var}} (X_ {i}) = p (1-p)} , поэтому выборочная дисперсия пропорции равна:

Var (p ^) = ∑ i Знак равно 1 N Вар (ω я Икс я) знак равно п (1 - п) ∑ я знак равно 1 N ω я 2 {\ Displaystyle {\ текст {Вар}} ({\ шляпа {р}}) = \ сумма _ {я = 1} ^ {n} {\ text {Var}} (\ omega _ {i} X_ {i}) = p (1-p) \ sum _ {i = 1} ^ {n} \ omega _ {i } ^ {2}}{\ displaystyle {\ текст {Var}} ({\ hat {p}}) = \ sum _ {i = 1} ^ {n} {\ text {Var}} (\ omega _ {i} X_ {i}) = p (1 -p) \ sum _ {i = 1} ^ {n} \ omega _ {i} ^ {2}} .

стандартная ошибка для p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} - это квадратный корень из этой величины. Поскольку мы не знаем p (1 - p) {\ displaystyle p (1-p)}{\ displaystyle p (1-p)} , мы должны оценить его. Хотя существует множество возможных оценок, обычным является использование p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} , выборочное среднее, и вставка его в формулу. Это дает:

SE (p ^) = p ^ (1 - p ^) ∑ i = 1 nwi 2 {\ displaystyle {\ text {SE}} ({\ hat {p}}) = {\ sqrt { {\ hat {p}} (1 - {\ hat {p}}) \ sum _ {i = 1} ^ {n} w_ {i} ^ {2}}}}{\ displaystyle {\ text {SE}} ({\ hat {p}}) = {\ sqrt {{\ hat {p}} (1 - {\ hat {p}}) \ sum _ {i = 1 } ^ {n} w_ {i} ^ {2}}}}

Для невзвешенных данных wi = 1 / n {\ displaystyle w_ {i} = 1 / n}{\ displaystyle w_ {i} = 1 / n} , что дает ∑ i = 1 nwi 2 = 1 / n {\ displaystyle \ sum _ {i = 1} ^ {n} w_ {i} ^ {2} = 1 / n}{\ displaystyle \ sum _ {i = 1} ^ {n} w_ {i} ^ {2} = 1 / n} . SE становится p (1 - p) / n {\ displaystyle {\ sqrt {p (1-p) / n}}}{\ displaystyle {\ sqrt {p (1-p) / n}}} , что приводит к знакомым формулам, показывающим, что расчет для взвешенные данные являются их прямым обобщением.

Интервал оценки Вильсона

Интервал оценки Вильсона является улучшением по сравнению с нормальным интервалом аппроксимации, поскольку фактическая вероятность охвата ближе к номинальному значению. Он был разработан Эдвином Бидуэллом Уилсоном (1927).

Уилсон начал с нормального приближения к биному:

z ≈ (p - p ^) σ n {\ displaystyle z \ приблизительно {\ frac {~ \ left (\, p - {\ hat {p}} \, \ right) ~} {\ sigma _ {n}}}}{\ displaystyle z \ приблизительно {\ frac {~ \ left (\, p - {\ hat {p}) } \, \ right) ~} {\ sigma _ {n}}}}

с аналитической формулой для стандартного отклонения выборки задается

σ N = п (1 - p) n {\ displaystyle \ sigma _ {n} = {\ sqrt {\, {\ frac {\, p \ left (1-p \ right) \,} {n}} ~}} ~}{\ displaystyle \ sigma _ {n} = {\ sqrt {\, {\ frac {\, p \ left (1 -p \ right) \,} {n}} ~}} ~} .

Объединение двух и возведение радикала в квадрат дает уравнение, квадратичное по p:

(p ^ - p) 2 = z 2 ⋅ p (1 - p) n {\ displaystyle \ left (\, {\ hat {p}} - p \, \ right) ^ {2} = z ^ {2} \ cdot {\ frac {\, p \ left (1-p \ справа) \,} {n}}}{\ displaystyle \ left (\, {\ hat {p}} - p \, \ right) ^ {2} = z ^ {2} \ c точка {\ гидроразрыва {\, p \ left (1-p \ right) \,} {n}}}

Преобразование отношения в квадратное уравнение стандартной формы для p с учетом p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} и n как известные значения из выборки (см. предыдущий раздел), а использование значения z, которое соответствует желаемой достоверности для оценки p, дает следующее:

(1 + z 2 n) p 2 + (- 2 p ^ - z 2 n) p + (p ^ 2) = 0 { \ Displaystyle {\ biggl (} 1 + {\ frac {\, z ^ {2} \,} {n}} {\ biggr)} \, p ^ {2} + {\ biggl (} -2 {\ шляпа {p}} - {\ frac {\, z ^ {2} \,} {n}} {\ biggr)} \, p + {\ biggl (} {\ hat {p}} ^ {2} {\ biggr)} = 0 ~}{\ displaystyle {\ biggl (} 1 + {\ frac {\, z ^ {2} \,} {n}} {\ biggr)} \, p ^ {2 } + {\ biggl (} -2 {\ hat {p}} - {\ frac {\, z ^ {2} \,} {n}} {\ biggr)} \, p + {\ biggl (} {\ шляпа {p}} ^ {2} {\ biggr)} = 0 ~} ,

где все значения в скобках являются известными величинами. Решение для p оценивает верхний и нижний пределы доверительного интервала для p. Следовательно, вероятность успеха p оценивается как

1 1 + z 2 n (p ^ + z 2 2 n) ± z 1 + z 2 np ^ (1 - p ^) n + z 2 4 n 2 {\ displaystyle {\ frac {1} {~ 1 + {\ frac {\, z ^ {2} \,} {n}} ~}} \ left ({\ hat {p}} + {\ frac {\, z ^ {2} \,} {2n}} \ right) \ pm {\ frac {z} {~ 1 + {\ frac {z ^ {2}} {n}} ~}} {\ sqrt {{\ frac {\, ​​{\ hat {p}} (1 - {\ hat {p}}) \,} {n}} + {\ frac {\, z ^ {2} \,} {4n ^ {2}} } ~}}}{\ displaystyle {\ frac {1} {~ 1 + {\ frac {\, z ^ {2} \,} {n}} ~}} \ left ({\ hat {p}} + {\ frac {\, z ^ {2} \,} {2n}} \ right) \ pm {\ frac {z} {~ 1 + {\ frac {z ^ {2}} {n}} ~}} {\ sqrt {{\ frac {\, {\ hat {p}} (1 - {\ hat {p}}) \,} { n}} + {\ frac {\, z ^ {2} \,} {4n ^ {2}}} ~}}}

или эквивалент

n S + 1 2 z 2 n + z 2 ± zn + z 2 n S n F n + z 2 4. {\ displaystyle {\ frac {~ n_ {S} + {\ tfrac {1} {2}} z ^ {2} ~} {n + z ^ {2}}} \ pm {\ frac {z} {n + z ^ {2}}} {\ sqrt {{\ frac {~ n_ {S} \, n_ {F} ~} {n}} + {\ frac {z ^ {2}} {4}} ~} } ~.}{\ displaystyle {\ frac {~ n_ {S} + {\ tfrac {1} {2}} z ^ {2} ~} {n + z ^ {2}}} \ pm {\ frac {z} {n + z ^ {2}}} {\ sqrt {{\ frac {~ n_ {S} \, n_ {F} ~} {n}} + {\ frac {z ^ {2}} {4}} ~}} ~.}

Практическое наблюдение при использовании этого интервала состоит в том, что он имеет хорошие свойства даже для небольшого числа испытаний и / или с крайней вероятностью.

Интуитивно центральное значение этого интервала - это средневзвешенное значение p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} и 1 2 {\ displaystyle {\ tfrac {1} {2}}}{\ tfrac {1} {2}} , где p ^ {\ displaystyle {\ hat {p}}}{\ hat {p}} получает больший вес по мере увеличения размера выборки. Формально центральное значение соответствует использованию псевдосчета 1/2 z², количества стандартных отклонений доверительного интервала: добавьте это число как к количеству успехов, так и к количеству неудач, чтобы получить оценку соотношение. Для общих двух стандартных отклонений в каждом интервале направлений (примерно 95% охват, что само по себе составляет примерно 1,96 стандартных отклонений), это дает оценку (n S + 2) / (n + 4) {\ displaystyle (n_ { S} +2) / (n + 4)}{\ displaystyle (п_ {S} +2) / (п + 4)} , которое известно как «правило плюс четыре».

Хотя квадратичная функция может быть решена явно, в большинстве случаев уравнения Вильсона также могут быть решены численно с использованием итерации с фиксированной точкой

pk + 1 = p ^ ± z ⋅ pk ⋅ (1 - pk) n {\ displaystyle p_ {k + 1} = {\ hat {p}} \ pm z \ cdot {\ sqrt {\ frac {p_ {k} \ cdot \ left (1-p_ {k} \ right)} {п }}}}{\ displaystyle p_ {k +1} = {\ hat {p}} \ pm z \ cdot {\ sqrt {\ frac {p_ {k} \ cdot \ left (1-p_ {k} \ right)} {n}}}}

с p 0 = p ^ {\ displaystyle p_ {0} = {\ hat {p}}}{\ displaystyle p_ {0} = {\ hat {p}}} .

Интервал Вильсона может быть получен из критерия хи-квадрат Пирсона. с двумя категориями. Результирующий интервал

{θ | y ≤ п ^ - θ 1 N θ (1 - θ) ≤ z}, {\ displaystyle \ left \ {\ theta \, \, {\ bigg |} \, \, y \ leq {\ frac {{\ hat {p}} - \ theta} {\ sqrt {{\ tfrac {1} {n}} \ theta (1- \ theta)}}} \ leq z \ right \},}{\ displaystyle \ left \ {\ theta \, \, {\ bigg |} \, \, y \ leq { \ frac {{\ hat {p}} - \ theta} {\ sqrt {{\ tfrac {1} {n}} \ theta (1- \ theta)}}} \ leq z \ right \},}

затем можно решить для θ {\ displaystyle \ theta}\ theta для получения интервала оценки Вильсона. Тест в середине неравенства представляет собой оценочный тест.

интервал оценки Вильсона с поправкой на непрерывность

Интервал Вильсона может быть изменен с помощью поправки на непрерывность, чтобы для согласования минимальной вероятности охвата, а не средней вероятности, с номинальным значением.

Так же, как интервал Вильсона отражает критерий хи-квадрат Пирсона, интервал Вильсона с поправкой на непрерывность отражает эквивалентный критерий хи-квадрат Йейтса.

Следующие формулы для нижняя и верхняя границы интервала оценок Вильсона с поправкой на непрерывность (w -, w +) {\ displaystyle (w ^ {-}, w ^ {+})}(w ^ -, w ^ +) получены из Newcombe ( 1998).

w - = max {0, 2 np ^ + z 2 - [zz 2 - 1 n + 4 np ^ (1 - p ^) + (4 p ^ - 2) + 1] 2 (n + z 2)} w + = min {1, 2 np ^ + z 2 + [zz 2 - 1 n + 4 np ^ (1 - p ^) - (4 p ^ - 2) + 1] 2 (n + z 2)} {\ displaystyle {\ begin {align} w ^ {-} = \ max \ left \ {0, {\ frac {2n {\ hat {p}} + z ^ {2} - \ left [ z {\ sqrt {z ^ {2} - {\ frac {1} {n}} + 4n {\ hat {p}} (1 - {\ hat {p}}) + (4 {\ hat {p} } -2)}} + 1 \ right]} {2 (n + z ^ {2})}} \ right \} \\ w ^ {+} = \ min \ left \ {1, {\ frac { 2n {\ hat {p}} + z ^ {2} + \ left [z {\ sqrt {z ^ {2} - {\ frac {1} {n}} + 4n {\ hat {p}} (1 - {\ hat {p}}) - (4 {\ hat {p}} - 2)}} + 1 \ right]} {2 (n + z ^ {2})}} \ right \} \ end { выровнен}}}{\ displaystyle {\ begin {align} w ^ {-} = \ max \ left \ {0, { \ frac {2n {\ hat {p}} + z ^ {2} - \ left [z {\ sqrt {z ^ {2} - {\ frac {1} {n}} + 4n {\ hat {p}] } (1 - {\ hat {p}}) + (4 {\ hat {p}} - 2)}} + 1 \ right]} {2 (n + z ^ {2})}} \ right \} \\ w ^ {+} = \ min \ left \ {1, {\ frac {2n {\ hat {p}} + z ^ {2} + \ left [z {\ sqrt {z ^ {2} -] {\ frac {1} {n}} + 4n {\ hat {p}} (1 - {\ hat {p}}) - (4 {\ hat {p}} - 2)}} + 1 \ right] } {2 (n + z ^ {2})}} \ right \} \ end {align}}}

Однако, если p = 0, w - {\ displaystyle w ^ {-}}{\ displaystyle w ^ {- }} следует принимать как 0; если p = 1, w + {\ displaystyle w ^ {+}}{\ displaystyle w ^ {+}} равно 1.

Интервал Джеффри

Интервал Джеффриса имеет байесовское происхождение, но он обладает хорошими частотными свойствами. В частности, он имеет свойства покрытия, аналогичные свойствам интервала Вильсона, но это один из немногих интервалов с преимуществом равных хвостов (например, для 95% доверительного интервала вероятности интервала, лежащего выше или ниже истинного значения оба близки к 2,5%). Напротив, интервал Вильсона имеет систематическое смещение, так что он центрирован слишком близко к p = 0,5.

Интервал Джеффриса - это байесовский достоверный интервал, полученный при использовании non -информативный априор Джеффриса для биномиальной пропорции p. Априор Джеффриса для этой проблемы - это бета-распределение с параметрами (1/2, 1/2), это сопряженное априорное. После наблюдения x успешных результатов в n испытаниях, апостериорное распределение для p является бета-распределением с параметрами (x + 1/2, n - x + 1/2).

Когда x ≠ 0 и x ≠ n, интервал Джеффриса принимается равным 100 (1 - α)% равномерного апостериорного вероятностного интервала, т. Е. Квантилей α / 2 и 1 - α / 2. бета-распределения с параметрами (x + 1/2, n - x + 1/2). Эти квантили необходимо вычислять численно, хотя это достаточно просто с помощью современного статистического программного обеспечения.

Во избежание стремления вероятности охвата к нулю при p → 0 или 1, когда x = 0, верхний предел вычисляется, как и раньше, но нижний предел установлен на 0, а когда x = n - нижний предел. предел вычисляется, как и раньше, но верхний предел установлен на 1.

Интервал Клоппера – Пирсона

Интервал Клоппера – Пирсона - ранний и очень распространенный метод вычисления биномиальных доверительных интервалов. Этот метод часто называют «точным», поскольку он основан на кумулятивных вероятностях биномиального распределения (то есть на точном правильном распределении, а не на приближении). Однако в случаях, когда мы знаем размер популяции, интервалы могут быть не самыми маленькими. Например, для населения размером 20 с истинной долей 50% Клоппер-Пирсон дает [0,272, 0,728], ширина которого составляет 0,456 (и где границы находятся на 0,0280 от «следующих достижимых значений» 6/20 и 14. / 20); тогда как Wilson дает [0,299, 0,701], что имеет ширину 0,401 (и находится на 0,0007 от следующих возможных значений).

Интервал Клоппера – Пирсона можно записать как

S ≤ ∩ S ≥ {\ displaystyle S _ {\ leq} \ cap S _ {\ geq}}{\ displaystyle S _ {\ leq} \ cap S _ {\ geq}}

или эквивалентно

(inf S ≥, sup S ≤) {\ displaystyle \ left (\ inf S _ {\ geq} \,, \, \ sup S _ {\ leq} \ right)}{\ displaystyle \ left (\ inf S_ {\ geq} \,, \, \ sup S _ {\ leq} \ right)}

с

S ≤: = {θ | P [Bin ⁡ (n; θ) ≤ x]>α 2} и S ≥: = {θ | П [корзина ⁡ (n; θ) ≥ x]>α 2}, {\ displaystyle S _ {\ leq}: = \ left \ {\ theta \, \, {\ Big |} \, \, P \ left [ \ operatorname {Bin} \ left (n; \ theta \ right) \ leq x \ right]>{\ frac {\ alpha} {2}} \ right \} {\ text {and}} S _ {\ geq}: = \ left \ {\ theta \, \, {\ Big |} \, \, P \ left [\ operatorname {Bin} \ left (n; \ theta \ right) \ geq x \ right]>{\ frac { \ alpha} {2}} \ right \},}{\displaystyle S_{\leq }:=\left\{\theta \,\,{\Big |}\,\,P\left[\operatorname {Bin} \left(n;\theta \right)\leq x\right]>{\ frac {\ alpha} {2}} \ right \} {\ text {and}} S _ {\ geq}: = \ left \ {\ theta \, \, {\ Big |} \, \, P \ left [\ operatorname {Bin} \ left (n; \ theta \ right) \ geq x \ right]>{\ frac {\ alpha} {2}} \ right \},}

где 0 ≤ x ≤ n - количество успехов, наблюдаемых в выборке, а Bin (n; θ) - биномиальная случайная величина с n попытками и вероятностью успеха θ.

То же самое можно сказать что интервал Клоппера – Пирсона равен (xn - ε 1, xn + ε 2) {\ textstyle \ left ({\ frac {x} {n}} - \ varepsilon _ {1}, \ {\ frac { х} {п}} + \ varepsilon _ {2} \ right)}{\ textstyle \ left ({\ frac {x} {n}} - \ varepsilon _ {1}, \ {\ frac {x} {n}} + \ varepsilon _ {2} \ right)} с уровнем достоверности 1 - α {\ displaystyle 1- \ alpha}1- \ alpha если ε i {\ displaystyle \ varepsilon _ { i}}\ varepsilon _ {i} - это нижняя грань из тех, что следующие проверки гипотез успешны со значимостью α 2 {\ textstyle {\ frac {\ alpha} {2}}}{\ textstyle {\ frac {\ alpha} {2}}} :

  1. H0: θ = xn - ε 1 {\ displaystyle \ theta = {\ frac {x} {n}} - \ varepsilon _ {1}}{\ displaystyle \ theta = {\ frac {x} {n}} - \ varepsilon _ {1}} с H A: θ>xn - ε 1 {\ displaystyle \ theta>{\ frac {x} {n}} - \ varepsilon _ {1}}{\displaystyle \theta>{\ frac {x} {n}} - \ varepsilon _ {1}}
  2. H0: θ = xn + ε 2 {\ displaystyle \ theta = {\ displaystyle \ theta = { frac {x} {n}} + \ varepsilon _ {2}}{\ displaystyle \ theta = {\ гидроразрыв {x} {n}} + \ varepsilon _ {2}} с H A: θ < x n + ε 2 {\displaystyle \theta <{\frac {x}{n}}+\varepsilon _{2}}{\ displaystyle \ theta <{\ frac {x} {n}} + \ varepsilon _ {2}} .

Из-за связи между биномиальным распределением и бета-распределением метод Клоппера – Пирсона интервал иногда представляется в альтернативном формате, который использует квантили из бета-распределения.

B (α 2; x, n - x + 1) < θ < B ( 1 − α 2 ; x + 1, n − x) {\displaystyle B\left({\frac {\alpha }{2}};x,n-x+1\right)<\theta B \ left (\ frac {\ alpha} {2}; x, n - x + 1 \ right) <\ theta <B \ left (1 - \ frac {\ alpha} {2}; x + 1, n - x \ right)

где x - количество успехов, n - количество попыток, а B (p; v, w) - p-й квантиль из бета-распределения с параметрами формы v и w.

Когда x {\ displaystyle x}x равно 0 {\ displaystyle 0}{\ displaystyle 0} или n {\ displaystyle n}n доступны выражения в закрытой форме для границ интервала: когда x = 0 {\ displaystyle x = 0}x Знак равно 0 интервал равен (0, 1 - (α 2) 1 n) {\ textstyle \ left (0, \, 1- \ left ({\ frac {\ alpha} {2}} \ right) ^ {\ frac {1} {n}} \ right)}{\ textstyle \ left (0, \, 1- \ left ({\ frac {\ alpha} {2}} \ right) ^ {\ frac {1} { n}} \ right)} и когда x = n {\ displaystyle x = n}{\ displaystyle x = n} это ((α 2) 1 n, 1) {\ textstyle \ left (\ left ( {\ frac {\ alpha} {2}} \ right) ^ {\ frac {1} {n}}, \, 1 \ right)}{\ textstyle \ left (\ left ({\ frac {\ alpha} {2}} \ right) ^ {\ frac {1} {n}}, \, 1 \ right)} .

Бета-распределение, в свою очередь, связано с F-распределение, поэтому третью формулировку интервала Клоппера – Пирсона можно записать с использованием F-квантилей:

(1 + n - x + 1 x F [α 2; 2 x, 2 (n - x + 1)]) - 1 < θ < ( 1 + n − x ( x + 1) F [ 1 − α 2 ; 2 ( x + 1), 2 ( n − x) ]) − 1 {\displaystyle \left(1+{\frac {n-x+1}{x\,F\!\left[{\frac {\alpha }{2}};2x,2(n-x+1)\right]}}\right)^{-1}<\theta <\left(1+{\frac {n-x}{(x+1)\,\,F\!\left[1-{\frac {\alpha }{2}};2(x+1),2(n-x)\right]}}\right)^{-1}}{\ displaystyle \ left (1 + {\ frac {n-x + 1} {x \, F \! \ Left [{\ frac {\ alpha} {2}}; 2x, 2 (n-x + 1) \ right]}} \ right) ^ {- 1} <\ theta <\ left (1 + {\ frac {nx} {(x + 1) \, \, F \! \ Left [1 - {\ frac {\ alpha} {2}}; 2 (x + 1), 2 (nx) \ right]}} \ справа) ^ {- 1}}

, где x - количество успехов, n - количество попыток, а F (c; d 1, d 2) - квантиль c из F-распределения с d 1 и d 2 степенями свободы.

Интервал Клоппера – Пирсона i s точный интервал, поскольку он основан непосредственно на биномиальном распределении, а не на каком-либо приближении к биномиальному распределению. Этот интервал никогда не бывает меньше номинального охвата для любой доли населения, но это означает, что он обычно консервативен. Например, истинная степень охвата 95% интервала Клоппера – Пирсона может быть значительно выше 95%, в зависимости от n и θ. Таким образом, интервал может быть шире, чем необходимо для достижения уверенности 95%. Напротив, стоит отметить, что другие доверительные границы могут быть уже, чем их номинальная доверительная ширина, т. Е. Интервал нормальной аппроксимации (или «стандартный») интервал, интервал Вильсона, интервал Агрести – Кулла и т.д. % фактически может охватывать менее 95%.

Определение интервала Клоппера – Пирсона также может быть изменено для получения точных доверительных интервалов для различных распределений. Например, это также может быть применено к случаю, когда выборки отбираются без замены из совокупности известного размера, вместо повторных выборок биномиального распределения. В этом случае основным распределением будет гипергеометрическое распределение.

Интервал Агрести – Кулла

Интервал Агрести – Кулля также является еще одним приблизительным биномиальным доверительным интервалом.

Учитывая X {\ displaystyle X}X успехов в n {\ displaystyle n}n испытаний, определите

n ~ = n + z 2 {\ displaystyle {\ tilde { n}} = n + z ^ {2}}\ tilde {n} = n + z ^ 2

и

p ~ = 1 n ~ (X + z 2 2) {\ displaystyle {\ tilde {p}} = {\ frac {1} { \ tilde {n}}} \ left (X + {\ frac {z ^ {2}} {2}} \ right)}{\ displaystyle {\ tilde {p}} = {\ frac {1} {\ tilde {n}}} \ left (X + {\ frac {z ^ {2}}) {2}} \ right)}

Затем доверительный интервал для p {\ displaystyle p}p задается как

p ~ ± zp ~ n ~ (1 - p ~) {\ displaystyle {\ tilde {p}} \ pm z {\ sqrt {{\ frac {\ tilde {p}} { \ тильда {n}}} \ left (1 - {\ tilde {p}} \ right)}}}{\ displaystyle {\ tilde {p}} \ pm z {\ sqrt {{\ frac {\ tilde {p}} {\ tilde {n}}} \ left (1 - {\ тильда {p}} \ right)}}}

где z = Φ - 1 (1 - α 2) {\ displaystyle z = \ Phi ^ {- 1} \! \ Left (1 - {\ frac {\ alpha} {2}} \! \ Right)}{\ displaystyle z = \ Phi ^ {- 1} \! \ Left (1 - {\ frac {\ alpha} {2}} \! \ Right)} - квантиль стандартного нормального распределения, как и раньше (например, 95% доверительный интервал требует α = 0,05 {\ displaystyle \ alpha = 0,05}\ alpha = 0,05 , тем самым получая z = 1,96 {\ displaystyle z = 1,96}{\ displaystyle z = 1,96} ). Согласно Браун, Цай и DasGupta, если взять z = 2 {\ displaystyle z = 2}{\ displaystyle z = 2} вместо 1,96, получается «добавить 2 успеха. и 2 отказа », ранее описанный Agresti и Coull.

. Этот интервал можно резюмировать как использование регулировки центральной точки, p ~ {\ displaystyle {\ tilde {p} }}{\ tilde {p}} из интервала оценок Вильсона, а затем примените нормальное приближение к этой точке.

p ~ = p ^ + z 2 2 n 1 + z 2 n {\ displaystyle {\ tilde { p}} = {\ frac {{\ hat {p}} + {\ frac {z ^ {2}} {2n}}} {1 + {\ frac {z ^ {2}} {n}}}} }{\ displaystyle {\ tilde {p}} = {\ frac {{\ hat {p}} + { \ frac {z ^ {2}} {2n}}} {1 + {\ frac {z ^ {2}} {n}}}}}
Преобразование арксинуса

Преобразование арксинуса имеет эффект вытягивания концов распределения. Хотя он может стабилизировать дисперсию (и, следовательно, доверительные интервалы) данных о доле, его использование подвергалось критике в нескольких контекстах.

Пусть X будет числом успешных результатов в n испытаниях и пусть p = X / n. Дисперсия p равна

var ⁡ (p) = p (1 - p) n. {\ displaystyle \ operatorname {var} (p) = {\ frac {p (1-p)} {n}}.}{\ displaystyle \ operatorname {var} (p) = {\ frac {p (1-p)} {n}}.}

Используя преобразование арксинуса, дисперсия арксинуса p равна

var ⁡ (arcsin ⁡ (p)) ≈ var ⁡ (p) 4 p (1 - p) = p (1 - p) 4 np (1 - p) = 1 4 n. {\ displaystyle \ operatorname {var} \ left (\ arcsin \ left ({\ sqrt {p}} \ right) \ right) \ приблизительно {\ frac {\ operatorname {var} (p)} {4p (1-p)}} = {\ frac {p (1-p)} {4np (1-p)}} = {\ frac {1} {4n}}.}{\ displaystyle \ operatorname {var} \ left (\ arcsin \ left ({\ sqrt {p}} \ right) \ справа) \ приблизительно {\ frac {\ operatorname {var} (p)} {4p (1-p)}} = {\ frac {p (1-p)} {4np (1-p)}} = {\ frac {1} {4n}}.}

Итак, сам доверительный интервал имеет следующий вид :

грех 2 ⁡ (arcsin ⁡ (p) - z 2 n) < θ < sin 2 ⁡ ( arcsin ⁡ ( p) + z 2 n) {\displaystyle \sin ^{2}\left(\arcsin \left({\sqrt {p}}\right)-{\frac {z}{2{\sqrt {n}}}}\right)<\theta <\sin ^{2}\left(\arcsin \left({\sqrt {p}}\right)+{\frac {z}{2{\sqrt {n}}}}\right)}{\ displaystyle \ sin ^ {2} \ left (\ arcsin \ left ({\ sqrt {p}} \ right) - {\ frac {z} {2 {\ sqrt {n}}}} \ right) <\ theta <\ sin ^ {2} \ left (\ arcsin \ left ({\ sqrt {p}} \ right) + { \ frac {z} {2 {\ sqrt {n}}}} \ right)}

где z {\ displaystyle z}z - 1 - α 2 {\ displaystyle \ scriptstyle 1 \, - \, {\ frac {\ alpha} {2}}}{\ displaystyle \ scriptstyle 1 \, - \, {\ frac {\ alpha} {2}}} квантиль стандартного нормального распределения.

Этот метод может использоваться для оценки дисперсии p, но его использование проблематично, когда p близко к 0 или 1.

tatransform

Пусть p будет долей успешных результатов. Для 0 ≤ a ≤ 2

ta = журнал ⁡ (pa (1 - p) 2 - a) = журнал ⁡ (p) - (2 - a) журнал ⁡ (1 - p) {\ displaystyle t_ { a} = \ log \ left ({\ frac {p ^ {a}} {(1-p) ^ {2-a}}}} \ right) = a \ log (p) - (2-a) \ log (1-p)}{\ displaystyle t_ {a} = \ log \ left ({\ frac {p ^ { a}} {(1-p) ^ {2-a}}} \ right) = a \ log (p) - (2-a) \ log (1-p)}

Это семейство является обобщением логит-преобразования, которое является частным случаем с a = 1 и может использоваться для преобразования пропорционального распределения данных в приблизительно нормальное распределение. Для набора данных необходимо оценить параметр a.

Правило трех - для случаев, когда не наблюдается никаких успехов

Правило трех используется, чтобы обеспечить простой способ определения приблизительного 95% доверительного интервала для p, в особом случае, когда никаких успехов (p ^ = 0 {\ displaystyle {\ hat {p}} = 0}\ hat p = 0 ) не наблюдалось. Интервал равен (0,3 / n).

По симметрии можно было ожидать только успехов (p ^ = 1 {\ displaystyle {\ hat {p}} = 1}{\ hat p} = 1 ), интервал равен (1 - 3 / н, 1).

Сравнение различных интервалов

Существует несколько исследовательских работ, в которых сравниваются эти и другие доверительные интервалы для биномиальной пропорции. И Агрести, и Коул (1998), и Росс (2003) указывают, что точные методы, такие как интервал Клоппера – Пирсона, могут не работать так же хорошо, как некоторые приближения. Нормальное приближение и его представление в учебниках подвергалось критике, при этом многие статистики выступали за то, чтобы оно не использовалось.

Из перечисленных выше приближений методы интервалов Вильсона (с поправкой на непрерывность или без нее) оказались пригодными для использования. наиболее точный и надежный, хотя некоторые предпочитают подход Агрести – Коулла для больших объемов выборки.

Многие из этих интервалов могут быть рассчитаны в R с использованием таких пакетов, как "binom ", или в Python с использованием пакета " ebcic " (Калькулятор точного биномиального доверительного интервала).

См. Также
Ссылки
Последняя правка сделана 2021-05-12 06:35:59
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте