Достаточная статистика

редактировать

В статистике, А статистика является достаточной по отношению к статистической модели и связанному с ней неизвестным параметром, если «нет другого статистики, которые могут быть вычислены из того же образца, не обеспечивает какую - либо дополнительная информация, как к значению параметра». В частности, статистика является достаточным для семьи из распределений вероятности, если образец, из которого она рассчитана дает никакой дополнительной информации, чем статистики, о том, какие из этих распределений вероятностей является распределение выборки.

Связанная концепция - это концепция линейной достаточности, которая слабее, чем достаточность, но может применяться в некоторых случаях, когда нет достаточной статистики, хотя она ограничивается линейными оценками. В функции структуры Колмогоров посвящена отдельными конечных данные; с этим связано понятие алгоритмической достаточной статистики.

Эта концепция принадлежит сэру Рональду Фишеру в 1920 году. Стивен Стиглер отметил в 1973 году, что концепция достаточности потеряла популярность в описательной статистике из-за сильной зависимости от предположения о форме распределения (см. Теорему Питмана – Купмана – Дармуа ниже.), но оставался очень важным в теоретической работе.

СОДЕРЖАНИЕ
  • 1 Справочная информация
  • 2 Математическое определение
    • 2.1 Пример
  • 3 Теорема факторизации Фишера – Неймана
    • 3.1 Интерпретация принципа правдоподобия
    • 3.2 Доказательство
    • 3.3 Еще одно доказательство
  • 4 Минимальная достаточность
  • 5 примеров
    • 5.1 Распределение Бернулли
    • 5.2 Равномерное распределение
    • 5.3 Равномерное распределение (с двумя параметрами)
    • 5.4 Распределение Пуассона
    • 5.5 Нормальное распределение
    • 5.6 Экспоненциальное распределение
    • 5.7 Гамма-распределение
  • 6 Теорема Рао – Блэквелла.
  • 7 Экспоненциальная семья
  • 8 Другие виды достаточности
    • 8.1 байесовская достаточность
    • 8.2 Линейная достаточность
  • 9 См. Также
  • 10 заметок
  • 11 Источники
Задний план

Грубо говоря, учитывая набор из независимых одинаково распределенных данных условных на неизвестном параметре, достаточная статистикой является функцией, значение которого содержит всю информацию, необходимую для вычисления какой - либо оценки параметра (например, максимальное правдоподобие оценки). В соответствии с теоремой факторизации ( см. Ниже) для достаточной статистики плотность вероятности может быть записана как. Из этой факторизации легко увидеть, что оценка максимального правдоподобия будет взаимодействовать только с сквозным. Как правило, достаточная статистика - это простая функция данных, например сумма всех точек данных. Икс {\ displaystyle \ mathbf {X}} θ {\ displaystyle \ theta} Т ( Икс ) {\ Displaystyle Т (\ mathbf {X})} Т ( Икс ) {\ Displaystyle Т (\ mathbf {X})} ж Икс ( Икс ) знак равно час ( Икс ) г ( θ , Т ( Икс ) ) {\ Displaystyle е _ {\ mathbf {X}} (х) = час (х) \, г (\ тета, Т (х))} θ {\ displaystyle \ theta} Икс {\ displaystyle \ mathbf {X}} Т ( Икс ) {\ Displaystyle Т (\ mathbf {X})}

В более общем смысле, «неизвестный параметр» может представлять вектор неизвестных величин или может представлять все в модели, что неизвестно или не полностью определено. В таком случае достаточной статистикой может быть набор функций, называемых совместно достаточной статистикой. Обычно функций столько, сколько параметров. Например, для гауссовского распределения с неизвестным средним значением и дисперсией совместно достаточная статистика, из которой могут быть оценены оценки максимального правдоподобия обоих параметров, состоит из двух функций, суммы всех точек данных и суммы всех квадратов точек данных ( или, что эквивалентно, выборочное среднее и выборочная дисперсия ).

Эта концепция эквивалентна утверждению, что при условии наличия достаточной статистики для параметра совместное распределение вероятностей данных не зависит от этого параметра. И статистика, и базовый параметр могут быть векторами.

Математическое определение

Статистики t  =  T ( X) достаточно для базового параметра θ именно в том случае, если условное распределение вероятностей данных X, учитывая статистику t  =  T ( X), не зависит от параметра θ.

В качестве альтернативы можно сказать, что статистика  T ( X) достаточна для θ, если ее взаимная информация с θ равна взаимной информации между X и θ. Другими словами, неравенство обработки данных становится равенством:

я ( θ ; Т ( Икс ) ) знак равно я ( θ ; Икс ) {\ Displaystyle I {\ bigl (} \ theta; T (X) {\ bigr)} = I (\ theta; X)}

Пример

Например, выборочного среднего достаточно для среднего ( μ) нормального распределения с известной дисперсией. Как только среднее значение образца известно, никакая дополнительная информация о μ не может быть получена из самого образца. С другой стороны, для произвольного распределения медианы недостаточны для среднего: даже если медиана выборки известна, знание самой выборки предоставит дополнительную информацию о среднем генеральной совокупности. Например, если наблюдения, которые меньше медианы, лишь немного меньше, но наблюдения, превышающие медиану, превышают ее на большую величину, то это будет иметь отношение к выводу о среднем населении.

Теорема факторизации Фишера – Неймана

Теорема факторизации Фишера или критерий факторизации обеспечивает удобную характеристику достаточной статистики. Если функция плотности вероятности равна ƒ θ ( x), то T достаточно для θ тогда и только тогда, когда могут быть найдены такиенеотрицательные функции g и h, что

ж θ ( Икс ) знак равно час ( Икс ) г θ ( Т ( Икс ) ) , {\ Displaystyle е _ {\ тета} (х) = час (х) \, г _ {\ тета} (Т (х)),}

т.е. плотность ƒ может быть факторизована в продукт таким образом, что один фактор, h, не зависит от θ, а другой фактор, который действительно зависит от θ, зависит от x только через T ( x).

Легко видеть, что если F ( t) - взаимно однозначная функция и T - достаточная статистика, то F ( T) - достаточная статистика. В частности, мы можем умножить достаточную статистику на ненулевую константу и получить другую достаточную статистику.

Интерпретация принципа правдоподобия

Смысл теоремы заключается в том, что при использовании вывода, основанного на правдоподобии, два набора данных, дающие одно и то же значение для достаточной статистики T ( X), всегда будут давать одни и те же выводы о θ. По критерию факторизации зависимость правдоподобия от θ только в сочетании с T ( X). Поскольку это одно и то же в обоих случаях, зависимость от θ также будет одинаковой, что приведет к идентичным выводам.

Доказательство

Из-за Хогга и Крейга. Пусть, обозначим случайную выборку из распределения, имеющего в формате PDF п ( х,  amp; thetas) для ι  lt;  θ  lt;  δ. Пусть Y 1  =  u 1 ( X 1,  X 2,...,  X n) - статистика, pdf которой равен g 1 ( y 1 ;  θ). То, что мы хотим доказать, что Y 1  =  U 1 ( X 1, X 2,...,  X п) является достаточной статистикой для amp; thetas тогда и только тогда, когда для некоторой функции H, Икс 1 , Икс 2 , , Икс п {\ Displaystyle X_ {1}, X_ {2}, \ ldots, X_ {n}}

я знак равно 1 п ж ( Икс я ; θ ) знак равно г 1 [ ты 1 ( Икс 1 , Икс 2 , , Икс п ) ; θ ] ЧАС ( Икс 1 , Икс 2 , , Икс п ) . {\ displaystyle \ prod _ {i = 1} ^ {n} f (x_ {i}; \ theta) = g_ {1} \ left [u_ {1} (x_ {1}, x_ {2}, \ dots, x_ {n}); \ theta \ right] H (x_ {1}, x_ {2}, \ dots, x_ {n}).}

Сначала предположим, что

я знак равно 1 п ж ( Икс я ; θ ) знак равно г 1 [ ты 1 ( Икс 1 , Икс 2 , , Икс п ) ; θ ] ЧАС ( Икс 1 , Икс 2 , , Икс п ) . {\ displaystyle \ prod _ {i = 1} ^ {n} f (x_ {i}; \ theta) = g_ {1} \ left [u_ {1} (x_ {1}, x_ {2}, \ dots, x_ {n}); \ theta \ right] H (x_ {1}, x_ {2}, \ dots, x_ {n}).}

Сделаем преобразование y i  =  u i ( x 1,  x 2,...,  x n), для i  = 1,...,  n, имеющее обратные функции x i  =  w i ( y 1,  y 2,...,  y n) для i  = 1,...,  n и якобиана. Таким образом, J знак равно [ ш я / у j ] {\ displaystyle J = \ left [w_ {i} / y_ {j} \ right]}

я знак равно 1 п ж [ ш я ( у 1 , у 2 , , у п ) ; θ ] знак равно | J | г 1 ( у 1 ; θ ) ЧАС [ ш 1 ( у 1 , у 2 , , у п ) , , ш п ( у 1 , у 2 , , у п ) ] . {\ displaystyle \ prod _ {i = 1} ^ {n} f \ left [w_ {i} (y_ {1}, y_ {2}, \ dots, y_ {n}); \ theta \ right] = | J | g_ {1} (y_ {1}; \ theta) H \ left [w_ {1} (y_ {1}, y_ {2}, \ dots, y_ {n}), \ dots, w_ {n} (y_ {1}, y_ {2}, \ dots, y_ {n}) \ right].}

Левый член - это совместный pdf g ( y 1, y 2,..., y n ; θ) Y 1 = u 1 ( X 1,..., X n),..., Y n = u n ( X 1,..., X n). В правом элементе - pdf-файл от, так что это частное от и ; то есть, это условное PDF из дается. г 1 ( у 1 ; θ ) {\ displaystyle g_ {1} (y_ {1}; \ theta)} Y 1 {\ displaystyle Y_ {1}} ЧАС [ ш 1 , , ш п ] | J | {\ displaystyle H [w_ {1}, \ dots, w_ {n}] | J |} г ( у 1 , , у п ; θ ) {\ displaystyle g (y_ {1}, \ dots, y_ {n}; \ theta)} г 1 ( у 1 ; θ ) {\ displaystyle g_ {1} (y_ {1}; \ theta)} час ( у 2 , , у п у 1 ; θ ) {\ displaystyle h (y_ {2}, \ dots, y_ {n} \ mid y_ {1}; \ theta)} Y 2 , , Y п {\ displaystyle Y_ {2}, \ dots, Y_ {n}} Y 1 знак равно у 1 {\ displaystyle Y_ {1} = y_ {1}}

Но, таким образом, было дано не зависеть. Поскольку не было введено в преобразовании и, соответственно, не в якобиане, отсюда следует, что не зависит от и является достаточной статистикой для. ЧАС ( Икс 1 , Икс 2 , , Икс п ) {\ Displaystyle H (x_ {1}, x_ {2}, \ dots, x_ {n})} ЧАС [ ш 1 ( у 1 , , у п ) , , ш п ( у 1 , , у п ) ) ] {\ displaystyle H \ left [w_ {1} (y_ {1}, \ dots, y_ {n}), \ dots, w_ {n} (y_ {1}, \ dots, y_ {n})) \ right ]} θ {\ displaystyle \ theta} θ {\ displaystyle \ theta} J {\ displaystyle J} час ( у 2 , , у п у 1 ; θ ) {\ displaystyle h (y_ {2}, \ dots, y_ {n} \ mid y_ {1}; \ theta)} θ {\ displaystyle \ theta} Y 1 {\ displaystyle Y_ {1}} θ {\ displaystyle \ theta}

Обратное доказывается следующим образом:

г ( у 1 , , у п ; θ ) знак равно г 1 ( у 1 ; θ ) час ( у 2 , , у п у 1 ) , {\ displaystyle g (y_ {1}, \ dots, y_ {n}; \ theta) = g_ {1} (y_ {1}; \ theta) h (y_ {2}, \ dots, y_ {n} \ середина года_ {1}),}

где не зависит от, потому что зависит только от, которые не зависят от достаточной статистики гипотезой, когда обусловлены ею. Теперь разделите оба члена на абсолютное значение ненулевого якобиана и замените их функциями из. Это дает час ( у 2 , , у п у 1 ) {\ displaystyle h (y_ {2}, \ dots, y_ {n} \ mid y_ {1})} θ {\ displaystyle \ theta} Y 2 . . . Y п {\ displaystyle Y_ {2}... Y_ {n}} Икс 1 . . . Икс п {\ displaystyle X_ {1}... X_ {n}} Θ {\ displaystyle \ Theta} Y 1 {\ displaystyle Y_ {1}} J {\ displaystyle J} у 1 , , у п {\ displaystyle y_ {1}, \ dots, y_ {n}} ты 1 ( Икс 1 , , Икс п ) , , ты п ( Икс 1 , , Икс п ) {\ displaystyle u_ {1} (x_ {1}, \ dots, x_ {n}), \ dots, u_ {n} (x_ {1}, \ dots, x_ {n})} Икс 1 , , Икс п {\ displaystyle x_ {1}, \ dots, x_ {n}}

г [ ты 1 ( Икс 1 , , Икс п ) , , ты п ( Икс 1 , , Икс п ) ; θ ] | J * | знак равно г 1 [ ты 1 ( Икс 1 , , Икс п ) ; θ ] час ( ты 2 , , ты п ты 1 ) | J * | {\ displaystyle {\ frac {g \ left [u_ {1} (x_ {1}, \ dots, x_ {n}), \ dots, u_ {n} (x_ {1}, \ dots, x_ {n})); \ theta \ right]} {| J ^ {*} |}} = g_ {1} \ left [u_ {1} (x_ {1}, \ dots, x_ {n}); \ theta \ right] {\ frac {h (u_ {2}, \ dots, u_ {n} \ mid u_ {1})} {| J ^ {*} |}}}

где якобиан с заменен их значением в терминах. Член левосторонним обязательно совместный PDF из. Поскольку и, следовательно, не зависит от, то J * {\ displaystyle J ^ {*}} у 1 , , у п {\ displaystyle y_ {1}, \ dots, y_ {n}} Икс 1 , , Икс п {\ displaystyle x_ {1}, \ dots, x_ {n}} ж ( Икс 1 ; θ ) ж ( Икс п ; θ ) {\ Displaystyle f (x_ {1}; \ theta) \ cdots f (x_ {n}; \ theta)} Икс 1 , , Икс п {\ Displaystyle X_ {1}, \ точки, X_ {n}} час ( у 2 , , у п у 1 ) {\ displaystyle h (y_ {2}, \ dots, y_ {n} \ mid y_ {1})} час ( ты 2 , , ты п ты 1 ) {\ Displaystyle ч (и_ {2}, \ точки, и_ {п} \ середина и_ {1})} θ {\ displaystyle \ theta}

ЧАС ( Икс 1 , , Икс 2 ) знак равно час ( ты 2 , , ты п ты 1 ) | J * | {\ displaystyle H (x_ {1}, \ dots, x_ {2}) = {\ frac {h (u_ {2}, \ dots, u_ {n} \ mid u_ {1})} {| J ^ { *} |}}}

это функция, не зависящая от. θ {\ displaystyle \ theta}

Еще одно доказательство

Более простое и наглядное доказательство состоит в следующем, хотя оно применимо только в дискретном случае.

Мы используем сокращенные обозначения для обозначения совместной плотности вероятности by. Поскольку является функцией, мы имеем, пока и ноль в противном случае. Следовательно: ( Икс , Т ( Икс ) ) {\ Displaystyle (Х, Т (Х))} ж θ ( Икс , т ) {\ Displaystyle е _ {\ тета} (х, т)} Т {\ displaystyle T} Икс {\ displaystyle X} ж θ ( Икс , т ) знак равно ж θ ( Икс ) {\ Displaystyle е _ {\ тета} (х, т) = е _ {\ тета} (х)} т знак равно Т ( Икс ) {\ Displaystyle т = Т (х)}

ж θ ( Икс ) знак равно ж θ ( Икс , т ) знак равно ж θ ( Икс т ) ж θ ( т ) знак равно ж ( Икс т ) ж θ ( т ) {\ displaystyle {\ begin {align} f _ {\ theta} (x) amp; = f _ {\ theta} (x, t) \\ [5pt] amp; = f _ {\ theta} (x \ mid t) f _ {\ theta} (t) \\ [5pt] amp; = f (x \ mid t) f _ {\ theta} (t) \ end {выровнено}}}

причем последнее равенство верно по определению достаточной статистики. Таким образом, с и. ж θ ( Икс ) знак равно а ( Икс ) б θ ( т ) {\ Displaystyle е _ {\ тета} (х) = а (х) Ь _ {\ тета} (т)} а ( Икс ) знак равно ж Икс т ( Икс ) {\ Displaystyle а (х) = е_ {х \ середина т} (х)} б θ ( т ) знак равно ж θ ( т ) {\ Displaystyle б _ {\ тета} (т) = е _ {\ тета} (т)}

Наоборот, если мы имеем ж θ ( Икс ) знак равно а ( Икс ) б θ ( т ) {\ Displaystyle е _ {\ тета} (х) = а (х) Ь _ {\ тета} (т)}

ж θ ( т ) знак равно Икс : Т ( Икс ) знак равно т ж θ ( Икс , т ) знак равно Икс : Т ( Икс ) знак равно т ж θ ( Икс ) знак равно Икс : Т ( Икс ) знак равно т а ( Икс ) б θ ( т ) знак равно ( Икс : Т ( Икс ) знак равно т а ( Икс ) ) б θ ( т ) . {\ displaystyle {\ begin {align} f _ {\ theta} (t) amp; = \ sum _ {x: T (x) = t} f _ {\ theta} (x, t) \\ [5pt] amp; = \ sum _ {x: T (x) = t} f _ {\ theta} (x) \\ [5pt] amp; = \ sum _ {x: T (x) = t} a (x) b _ {\ theta} ( t) \\ [5pt] amp; = \ left (\ sum _ {x: T (x) = t} a (x) \ right) b _ {\ theta} (t). \ end {align}}}

С первым равенством по определению pdf для нескольких переменных, вторым по замечанию выше, третьим по гипотезе и четвертым, потому что суммирование не закончено. т {\ displaystyle t}

Пусть обозначим условную плотность вероятности дается. Затем мы можем получить явное выражение для этого: ж Икс т ( Икс ) {\ displaystyle f_ {X \ mid t} (x)} Икс {\ displaystyle X} Т ( Икс ) {\ Displaystyle T (X)}

ж Икс т ( Икс ) знак равно ж θ ( Икс , т ) ж θ ( т ) знак равно ж θ ( Икс ) ж θ ( т ) знак равно а ( Икс ) б θ ( т ) ( Икс : Т ( Икс ) знак равно т а ( Икс ) ) б θ ( т ) знак равно а ( Икс ) Икс : Т ( Икс ) знак равно т а ( Икс ) . {\ displaystyle {\ begin {align} f_ {X \ mid t} (x) amp; = {\ frac {f _ {\ theta} (x, t)} {f _ {\ theta} (t)}} \\ [ 5pt] amp; = {\ frac {f _ {\ theta} (x)} {f _ {\ theta} (t)}} \\ [5pt] amp; = {\ frac {a (x) b _ {\ theta} (t)} {\ left (\ sum _ {x: T (x) = t} a (x) \ right) b _ {\ theta} (t)}} \\ [5pt] amp; = {\ frac {a (x)} {\ sum _ {x: T (x) = t} a (x)}}. \ end {align}}}

Первое равенство по определению условной плотности вероятности, второе - по замечанию выше, третье - по доказанному выше равенству, а четвертое - по упрощению. Это выражение не зависит от статистики и поэтому является достаточной статистикой. θ {\ displaystyle \ theta} Т {\ displaystyle T}

Минимальная достаточность

Достаточная статистика является минимально достаточной, если она может быть представлена ​​как функция любой другой достаточной статистики. Другими словами, S ( X) достаточно минимально тогда и только тогда, когда

  1. S ( X) достаточно, и
  2. если T ( X) достаточно, то существует функция f такая, что S ( X) = f ( T ( X)).

Интуитивно понятно, что минимальная достаточная статистика наиболее эффективно фиксирует всю возможную информацию о параметре θ.

Полезная характеристика минимальной достаточности является то, что, когда плотность F amp; thetas существует, S ( X) является минимально достаточным, если и только если

ж θ ( Икс ) ж θ ( у ) {\ Displaystyle {\ гидроразрыва {е _ {\ theta} (x)} {е _ {\ theta} (y)}}}не зависит от θ  : S ( x) = S ( y) {\ displaystyle \ Longleftrightarrow}

Это следует из сформулированной выше теоремы Фишера о факторизации.

Случай, когда нет минимально достаточной статистики, был показан Бахадуром, 1954. Однако при мягких условиях минимально достаточная статистика существует всегда. В частности, в евклидовом пространстве эти условия всегда выполняются, если все случайные величины (связанные с) дискретны или непрерывны. п θ {\ displaystyle P _ {\ theta}}

Если существует минимальная достаточная статистика, а это обычно так, то каждая полная достаточная статистика обязательно является минимально достаточной (обратите внимание, что это утверждение не исключает вариант патологического случая, когда существует полная достаточная статистика, но не существует минимально достаточной статистики). статистика). Хотя трудно найти случаи, в которых отсутствует минимальная достаточная статистика, не так сложно найти случаи, в которых нет полной статистики.

Набор отношений правдоподобия для, является минимальной достаточной статистикой, если пространство параметров дискретно. { L ( Икс θ я ) L ( Икс θ 0 ) } {\ displaystyle \ left \ {{\ frac {L (X \ mid \ theta _ {i})} {L (X \ mid \ theta _ {0})}} \ right \}} я знак равно 1 , . . . , k {\ displaystyle i = 1,..., k} { θ 0 , . . . , θ k } {\ displaystyle \ left \ {\ theta _ {0},..., \ theta _ {k} \ right \}}

Примеры

Распределение Бернулли

Если X 1,....,  X n - независимые случайные величины с распределением Бернулли с ожидаемым значением p, то сумма T ( X) =  X 1  +... +  X n является достаточной статистикой для p (здесь 'успех 'соответствует X i  = 1, а' неудача '- X i  = 0; поэтому T - общее количество успехов)

Это видно при рассмотрении совместного распределения вероятностей:

Pr { Икс знак равно Икс } знак равно Pr { Икс 1 знак равно Икс 1 , Икс 2 знак равно Икс 2 , , Икс п знак равно Икс п } . {\ displaystyle \ Pr \ {X = x \} = \ Pr \ {X_ {1} = x_ {1}, X_ {2} = x_ {2}, \ ldots, X_ {n} = x_ {n} \ }.}

Поскольку наблюдения независимы, это можно записать как

п Икс 1 ( 1 - п ) 1 - Икс 1 п Икс 2 ( 1 - п ) 1 - Икс 2 п Икс п ( 1 - п ) 1 - Икс п {\ displaystyle p ^ {x_ {1}} (1-p) ^ {1-x_ {1}} p ^ {x_ {2}} (1-p) ^ {1-x_ {2}} \ cdots p ^ {x_ {n}} (1-p) ^ {1-x_ {n}}}

и, собирая степени p и 1 -  p, дает

п Икс я ( 1 - п ) п - Икс я знак равно п Т ( Икс ) ( 1 - п ) п - Т ( Икс ) {\ displaystyle p ^ {\ sum x_ {i}} (1-p) ^ {n- \ sum x_ {i}} = p ^ {T (x)} (1-p) ^ {nT (x)} }

который удовлетворяет критерию факторизации, где h ( x) = 1 является просто константой.

Обратите внимание на важную особенность: неизвестный параметр p взаимодействует с данными x только через статистику T ( x) = Σ  x i.

В качестве конкретного приложения это дает процедуру отличия честной монеты от смещенной монеты.

Равномерное распределение

Смотрите также: Проблема немецкого танка

Если X 1,...., X n независимы и равномерно распределены на интервале [0, θ ], то T ( X) = max ( X 1,..., X n) достаточно для θ - выборки максимум - достаточная статистика для максимума популяции.

Чтобы убедиться в этом, рассмотрим совместную функцию плотности вероятности в X   ( X 1,..., X п). Поскольку наблюдения независимы, pdf можно записать как произведение индивидуальных плотностей

ж θ ( Икс 1 , , Икс п ) знак равно 1 θ 1 { 0 Икс 1 θ } 1 θ 1 { 0 Икс п θ } знак равно 1 θ п 1 { 0 мин { Икс я } } 1 { Максимум { Икс я } θ } {\ displaystyle {\ begin {align} f _ {\ theta} (x_ {1}, \ ldots, x_ {n}) amp; = {\ frac {1} {\ theta}} \ mathbf {1} _ {\ { 0 \ leq x_ {1} \ leq \ theta \}} \ cdots {\ frac {1} {\ theta}} \ mathbf {1} _ {\ {0 \ leq x_ {n} \ leq \ theta \}} \\ [5pt] amp; = {\ frac {1} {\ theta ^ {n}}} \ mathbf {1} _ {\ {0 \ leq \ min \ {x_ {i} \} \}} \ mathbf { 1} _ {\ {\ max \ {x_ {i} \} \ leq \ theta \}} \ конец {выровнено}}}

где 1 {. .. } - индикаторная функция. Таким образом, плотность принимает форму, требуемую теоремой Фишера – Неймана о факторизации, где h ( x) =  1 {min { x i } ≥0}, а остальная часть выражения является функцией только от θ и T ( x) = max { x i }.

Фактически, несмещенная оценка с минимальной дисперсией (MVUE) для θ равна

п + 1 п Т ( Икс ) . {\ displaystyle {\ frac {n + 1} {n}} T (X).}

Это максимум выборки, масштабированный для корректировки смещения, и он равен MVUE по теореме Лемана – Шеффе. Максимум непересчитанной выборки T ( X) является оценкой максимального правдоподобия для θ.

Равномерное распределение (с двумя параметрами)

Если независимы и равномерно распределены на интервале (где и - неизвестные параметры), то - двумерная достаточная статистика для. Икс 1 , . . . , Икс п {\ displaystyle X_ {1},..., X_ {n}} [ α , β ] {\ Displaystyle [\ альфа, \ бета]} α {\ displaystyle \ alpha} β {\ displaystyle \ beta} Т ( Икс 1 п ) знак равно ( мин 1 я п Икс я , Максимум 1 я п Икс я ) {\ Displaystyle T (X_ {1} ^ {n}) = \ left (\ min _ {1 \ leq i \ leq n} X_ {i}, \ max _ {1 \ leq i \ leq n} X_ {i }\верно)} ( α , β ) {\ Displaystyle (\ альфа \,, \, \ бета)}

Чтобы убедиться в этом, рассмотрят совместную функцию плотности вероятности в. Поскольку наблюдения независимы, pdf можно записать как произведение индивидуальных плотностей, т. Е. Икс 1 п знак равно ( Икс 1 , , Икс п ) {\ Displaystyle X_ {1} ^ {n} = (X_ {1}, \ ldots, X_ {n})}

ж Икс 1 п ( Икс 1 п ) знак равно я знак равно 1 п ( 1 β - α ) 1 { α Икс я β } знак равно ( 1 β - α ) п 1 { α Икс я β , я знак равно 1 , , п } знак равно ( 1 β - α ) п 1 { α мин 1 я п Икс я } 1 { Максимум 1 я п Икс я β } . {\ displaystyle {\ begin {align} f_ {X_ {1} ^ {n}} (x_ {1} ^ {n}) amp; = \ prod _ {i = 1} ^ {n} \ left ({1 \ над \ beta - \ alpha} \ right) \ mathbf {1} _ {\ {\ alpha \ leq x_ {i} \ leq \ beta \}} = \ left ({1 \ over \ beta - \ alpha} \ right) ^ {n} \ mathbf {1} _ {\ {\ alpha \ leq x_ {i} \ leq \ beta, \, \ forall \, i = 1, \ ldots, n \}} \\ amp; = \ left ({1 \ over \ beta - \ alpha} \ right) ^ {n} \ mathbf {1} _ {\ {\ alpha \, \ leq \, \ min _ {1 \ leq i \ leq n} X_ {i } \}} \ mathbf {1} _ {\ {\ max _ {1 \ leq i \ leq n} X_ {i} \, \ leq \, \ beta \}}. \ end {align}}}

Совместная плотность образца принимает форму, требуемую теоремой Фишера – Неймана о факторизации, если позволить

час ( Икс 1 п ) знак равно 1 , г ( α , β ) ( Икс 1 п ) знак равно ( 1 β - α ) п 1 { α мин 1 я п Икс я } 1 { Максимум 1 я п Икс я β } . {\ displaystyle {\ begin {align} h (x_ {1} ^ {n}) = 1, \ quad g _ {(\ alpha, \ beta)} (x_ {1} ^ {n}) = \ left ({ 1 \ over \ beta - \ alpha} \ right) ^ {n} \ mathbf {1} _ {\ {\ alpha \, \ leq \, \ min _ {1 \ leq i \ leq n} X_ {i} \ }} \ mathbf {1} _ {\ {\ max _ {1 \ leq i \ leq n} X_ {i} \, \ leq \, \ beta \}}. \ end {align}}}

Поскольку не зависит от параметра, а зависит только от через функцию час ( Икс 1 п ) {\ displaystyle h (x_ {1} ^ {n})} ( α , β ) {\ Displaystyle (\ альфа, \ бета)} г ( α , β ) ( Икс 1 п ) {\ Displaystyle г _ {(\ альфа \,, \, \ бета)} (х_ {1} ^ {п})} Икс 1 п {\ displaystyle x_ {1} ^ {n}} Т ( Икс 1 п ) знак равно ( мин 1 я п Икс я , Максимум 1 я п Икс я ) , {\ Displaystyle T (X_ {1} ^ {n}) = \ left (\ min _ {1 \ leq i \ leq n} X_ {i}, \ max _ {1 \ leq i \ leq n} X_ {i }\верно),}

теорема факторизации Фишера – Неймана следует, что является достаточной статистикой для. Т ( Икс 1 п ) знак равно ( мин 1 я п Икс я , Максимум 1 я п Икс я ) {\ Displaystyle T (X_ {1} ^ {n}) = \ left (\ min _ {1 \ leq i \ leq n} X_ {i}, \ max _ {1 \ leq i \ leq n} X_ {i }\верно)} ( α , β ) {\ Displaystyle (\ альфа \,, \, \ бета)}

распределение Пуассона

Если X 1,....,  X n независимы и имеют распределение Пуассона с параметром λ, то сумма T ( X) =  X 1  +... +  X n является достаточной статистикой для  λ.

Чтобы убедиться в этом, рассмотрим совместное распределение вероятностей:

Pr ( Икс знак равно Икс ) знак равно п ( Икс 1 знак равно Икс 1 , Икс 2 знак равно Икс 2 , , Икс п знак равно Икс п ) . {\ displaystyle \ Pr (X = x) = P (X_ {1} = x_ {1}, X_ {2} = x_ {2}, \ ldots, X_ {n} = x_ {n}).}

Поскольку наблюдения независимы, это можно записать как

е - λ λ Икс 1 Икс 1 ! е - λ λ Икс 2 Икс 2 ! е - λ λ Икс п Икс п ! {\ displaystyle {e ^ {- \ lambda} \ lambda ^ {x_ {1}} \ over x_ {1}!} \ cdot {e ^ {- \ lambda} \ lambda ^ {x_ {2}} \ over x_ {2}!} \ Cdots {e ^ {- \ lambda} \ lambda ^ {x_ {n}} \ over x_ {n}!}}

который можно записать как

е - п λ λ ( Икс 1 + Икс 2 + + Икс п ) 1 Икс 1 ! Икс 2 ! Икс п ! {\ displaystyle e ^ {- n \ lambda} \ lambda ^ {(x_ {1} + x_ {2} + \ cdots + x_ {n})} \ cdot {1 \ over x_ {1}! x_ {2} ! \ cdots x_ {n}!}}

который показывает, что критерий факторизации удовлетворяется, где h ( x) - величина, обратная произведению факториалов. Обратите внимание, что параметр λ взаимодействует с данными только через свою сумму T ( X).

Нормальное распределение

Если независимы и нормально распределены с ожидаемым значением (параметром) и известной конечной дисперсией, то Икс 1 , , Икс п {\ Displaystyle X_ {1}, \ ldots, X_ {n}} θ {\ displaystyle \ theta} σ 2 , {\ displaystyle \ sigma ^ {2},}

Т ( Икс 1 п ) знак равно Икс ¯ знак равно 1 п я знак равно 1 п Икс я {\ displaystyle T (X_ {1} ^ {n}) = {\ overline {x}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} X_ {i}}

является достаточной статистикой для θ . {\ displaystyle \ theta.}

Чтобы убедиться в этом, рассмотрят совместную функцию плотности вероятности в. Поскольку наблюдения независимы, pdf можно записать как произведение индивидуальных плотностей, т. Е. Икс 1 п знак равно ( Икс 1 , , Икс п ) {\ Displaystyle X_ {1} ^ {n} = (X_ {1}, \ точки, X_ {n})}

ж Икс 1 п ( Икс 1 п ) знак равно я знак равно 1 п 1 2 π σ 2 exp ( - ( Икс я - θ ) 2 2 σ 2 ) знак равно ( 2 π σ 2 ) - п 2 exp ( - я знак равно 1 п ( Икс я - θ ) 2 2 σ 2 ) знак равно ( 2 π σ 2 ) - п 2 exp ( - я знак равно 1 п ( ( Икс я - Икс ¯ ) - ( θ - Икс ¯ ) ) 2 2 σ 2 ) знак равно ( 2 π σ 2 ) - п 2 exp ( - 1 2 σ 2 ( я знак равно 1 п ( Икс я - Икс ¯ ) 2 + я знак равно 1 п ( θ - Икс ¯ ) 2 - 2 я знак равно 1 п ( Икс я - Икс ¯ ) ( θ - Икс ¯ ) ) ) знак равно ( 2 π σ 2 ) - п 2 exp ( - 1 2 σ 2 ( я знак равно 1 п ( Икс я - Икс ¯ ) 2 + п ( θ - Икс ¯ ) 2 ) ) я знак равно 1 п ( Икс я - Икс ¯ ) ( θ - Икс ¯ ) знак равно 0 знак равно ( 2 π σ 2 ) - п 2 exp ( - 1 2 σ 2 я знак равно 1 п ( Икс я - Икс ¯ ) 2 ) exp ( - п 2 σ 2 ( θ - Икс ¯ ) 2 ) {\ displaystyle {\ begin {align} f_ {X_ {1} ^ {n}} (x_ {1} ^ {n}) amp; = \ prod _ {i = 1} ^ {n} {\ frac {1} {\ sqrt {2 \ pi \ sigma ^ {2}}}} \ exp \ left (- {\ frac {(x_ {i} - \ theta) ^ {2}} {2 \ sigma ^ {2}}} \ right) \\ [6pt] amp; = (2 \ pi \ sigma ^ {2}) ^ {- {\ frac {n} {2}}} \ exp \ left (- \ sum _ {i = 1} ^ {n} {\ frac {(x_ {i} - \ theta) ^ {2}} {2 \ sigma ^ {2}}} \ right) \\ [6pt] amp; = (2 \ pi \ sigma ^ {2 }) ^ {- {\ frac {n} {2}}} \ exp \ left (- \ sum _ {i = 1} ^ {n} {\ frac {\ left (\ left (x_ {i} - { \ overline {x}} \ right) - \ left (\ theta - {\ overline {x}} \ right) \ right) ^ {2}} {2 \ sigma ^ {2}}} \ right) \\ [ 6pt] amp; = (2 \ pi \ sigma ^ {2}) ^ {- {\ frac {n} {2}}} \ exp \ left (- {1 \ over 2 \ sigma ^ {2}} \ left ( \ sum _ {i = 1} ^ {n} (x_ {i} - {\ overline {x}}) ^ {2} + \ sum _ {i = 1} ^ {n} (\ theta - {\ overline {x}}) ^ {2} -2 \ sum _ {i = 1} ^ {n} (x_ {i} - {\ overline {x}}) (\ theta - {\ overline {x}}) \ right) \ right) \\ [6pt] amp; = (2 \ pi \ sigma ^ {2}) ^ {- {\ frac {n} {2}}} \ exp \ left (- {1 \ over 2 \ sigma ^ {2}} \ left (\ sum _ {i = 1} ^ {n} (x_ {i} - {\ overline {x}}) ^ {2} + n (\ theta - {\ overline {x}) }) ^ {2} \ right) \ right) amp;amp; \ sum _ {i = 1} ^ {n} (x_ {i} - {\ overline {x}}) (\ theta - {\ overline {x}}) = 0 \\ [6pt] amp; = (2 \ pi \ sigma ^ {2 }) ^ {- {\ frac {n} {2}}} \ exp \ left (- {1 \ over 2 \ sigma ^ {2}} \ sum _ {i = 1} ^ {n} (x_ {i } - {\ overline {x}}) ^ {2} \ right) \ exp \ left (- {\ frac {n} {2 \ sigma ^ {2}}} (\ theta - {\ overline {x}})) ^ {2} \ right) \ end {выровнено}}}

Совместная плотность образца принимает форму, требуемую теоремой Фишера – Неймана о факторизации, если позволить

час ( Икс 1 п ) знак равно ( 2 π σ 2 ) - п 2 exp ( - 1 2 σ 2 я знак равно 1 п ( Икс я - Икс ¯ ) 2 ) г θ ( Икс 1 п ) знак равно exp ( - п 2 σ 2 ( θ - Икс ¯ ) 2 ) {\ displaystyle {\ begin {align} h (x_ {1} ^ {n}) amp; = (2 \ pi \ sigma ^ {2}) ^ {- {\ frac {n} {2}}} \ exp \ left (- {1 \ over 2 \ sigma ^ {2}} \ sum _ {i = 1} ^ {n} (x_ {i} - {\ overline {x}}) ^ {2} \ right) \\ [6pt] g _ {\ theta} (x_ {1} ^ {n}) amp; = \ exp \ left (- {\ frac {n} {2 \ sigma ^ {2}}} (\ theta - {\ overline { x}}) ^ {2} \ right) \ end {выровнено}}}

Поскольку не зависит от параметра, а зависит только от через функцию час ( Икс 1 п ) {\ displaystyle h (x_ {1} ^ {n})} θ {\ displaystyle \ theta} г θ ( Икс 1 п ) {\ displaystyle g _ {\ theta} (x_ {1} ^ {n})} Икс 1 п {\ displaystyle x_ {1} ^ {n}}

Т ( Икс 1 п ) знак равно Икс ¯ знак равно 1 п я знак равно 1 п Икс я , {\ displaystyle T (X_ {1} ^ {n}) = {\ overline {x}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} X_ {i}, }

теорема факторизации Фишера – Неймана следует, что является достаточной статистикой для. Т ( Икс 1 п ) {\ displaystyle T (X_ {1} ^ {n})} θ {\ displaystyle \ theta}

Если неизвестно и поскольку, указанная выше вероятность может быть переписана как σ 2 {\ displaystyle \ sigma ^ {2}} s 2 знак равно 1 п - 1 я знак равно 1 п ( Икс я - Икс ¯ ) 2 {\ displaystyle s ^ {2} = {\ frac {1} {n-1}} \ sum _ {i = 1} ^ {n} \ left (x_ {i} - {\ overline {x}} \ right) ^ {2}}

ж Икс 1 п ( Икс 1 п ) знак равно ( 2 π σ 2 ) - п / 2 exp ( - п - 1 2 σ 2 s 2 ) exp ( - п 2 σ 2 ( θ - Икс ¯ ) 2 ) . {\ displaystyle {\ begin {align} f_ {X_ {1} ^ {n}} (x_ {1} ^ {n}) = (2 \ pi \ sigma ^ {2}) ^ {- n / 2} \ exp \ left (- {\ frac {n-1} {2 \ sigma ^ {2}}} s ^ {2} \ right) \ exp \ left (- {\ frac {n} {2 \ sigma ^ {2 }}} (\ theta - {\ overline {x}}) ^ {2} \ right). \ end {align}}}

Теорема факторизации Фишера – Неймана все еще верна и означает, что это совместная достаточная статистика для. ( Икс ¯ , s 2 ) {\ displaystyle ({\ overline {x}}, s ^ ​​{2})} ( θ , σ 2 ) {\ Displaystyle (\ тета, \ sigma ^ {2})}

Экспоненциальное распределение

Если они независимы и экспоненциально распределены с ожидаемым значением θ (неизвестный действительный положительный параметр), то это достаточная статистика для θ. Икс 1 , , Икс п {\ Displaystyle X_ {1}, \ точки, X_ {n}} Т ( Икс 1 п ) знак равно я знак равно 1 п Икс я {\ Displaystyle T (X_ {1} ^ {n}) = \ sum _ {i = 1} ^ {n} X_ {i}}

Чтобы убедиться в этом, рассмотрят совместную функцию плотности вероятности в. Поскольку наблюдения независимы, pdf можно записать как произведение индивидуальных плотностей, т. Е. Икс 1 п знак равно ( Икс 1 , , Икс п ) {\ Displaystyle X_ {1} ^ {n} = (X_ {1}, \ точки, X_ {n})}

ж Икс 1 п ( Икс 1 п ) знак равно я знак равно 1 п 1 θ е - 1 θ Икс я знак равно 1 θ п е - 1 θ я знак равно 1 п Икс я . {\ Displaystyle {\ begin {align} f_ {X_ {1} ^ {n}} (x_ {1} ^ {n}) amp; = \ prod _ {i = 1} ^ {n} {1 \ over \ theta } \, e ^ {{- 1 \ over \ theta} x_ {i}} = {1 \ over \ theta ^ {n}} \, e ^ {{- 1 \ over \ theta} \ sum _ {i = 1} ^ {n} x_ {i}}. \ End {выравнивается}}}

Совместная плотность образца принимает форму, требуемую теоремой Фишера – Неймана о факторизации, если позволить

час ( Икс 1 п ) знак равно 1 , г θ ( Икс 1 п ) знак равно 1 θ п е - 1 θ я знак равно 1 п Икс я . {\ displaystyle {\ begin {align} h (x_ {1} ^ {n}) = 1, \, \, \, g _ {\ theta} (x_ {1} ^ {n}) = {1 \ over \ theta ^ {n}} \, e ^ {{- 1 \ over \ theta} \ sum _ {i = 1} ^ {n} x_ {i}}. \ end {align}}}

Поскольку не зависит от параметра, а зависит только от через функцию час ( Икс 1 п ) {\ displaystyle h (x_ {1} ^ {n})} θ {\ displaystyle \ theta} г θ ( Икс 1 п ) {\ displaystyle g _ {\ theta} (x_ {1} ^ {n})} Икс 1 п {\ displaystyle x_ {1} ^ {n}} Т ( Икс 1 п ) знак равно я знак равно 1 п Икс я {\ Displaystyle T (X_ {1} ^ {n}) = \ sum _ {i = 1} ^ {n} X_ {i}}

теорема факторизации Фишера – Неймана следует, что является достаточной статистикой для. Т ( Икс 1 п ) знак равно я знак равно 1 п Икс я {\ Displaystyle T (X_ {1} ^ {n}) = \ sum _ {i = 1} ^ {n} X_ {i}} θ {\ displaystyle \ theta}

Гамма-распределение

Если независимы и распределены как a, где и - неизвестные параметры гамма-распределения, то является двумерной достаточной статистикой для. Икс 1 , , Икс п {\ Displaystyle X_ {1}, \ точки, X_ {n}} Γ ( α , β ) {\ Displaystyle \ Гамма (\ альфа \,, \, \ бета)} α {\ displaystyle \ alpha} β {\ displaystyle \ beta} Т ( Икс 1 п ) знак равно ( я знак равно 1 п Икс я , я знак равно 1 п Икс я ) {\ Displaystyle T (X_ {1} ^ {n}) = \ left (\ prod _ {i = 1} ^ {n} {X_ {i}}, \ sum _ {i = 1} ^ {n} X_ {Я прав)} ( α , β ) {\ Displaystyle (\ альфа, \ бета)}

Чтобы убедиться в этом, рассмотрят совместную функцию плотности вероятности в. Поскольку наблюдения независимы, pdf можно записать как произведение индивидуальных плотностей, т. Е. Икс 1 п знак равно ( Икс 1 , , Икс п ) {\ Displaystyle X_ {1} ^ {n} = (X_ {1}, \ точки, X_ {n})}

ж Икс 1 п ( Икс 1 п ) знак равно я знак равно 1 п ( 1 Γ ( α ) β α ) Икс я α - 1 е ( - 1 / β ) Икс я знак равно ( 1 Γ ( α ) β α ) п ( я знак равно 1 п Икс я ) α - 1 е - 1 β я знак равно 1 п Икс я . {\ displaystyle {\ begin {align} f_ {X_ {1} ^ {n}} (x_ {1} ^ {n}) amp; = \ prod _ {i = 1} ^ {n} \ left ({1 \ над \ Gamma (\ alpha) \ beta ^ {\ alpha}} \ right) x_ {i} ^ {\ alpha -1} e ^ {(- 1 / \ beta) x_ {i}} \\ [5pt] amp; = \ left ({1 \ over \ Gamma (\ alpha) \ beta ^ {\ alpha}} \ right) ^ {n} \ left (\ prod _ {i = 1} ^ {n} x_ {i} \ right) ^ {\ alpha -1} e ^ {{- 1 \ over \ beta} \ sum _ {i = 1} ^ {n} x_ {i}}. \ end {align}}}

Совместная плотность образца принимает форму, требуемую теоремой Фишера – Неймана о факторизации, если позволить

час ( Икс 1 п ) знак равно 1 , г ( α , β ) ( Икс 1 п ) знак равно ( 1 Γ ( α ) β α ) п ( я знак равно 1 п Икс я ) α - 1 е - 1 β я знак равно 1 п Икс я . {\ Displaystyle {\ begin {align} h (x_ {1} ^ {n}) = 1, \, \, \, g _ {(\ alpha \,, \, \ beta)} (x_ {1} ^ { n}) = \ left ({1 \ over \ Gamma (\ alpha) \ beta ^ {\ alpha}} \ right) ^ {n} \ left (\ prod _ {i = 1} ^ {n} x_ {i } \ right) ^ {\ alpha -1} e ^ {{- 1 \ over \ beta} \ sum _ {i = 1} ^ {n} x_ {i}}. \ end {align}}}

Поскольку не зависит от параметра, а зависит только от через функцию час ( Икс 1 п ) {\ displaystyle h (x_ {1} ^ {n})} ( α , β ) {\ Displaystyle (\ альфа \,, \, \ бета)} г ( α , β ) ( Икс 1 п ) {\ Displaystyle г _ {(\ альфа \,, \, \ бета)} (х_ {1} ^ {п})} Икс 1 п {\ displaystyle x_ {1} ^ {n}} Т ( Икс 1 п ) знак равно ( я знак равно 1 п Икс я , я знак равно 1 п Икс я ) , {\ Displaystyle T (x_ {1} ^ {n}) = \ left (\ prod _ {i = 1} ^ {n} x_ {i}, \ sum _ {i = 1} ^ {n} x_ {i }\верно),}

из теоремы факторизации Фишера – Неймана следует, что это достаточная статистика для Т ( Икс 1 п ) знак равно ( я знак равно 1 п Икс я , я знак равно 1 п Икс я ) {\ displaystyle T (X_ {1} ^ {n}) = \ left (\ prod _ {i = 1} ^ {n} X_ {i}, \ sum _ {i = 1} ^ {n} X_ {i }\верно)} ( α , β ) . {\ Displaystyle (\ альфа \,, \, \ бета).}

Теорема Рао – Блэквелла.

Достаточность находит полезное применение в теореме Рао – Блэквелла, которая утверждает, что если g ( X) является какой-либо оценкой θ, то обычно условное математическое ожидание g ( X) при достаточной статистике T ( X) является лучшей оценкой θ, и никогда не бывает хуже. Иногда можно очень легко построить очень грубую оценку g ( X), а затем оценить это условное ожидаемое значение, чтобы получить оценку, которая является оптимальной в различных смыслах.

Экспоненциальная семья
Основная статья: Экспоненциальная семья

Согласно теореме Питмана – Купмана – Дармуа, среди семейств вероятностных распределений, область значений которых не меняется в зависимости от оцениваемого параметра, только в экспоненциальных семействах имеется достаточная статистика, размерность которой остается ограниченной по мере увеличения размера выборки.

Менее кратко, предположим, что это независимые одинаково распределенные случайные величины, распределение которых, как известно, находится в некотором семействе распределений вероятностей с фиксированной поддержкой. Только если это семейство является экспоненциальным, существует достаточная статистика (возможно, векторная), число скалярных компонентов которой не увеличивается по мере увеличения размера выборки n. Икс п , п знак равно 1 , 2 , 3 , {\ Displaystyle X_ {n}, n = 1,2,3, \ точки} Т ( Икс 1 , , Икс п ) {\ displaystyle T (X_ {1}, \ dots, X_ {n})}

Эта теорема показывает, что достаточность (или, скорее, наличие скалярной или векторной достаточной статистики ограниченной размерности) резко ограничивает возможные формы распределения.

Другие виды достаточности

Байесовская достаточность

Альтернативная формулировка условия достаточности статистики, установленная в байесовском контексте, включает апостериорные распределения, полученные с использованием полного набора данных и с использованием только статистики. Таким образом, требование состоит в том, для почти всех х,

Pr ( θ Икс знак равно Икс ) знак равно Pr ( θ Т ( Икс ) знак равно т ( Икс ) ) . {\ Displaystyle \ Pr (\ theta \ mid X = x) = \ Pr (\ theta \ mid T (X) = t (x)).}

В более общем плане, не предполагая параметрическую модель, мы можем сказать, что статистика T является достаточной для прогнозирования, если

Pr ( Икс знак равно Икс Икс знак равно Икс ) знак равно Pr ( Икс знак равно Икс Т ( Икс ) знак равно т ( Икс ) ) . {\ Displaystyle \ Pr (X '= x' \ mid X = x) = \ Pr (X '= x' \ mid T (X) = t (x)).}

Оказывается, эта «байесовская достаточность» является следствием приведенной выше формулировки, однако они не эквивалентны прямо в бесконечномерном случае. Доступен ряд теоретических результатов для достаточности в байесовском контексте.

Линейная достаточность

Концепция, называемая «линейная достаточность», может быть сформулирована в байесовском контексте и в более общем смысле. Сначала определите лучший линейный предиктор вектора Y на основе X как. Тогда линейная статистика T ( x) линейна достаточна, если E ^ [ Y Икс ] {\ displaystyle {\ hat {E}} [Y \ mid X]}

E ^ [ θ Икс ] знак равно E ^ [ θ Т ( Икс ) ] . {\ displaystyle {\ hat {E}} [\ theta \ mid X] = {\ hat {E}} [\ theta \ mid T (X)].}
Смотрите также
Примечания
использованная литература
  • Холево, А.С. (2001) [1994], "Достаточная статистика", Энциклопедия математики, EMS Press
  • Lehmann, EL; Казелла, Г. (1998). Теория точечного оценивания (2-е изд.). Springer. Глава 4. ISBN   0-387-98502-6.
  • Додж Ю. (2003) Оксфордский словарь статистических терминов, OUP. ISBN   0-19-920613-9
Последняя правка сделана 2023-03-20 05:09:16
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте