Теорема Лемана – Шеффе

редактировать

В статистике, теорема Лемана – Шеффе является выдающимся утверждением, объединяющим идеи полноты, достаточности, уникальности и наилучшей объективной оценки.. Теорема утверждает, что любая оценка, которая несмещена для данной неизвестной величины и которая зависит от данных только посредством полной, достаточной статистики - это единственная лучшая объективная оценка этой величины. Теорема Лемана – Шеффе названа в честь Эриха Лео Леманна и Генри Шеффе, учитывая их две ранние работы.

Если T является полной достаточной статистикой для θ и E (g (T)) = τ (θ), тогда g (T) является несмещенной оценкой (UMVUE) с равномерной минимальной дисперсией τ (θ).

Содержание
  • 1 Утверждение
    • 1.1 Доказательство
  • 2 Пример использования неполной минимально достаточной статистики
  • 3 См. Также
  • 4 Ссылки
Заявление

Пусть X → = X 1, X 2,…, X n {\ displaystyle {\ vec {X}} = X_ {1}, X_ {2}, \ dots, X_ {n}}\vec{X}= X_1, X_2, \dots, X_nслучайная выборка из распределения, имеющего pdf (или pmf в дискретном случае) f (x: θ) {\ displaystyle f (x: \ theta)}f (x: \ theta) где θ ∈ Ω {\ displaystyle \ theta \ in \ Omega}\theta \in \Omega - параметр в пространстве параметров. Предположим, что Y = u (X →) {\ displaystyle Y = u ({\ vec {X}})}Y=u({\vec {X}})является достаточной статистикой для θ, и пусть {f Y (y : θ): θ ∈ Ω} {\ displaystyle \ {f_ {Y} (y: \ theta): \ theta \ in \ Omega \}}{\displaystyle \{f_{Y}(y:\theta):\theta \in \Omega \}}быть полным семейством. Если φ: E ⁡ [φ (Y)] = θ {\ displaystyle \ varphi: \ operatorname {E} [\ varphi (Y)] = \ theta}{\displaystyle \varphi :\operatorname {E} [\varphi (Y)]=\theta }, то φ ( Y) {\ displaystyle \ varphi (Y)}{\displaystyle \varphi (Y)}- уникальный MVUE для θ.

Доказательство

Согласно теореме Рао – Блэквелла, если Z {\ displaystyle Z}Zявляется несмещенной оценкой θ, то φ (Y): = E ⁡ [Z ∣ Y] {\ displaystyle \ varphi (Y): = \ operatorname {E} [Z \ mid Y]}{\displaystyle \varphi (Y):=\operatorname {E} [Z\mid Y]}определяет несмещенную оценку θ с свойство, что его дисперсия не больше, чем у Z {\ displaystyle Z}Z.

Теперь мы покажем, что эта функция уникальна. Предположим, что W {\ displaystyle W}Wявляется другим кандидатом оценки MVUE для θ. Затем снова ψ (Y): = E ⁡ [W ∣ Y] {\ displaystyle \ psi (Y): = \ operatorname {E} [W \ mid Y]}{\displaystyle \psi (Y):=\operatorname {E} [W\mid Y]}определяет несмещенную оценку θ со свойством, что его дисперсия не превышает дисперсию W {\ displaystyle W}W. Тогда

E ⁡ [φ (Y) - ψ (Y)] = 0, θ ∈ Ω. {\ displaystyle \ operatorname {E} [\ varphi (Y) - \ psi (Y)] = 0, \ theta \ in \ Omega.}{\ displaystyle \ operatorname {E} [\ varphi (Y) - \ psi (Y) ] = 0, \ theta \ in \ Omega.}

Поскольку {f Y (y: θ): θ ∈ Ω} {\ displaystyle \ {f_ {Y} (y: \ theta): \ theta \ in \ Omega \}}{\displaystyle \{f_{Y}(y:\theta):\theta \in \Omega \}}представляет собой полное семейство

E ⁡ [φ (Y) - ψ ( Y)] знак равно 0 ⟹ φ (y) - ψ (y) = 0, θ ∈ Ω {\ displaystyle \ operatorname {E} [\ varphi (Y) - \ psi (Y)] = 0 \ подразумевает \ varphi (y) - \ psi (y) = 0, \ theta \ in \ Omega}{\ displaystyle \ operatorname {E} [\ varphi (Y) - \ psi (Y)] = 0 \ подразумевает \ varphi (Y) - \ psi (y) = 0, \ theta \ in \ Omega}

и поэтому функция φ {\ displaystyle \ varphi}\varphi является уникальной функцией Y с дисперсией не больше чем у любого другого объективного оценщика. Мы заключаем, что φ (Y) {\ displaystyle \ varphi (Y)}{\displaystyle \varphi (Y)}- это MVUE.

Пример использования неполной минимальной достаточной статистики

Пример улучшаемого улучшения Рао – Блэквелла при использовании минимальной достаточной статистики, которая неполна, был предоставлен Галили и Мейлиджсоном в 2016 году. Пусть X 1,…, X n {\ displaystyle X_ {1}, \ ldots, X_ {n}}X_1, \ldots, X_nбудет случайной выборкой из шкалы- равномерное распределение Икс ∼ U ((1 - k) θ, (1 + k) θ), {\ displaystyle X \ sim U ((1-k) \ theta, (1 + k) \ theta),}{\displaystyle X\sim U((1-k)\theta,(1+k)\theta),}с неизвестным средним E ⁡ [X] = θ {\ displaystyle \ operatorname {E} [X] = \ theta}{\displaystyle \operatorname {E} [X]=\theta }и известным параметром конструкции k ∈ ( 0, 1) {\ displaystyle k \ in (0,1)}{\ displaystyle k \ in (0,1)} . При поиске "наилучших" возможных объективных оценок для θ {\ displaystyle \ theta}\ theta естественно рассматривать X 1 {\ displaystyle X_ {1}}X_ {1} в качестве начальной (грубой) объективной оценки для θ {\ displaystyle \ theta}\ theta , а затем попытайтесь его улучшить. Поскольку Икс 1 {\ displaystyle X_ {1}}X_ {1} не является функцией T = (X (1), X (n)) {\ displaystyle T = \ left (X_ {(1)}, X _ {(n)} \ right)}{\displaystyle T=\left(X_{(1)},X_{(n)}\right)}, минимальная достаточная статистика для θ {\ displaystyle \ theta}\ theta (где X (1) знак равно мин я Икс я {\ Displaystyle X _ {(1)} = \ мин _ {я} X_ {я}}{\displaystyle X_{(1)}=\min _{i}X_{i}}и Х (п) = макс я Х я {\ displaystyle X _ {(n)} = \ max _ {i} X_ {i}}{\displaystyle X_{(n)}=\max _{i}X_{i}}), его можно улучшить с помощью теоремы Рао – Блэквелла следующим образом:

θ ^ RB = E θ ⁡ [X 1 ∣ X (1), X (n)] = X (1) + X (n) 2. {\ displaystyle {\ hat {\ theta}} _ {RB} = \ operatorname {E} _ {\ theta} [X_ {1} \ mid X _ {(1)}, X _ {(n)}] = {\ frac {X _ {(1)} + X _ {(n)}} {2}}.}{\displaystyle {\hat {\theta }}_{RB}=\operatorname {E} _{\theta }[X_{1}\mid X_{(1)},X_{(n)}]={\frac {X_{(1)}+X_{(n)}}{2}}.}

Однако можно показать, что следующая несмещенная оценка имеет меньшую дисперсию:

θ ^ LV = 1 k 2 n - 1 п + 1 + 1 ⋅ (1 - к) Х (1) + (1 + к) Х (п) 2. {\ displaystyle {\ hat {\ theta}} _ {LV} = {\ frac {1} {k ^ {2} {\ frac {n-1} {n + 1}} + 1}} \ cdot {\ frac {(1-k) X _ {(1)} + (1 + k) X _ {(n)}} {2}}.}{\displaystyle {\hat {\theta }}_{LV}={\frac {1}{k^{2}{\frac {n-1}{n+1}}+1}}\cdot {\frac {(1-k)X_{(1)}+(1+k)X_{(n)}}{2}}.}

Фактически, его можно было бы еще улучшить, используя следующую оценку :

θ ^ BAYES = n + 1 n [1 - X (1) (1 + k) X (n) (1 - k) - 1 (X (1) (1 + k) X (n) ( 1 - k)) n + 1 - 1] Икс (n) 1 + k {\ displaystyle {\ hat {\ theta}} _ {\ text {BAYES}} = {\ frac {n + 1} {n}} \ left [1 - {\ frac {{\ frac {X _ {(1)} (1 + k)} {X _ {(n)} (1-k)}} - 1} {\ left ({\ frac { X _ {(1)} (1 + k)} {X _ {(n)} (1-k)}} \ right) ^ {n + 1} -1}} \ right] {\ frac {X _ {(n)}} {1 + k}}}{\ displaystyle {\ hat {\ theta}} _ {\ text {BAYES}} = {\ frac { n + 1} {n}} \ left [1 - {\ frac {{\ frac {X _ {(1)} (1 + k)} {X _ {(n)} (1-k)}} - 1} {\ left ({\ frac {X _ {(1)} (1 + k)} {X _ {(n)} (1-k)}} \ right) ^ {n + 1} -1}} \ right] { \ frac {X _ {(n)}} {1 + k}}}
См. Также
Ссылки
Последняя правка сделана 2021-05-26 05:38:52
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте