Передискретизация складного ножа

редактировать
Статистический метод

В статистика, складной нож - это resampli Метод ng особенно полезен для оценки дисперсии и смещения. Складной нож предшествует другим распространенным методам передискретизации, таким как bootstrap. Складной нож оценщик параметра находится путем систематического исключения каждого наблюдения из набора данных и вычисления оценки, а затем нахождения среднего значения этих вычислений. Для выборки размером n {\ displaystyle n}n оценка складного ножа определяется путем агрегирования оценок каждого (n - 1) {\ displaystyle (n-1)}(n-1) - подвыборка.

Техника складного ножа была разработана Морисом Кенуйем (1924–1973) в 1949 году и усовершенствована в 1956. Джон Тьюки расширил эту технику в 1958 году и предложил название «складной нож», потому что, как и физический складной нож (компактный складной нож), это грубый и готовый инструмент, который может импровизировать решение множества проблем, даже хотя конкретные проблемы могут быть более эффективно решены с помощью специального инструмента.

складной нож - это линейная аппроксимация бутстрапа.

Содержание
  • 1 Оценка
  • 2 Оценка и коррекция смещения
  • 3 См. Также
  • 4 Примечания
  • 5 Ссылки
Оценка

Оценка параметра складным ножом может быть найдена путем оценки параметра для каждой подвыборки без i-го наблюдения. Например, если оцениваемым параметром является среднее значение x для генеральной совокупности, мы вычисляем среднее значение x ¯ i {\ displaystyle {\ bar {x}} _ {i}}{\ bar {x}} _ {i} для каждой подвыборки. состоящий из всех, кроме i-й точки данных:

x ¯ i = 1 n - 1 ∑ j = 1, j ≠ inxj, i = 1,…, n. {\ displaystyle {\ bar {x}} _ {i} = {\ frac {1} {n-1}} \ sum _ {j = 1, j \ neq i} ^ {n} x_ {j}, \ quad \ quad i = 1, \ dots, n.}{\ displaystyle {\ bar {x}} _ {i} = {\ frac {1} {n-1}} \ sum _ {j = 1, j \ neq i} ^ {n} x_ {j}, \ quad \ quad i = 1, \ dots, n.}

Эти n оценок формируют оценку распределения выборочной статистики, если она была вычислена по большому количеству выборок. В частности, среднее значение этого выборочного распределения является средним из этих n оценок:

x ¯ = 1 n ∑ i = 1 n x ¯ i. {\ displaystyle {\ bar {x}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ bar {x}} _ {i}.}{\ displaystyle {\ bar {x}} = {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ bar {x}} _ {i}.}

Один может явно показать, что эта x ¯ {\ displaystyle {\ bar {x}}}{\ bar {x}} равна обычной оценке 1 n ∑ i = 1 nxi {\ displaystyle {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} x_ {i}}{\ displaystyle {\ frac {1} {n}} \ sum _ {i = 1} ^ {n} x_ {i}} , поэтому действительная точка появляется в моменты, превышающие среднее значение. Оценка дисперсии оценщика складным ножом может быть рассчитана на основе дисперсии этого распределения x ¯ i {\ displaystyle {\ bar {x}} _ {i}}{\ bar {x}} _ {i} :

Var ⁡ (x ¯) = n - 1 n ∑ i = 1 n (x ¯ i - x ¯) 2 = 1 n (n - 1) ∑ i = 1 n (xi - x ¯) 2. {\ displaystyle \ operatorname {Var} ({\ bar {x}}) = {\ frac {n-1} {n}} \ sum _ {i = 1} ^ {n} ({\ bar {x}} _ {i} - {\ bar {x}}) ^ {2} = {\ frac {1} {n (n-1)}} \ sum _ {i = 1} ^ {n} (x_ {i} - {\ bar {x}}) ^ {2}.}{\ displaystyle \ operatorname {Var} ({\ bar {x}}) = {\ frac {n-1} {n}} \ sum _ {i = 1} ^ {n} ( {\ bar {x}} _ {i} - {\ bar {x}}) ^ {2} = {\ frac {1} {n (n-1)}} \ sum _ {i = 1} ^ { n} (x_ {i} - {\ bar {x}}) ^ {2}.}
Оценка и коррекция смещения

Метод складного ножа можно использовать для оценки смещения оценщика, рассчитанного для всей выборки. Скажем, θ ^ {\ displaystyle {\ hat {\ theta}}}\hat{\theta}- вычисляемая оценка интересующего параметра на основе всех n {\ displaystyle {n}}{n} наблюдения. Пусть

θ ^ (.) = 1 n ∑ i = 1 n θ ^ (i) {\ displaystyle {\ hat {\ theta}} _ {\ mathrm {(.)}} = {\ Frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ hat {\ theta}} _ {(i)}}{\ displaystyle {\ hat {\ theta}} _ {\ mathrm {(.)}} = {\ Frac {1} {n}} \ sum _ {i = 1} ^ {n} {\ шляпа {\ theta}} _ {(i)}}

где θ ^ (i) {\ displaystyle {\ hat { \ theta}} _ {(i)}}{\ displaystyle {\ hat {\ theta}} _ {(i)}} - оценка интереса, основанная на выборке с удаленным i-м наблюдением и θ ^ (.) {\ displaystyle {\ hat { \ theta}} _ {\ mathrm {(.)}}}{\ hat {\ theta}} _ {{\ mathrm {(.)}}} - это среднее значение этих оценок «без учета единого значения». Оценка смещения складного ножа для θ ^ {\ displaystyle {\ hat {\ theta}}}\hat{\theta}определяется по формуле:

bias ^ (θ) = (n - 1) (θ ^ (.) - θ ^) {\ displaystyle {\ widehat {\ text {bias}}} _ {\ mathrm {(\ theta)}} = (n-1) ({\ hat {\ theta}} _ { \ mathrm {(.)}} - {\ hat {\ theta}})}{\ displaystyle {\ widehat {\ text {bias}}} _ {\ mathrm {(\ theta)}} = (n -1) ({\ hat {\ theta}} _ {\ mathrm {(.)}} - {\ hat {\ theta}})}

, и результирующая оценка складного ножа со скорректированным смещением θ {\ displaystyle \ theta}\ t heta определяется как :

θ ^ jack = θ ^ - смещение ^ (θ) = n θ ^ - (n - 1) θ ^ (.) {\ Displaystyle {\ hat {\ theta}} _ {\ text {jack}} = {\ hat {\ theta}} - {\ widehat {\ text {bias}}} _ {\ mathrm {(\ theta)}} = n {\ hat {\ theta}} - (n-1) {\ hat {\ theta}} _ {\ mathrm {(.)}}}{\ displaystyle {\ hat {\ theta}} _ {\ text {jack}} = {\ hat {\ theta}} - {\ widehat {\ text {bias}}} _ {\ mathrm {(\ theta)}} = n {\ hat {\ theta}} - (n-1) {\ hat {\ theta}} _ {\ mathrm {(.)}} }

Это устраняет смещение в частном случае, когда смещение составляет O (n - 1) {\ displaystyle O (n ^ {- 1})}O (n ^ {- 1}) и удаляет его в O (n - 2) {\ displaystyle O (n ^ {- 2})}{\ displaystyle O (n ^ {- 2}) } в других случаях.

См. Также
Примечания
Ссылки
Последняя правка сделана 2021-05-24 11:25:10
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте