Теория оценок

редактировать
Раздел статистики для оценки моделей на основе измеренных данных

Теория оценок - это ветвь статистики, который имеет дело с оценкой значений параметров на основе измеренных эмпирических данных, которые имеют случайную составляющую. Параметры описывают базовые физические параметры таким образом, что их значение влияет на распределение измеренных данных. Устройство оценки пытается аппроксимировать неизвестные параметры с помощью измерений.

В теории оценки обычно рассматриваются два подхода.

  • Вероятностный подход (описанный в этой статье) предполагает, что измеренные данные являются случайными с распределением вероятностей, зависящим от интересующих параметров
  • Метод принадлежности к множеству предполагает, что вектор измеренных данных принадлежит набору, который зависит от вектора параметров.
Содержание
  • 1 Примеры
  • 2 Основы
  • 3 Оценщики
  • 4 Примеры
    • 4.1 Неизвестная константа в аддитивном белом гауссовском шуме
      • 4.1.1 Максимальное правдоподобие
      • 4.1.2 Нижняя граница Крамера – Рао
    • 4.2 Максимум равномерного распределения
  • 5 Приложения
  • 6 См. Также
  • 7 Примечания
  • 8 Ссылки
    • 8.1 Цитаты
    • 8.2 Источники
  • 9 Внешние ссылки
Примеры

Например, это желательно для оценки доли избирателей, которые проголосуют за конкретного кандидата. Эта пропорция и есть искомый параметр; оценка основана на небольшой случайной выборке избирателей. В качестве альтернативы желательно оценить вероятность голосования избирателя за конкретного кандидата на основе некоторых демографических характеристик, таких как возраст.

Или, например, в радаре цель состоит в том, чтобы определить дальность действия объектов (самолетов, лодок и т. Д.) Путем анализа времени двустороннего прохождения принятых эхо-сигналов переданных импульсов.. Поскольку отраженные импульсы неизбежно включаются в электрический шум, их измеренные значения распределяются случайным образом, поэтому необходимо оценить время прохождения.

В качестве другого примера в теории электрической связи измерения, которые содержат информацию об интересующих параметрах, часто связаны с шумным сигналом.

Основы

Для данной модели необходимы несколько статистических «ингредиентов», чтобы можно было реализовать оценщик. Первый - это статистическая выборка - набор точек данных, взятых из случайного вектора (RV) размера N. Помещенные в вектор ,

x = [x [0] х [1] ⋮ х [N - 1]]. {\ displaystyle \ mathbf {x} = {\ begin {bmatrix} x [0] \\ x [1] \\\ vdots \\ x [N-1] \ end {bmatrix}}.}\ mathbf {x} = {\ begin {bmatrix} x [0] \\ x [1] \\\ vdots \\ x [N-1] \ конец {bmatrix}}.

Во-вторых, есть M параметров

θ = [θ 1 θ 2 ⋮ θ M], {\ displaystyle \ mathbf {\ theta} = {\ begin {bmatrix} \ theta _ {1} \\\ theta _ {2} \ \\ vdots \\\ theta _ {M} \ end {bmatrix}},}\ mathbf {\ theta} = {\ begin {bmatrix} \ theta _ {1} \\\ theta _ {2 } \\\ vdots \\\ theta _ {M} \ end {bmatrix}},

, значения которых необходимо оценить. В-третьих, непрерывная функция плотности вероятности (pdf) или ее дискретный аналог, функция массы вероятности (pmf) основного распределения, которое сгенерировало данные, должны быть определены как условные на значениях параметров:

p (x | θ). {\ displaystyle p (\ mathbf {x} | \ mathbf {\ theta}). \,}p (\ mathbf {x} | \ mathbf {\ theta}). \,

Также возможно, что сами параметры имеют распределение вероятностей (например, байесовская статистика ). Затем необходимо определить байесовскую вероятность

π (θ). {\ displaystyle \ pi (\ mathbf {\ theta}). \,}\ pi (\ mathbf {\ theta}). \,

После того, как модель сформирована, цель состоит в том, чтобы оценить параметры, обычно обозначаемые как θ ^ {\ displaystyle {\ hat {\ mathbf {\ theta}}}}{\ hat {\ mathbf { \ theta}}} , где «шляпа» обозначает оценку.

Одним из распространенных оценщиков является оценщик минимальной среднеквадратичной ошибки (MMSE), который использует ошибку между оцененными параметрами и фактическим значением параметров

e = θ ^ - θ {\ displaystyle \ mathbf {e} = {\ hat {\ mathbf {\ theta}}} - \ mathbf {\ theta}}\ mathbf {e} = {\ hat {\ mathbf {\ theta}}} - \ mathbf {\ theta}

как основа оптимальности. Затем этот член ошибки возводится в квадрат, и ожидаемое значение этого возведенного в квадрат значения минимизируется для средства оценки MMSE.

Оценщики

Обычно используемые оценщики (методы оценки) и связанные с ними темы включают:

Примеры

Неизвестная константа в аддитивном белом гауссовском шуме

Рассмотрим принятый дискретный сигнал, x [n] {\ displaystyle x [n]}x [n] , из N {\ displaystyle N}N независимых выборок, состоящих из неизвестной константы A {\ displaystyle A}Aс аддитивный белый гауссовский шум (AWGN) w [n] {\ displaystyle w [n]}w [ n] с нулевым средним и известной дисперсией σ 2 {\ displaystyle \ sigma ^ {2}}\ sigma ^ {2} (т.е. N (0, σ 2) {\ displaystyle {\ mathcal {N}} (0, \ sigma ^ {2})}{\ mathcal {N}} (0, \ sigma ^ {2}) ). Поскольку дисперсия известна, единственный неизвестный параметр - это A {\ displaystyle A}A.

Тогда модель сигнала будет

x [n] = A + w [n] n = 0, 1, …, N - 1 {\ displaystyle x [n] = A + w [n] \ quad n = 0,1, \ dots, N-1}x [n] = A + w [n] \ quad n = 0,1, \ точки, N-1

Два возможных (из многих) оценок для параметра A {\ displaystyle A}A:

  • A ^ 1 = x [0] {\ displaystyle {\ hat {A}} _ {1} = x [0]}{\ hat {A}} _ {1} = x [0]
  • A ^ 2 = 1 N ∑ N = 0 N - 1 x [n] {\ displaystyle {\ hat {A}} _ {2} = {\ frac {1} {N}} \ sum _ {n = 0} ^ { N-1} x [n]}{\ hat {A}} _ {2} = {\ frac {1} {N }} \ sum _ {n = 0} ^ {N-1} x [n] , которое является выборочным средним

Обе эти оценки имеют среднее из A {\ displaystyle A}A, который можно показать, взяв ожидаемое значение каждой оценки

E [A ^ 1] = E [x [0]] = A {\ displaystyle \ mathrm {E } \ left [{\ hat {A}} _ {1} \ right] = \ mathrm {E} \ left [x [0] \ right] = A}\ mathrm {E} \ left [{\ hat {A}} _ {1} \ right] = \ mathrm {E} \ left [x [0] \ right] = A

и

E [A ^ 2] Знак равно E [1 N ∑ N = 0 N - 1 x [n]] = 1 N [∑ N = 0 N - 1 E [x [n]]] = 1 N [NA] = A {\ displaystyle \ mathrm { E} \ left [{\ hat {A}} _ {2} \ right] = \ mathrm {E} \ left [{\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} x [n] \ right] = {\ frac {1} {N}} \ left [\ sum _ {n = 0} ^ {N-1} \ mathrm {E} \ left [x [n] \ right] \ right] = {\ frac {1} {N}} \ left [NA \ right] = A }\ mathrm {E} \ left [{\ hat {A}} _ {2} \ right] = \ mathrm {E} \ left [{\ frac {1} { N}} \ sum _ {n = 0} ^ {N-1} x [n] \ right] = {\ frac {1} {N}} \ left [\ sum _ {n = 0} ^ {N- 1} \ mathrm {E} \ left [x [n] \ right] \ right] = {\ frac {1} {N}} \ left [NA \ right] = A

На этом этапе кажется, что эти два оценщика работают одинаково. Однако разница между ними становится очевидной при сравнении отклонений.

var (A ^ 1) = var (x [0]) = σ 2 {\ displaystyle \ mathrm {var} \ left ({\ hat {A}} _ {1} \ right) = \ mathrm {var } \ left (x [0] \ right) = \ sigma ^ {2}}\ mathrm {var} \ left ({\ ha t {A}} _ {1} \ right) = \ mathrm {var} \ left (x [0] \ right) = \ sigma ^ {2}

и

var (A ^ 2) = var (1 N ∑ n = 0 N - 1 x [n]) = независимость 1 N 2 [∑ N = 0 N - 1 var (x [n])] = 1 N 2 [N σ 2] = σ 2 N {\ displaystyle \ mathrm {var} \ left ({\ hat {A} } _ {2} \ right) = \ mathrm {var} \ left ({\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} x [n] \ right) {\ overset {\ text {независимость}} {=}} {\ frac {1} {N ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} \ mathrm {var} (x [n]) \ right] = {\ frac {1} {N ^ {2}}} \ left [N \ sigma ^ {2} \ right] = {\ frac {\ sigma ^ {2}} {N} }}\ mathrm {var} \ left ({\ шляпа {A}} _ {2} \ right) = \ mathrm {var} \ left ({\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} x [n] \ справа) {\ overset {\ text {независимость}} {=}} {\ frac {1} {N ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} \ mathrm { var} (x [n]) \ right] = {\ frac {1} {N ^ {2}}} \ left [N \ sigma ^ {2} \ right] = {\ frac {\ sigma ^ {2} } {N}}

Может показаться, что выборочное среднее является лучшей оценкой, поскольку его дисперсия ниже для каждого N>1.

Максимальное правдоподобие

Продолжая пример с использованием оценки максимального правдоподобия, функция плотности вероятности (pdf) шума для одной выборки вес [n] {\ displaystyle w [n]}w [ n] равно

p (w [n]) = 1 σ 2 π exp ⁡ (- 1 2 σ 2 w [n] 2) { \ displaystyle p (w [n]) = {\ frac {1} {\ sigma {\ sqrt {2 \ pi}}}} \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2} }} w [n] ^ {2} \ right)}p (w [n]) = { \ frac {1} {\ sigma {\ sqrt {2 \ pi}}}} \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2}}} w [n] ^ {2} \ справа)

, и вероятность x [n] {\ displaystyle x [n]}x [n] становится (x [n ] {\ displaystyle x [n]}x [n] можно представить себе N (A, σ 2) {\ displaystyle {\ mathcal {N}} (A, \ sigma ^ {2}) }{\ mathcal {N}} (A, \ sigma ^ {2}) )

p (x [n]; A) = 1 σ 2 π exp ⁡ (- 1 2 σ 2 (x [n] - A) 2) {\ displaystyle p (x [n]; A) = { \ frac {1} {\ sigma {\ sqrt {2 \ pi}}}} \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2}}} (x [n] -A) ^ {2} \ right)}p (x [n]; A) = {\ frac {1} {\ sigma {\ sqrt {2 \ pi}}} } \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2}}} (x [n] -A) ^ {2} \ right)

По независимости вероятность x {\ displaystyle \ mathbf {x}}\ mathbf {x} становится

p (x; A) = ∏ n = 0 N - 1 p (x [n]; A) = 1 (σ 2 π) N exp ⁡ (- 1 2 σ 2 ∑ n = 0 N - 1 (Икс [N] - A) 2) {\ Displaystyle p (\ mathbf {x}; A) = \ prod _ {n = 0} ^ {N-1} p (x [n]; A) = { \ frac {1} {\ left (\ sigma {\ sqrt {2 \ pi}} \ right) ^ {N}}} \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2}} } \ sum _ {n = 0} ^ {N-1} (x [n] -A) ^ {2} \ right)}p (\ mathbf {x}; A) = \ prod _ {n = 0} ^ {N-1} p (x [n]; A) = {\ frac { 1} {\ left (\ sigma {\ sqrt {2 \ pi}} \ right) ^ {N}}} \ exp \ left (- {\ frac {1} {2 \ sigma ^ {2}}} \ sum _ {n = 0} ^ {N-1} (x [n] -A) ^ {2} \ right)

Принимая натуральный логарифм PDF-файла

ln ⁡ p (x; A) знак равно - N пер ⁡ (σ 2 π) - 1 2 σ 2 ∑ N = 0 N - 1 (x [n] - A) 2 {\ displaystyle \ ln p (\ mathbf {x}; A) = - N \ ln \ left (\ sigma {\ sqrt {2 \ pi}} \ right) - {\ frac {1} {2 \ sigma ^ {2}}} \ sum _ {n = 0} ^ {N-1 } (x [n] -A) ^ {2}}\ ln p (\ mathbf {x}; A) = - N \ ln \ left (\ sigma {\ sqrt {2 \ pi}} \ right) - {\ frac {1} {2 \ sigma ^ {2}}} \ sum _ {n = 0} ^ {N-1} (x [n] -A) ^ {2}

и оценка максимального правдоподобия равна

A ^ = arg ⁡ max ln ⁡ p (x; A) {\ displaystyle {\ hat {A}} = \ arg \ max \ ln p (\ mathbf {x}; A)}{\ hat {A }} = \ arg \ max \ ln p (\ mathbf {x}; A)

Взяв первую производную логарифмической функции правдоподобия

∂ ∂ A ln ⁡ p (x; A) Знак равно 1 σ 2 [∑ N = 0 N - 1 (x [n] - A)] = 1 σ 2 [∑ n = 0 N - 1 x [n] - NA] {\ displaystyle {\ frac {\ partial } {\ partial A}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ {N- 1} (x [n] -A) \ right] = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} x [n] -NA \ right]}{\ frac { \ partial} {\ partial A}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ { N-1} (x [n] -A) \ right] = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} x [ n] - NA \ right]

и обнуление

0 = 1 σ 2 [∑ n = 0 N - 1 x [n] - NA] = ∑ n = 0 N - 1 x [n] - NA {\ displaystyle 0 = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} x [n] -NA \ right] = \ sum _ {n = 0} ^ {N-1} x [n] -NA}0 = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ {N-1} x [n] -NA \ right] = \ sum _ {n = 0} ^ {N -1} x [n] -NA

Это приводит к оценке максимального правдоподобия

A ^ = 1 N ∑ n = 0 N - 1 x [n] {\ displaystyle {\ hat {A}} = {\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} x [n]}{\ hat {A}} = {\ frac {1} {N}} \ sum _ {n = 0} ^ {N-1} x [n]

, который является просто выборочным средним. Из этого примера было обнаружено, что выборочное среднее является оценкой максимального правдоподобия для N {\ displaystyle N}N выборок фиксированного неизвестного параметра, поврежденного AWGN.

нижняя граница Крамера – Рао

Чтобы найти нижнюю границу Крамера – Рао (CRLB) оценщика выборочного среднего, сначала необходимо найти Информация Фишера число

I (A) = E ([∂ ∂ A ln ⁡ p (x; A)] 2) = - E [∂ 2 ∂ A 2 ln ⁡ p (x; A)] { \ Displaystyle {\ mathcal {I}} (A) = \ mathrm {E} \ left (\ left [{\ frac {\ partial} {\ partial A}} \ ln p (\ mathbf {x}; A) \ right] ^ {2} \ right) = - \ mathrm {E} \ left [{\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) \ right]}{\ mathcal {I}} (A) = \ mathrm {E} \ left (\ left [{\ frac {\ partial} {\ partial A}} \ ln p (\ mathbf {x}; A) \ right] ^ {2} \ right) = - \ mathrm {E } \ left [{\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) \ right]

и копирование сверху

∂ ∂ A ln ⁡ p (x; A) = 1 σ 2 [∑ n = 0 N - 1 x [n] - NA] {\ displaystyle { \ frac {\ partial} {\ partial A}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0 } ^ {N-1} x [n] -NA \ right]}{\ frac { \ partial} {\ partial A}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} \ left [\ sum _ {n = 0} ^ { N-1} x [n] -NA \ right]

Взяв вторую производную

∂ 2 ∂ A 2 ln ⁡ p (x; A) = 1 σ 2 (- N) = - N σ 2 {\ Displaystyle {\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} (- N) = {\ frac {-N} {\ sigma ^ {2}}}}{\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) = {\ frac {1} {\ sigma ^ {2}}} (- N) = {\ frac {-N} {\ sigma ^ {2}}}

и найти отрицательное ожидаемое значение тривиально поскольку теперь это детерминированная константа - E [∂ 2 ∂ A 2 ln ⁡ p (x; A)] = N σ 2 {\ displaystyle - \ mathrm {E} \ left [{\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) \ right] = {\ frac {N} {\ sigma ^ {2}}}}- \ mathrm {E} \ left [{\ frac {\ partial ^ {2}} {\ partial A ^ {2}}} \ ln p (\ mathbf {x}; A) \ right] = {\ frac {N} {\ sigma ^ { 2}}}

Наконец, помещая информацию Фишера в

var (A ^) ≥ 1 I {\ displaystyle \ mathrm {var } \ left ({\ hat {A}} \ right) \ geq {\ frac {1} {\ mathcal {I}}}}\ mathrm {var} \ left ({\ hat {A}} \ right) \ geq {\ frac {1} {\ mathcal {I}}}

приводит к

var (A ^) ≥ σ 2 N {\ displaystyle \ mathrm {var} \ left ({\ hat {A}} \ right) \ geq {\ frac {\ sigma ^ {2}} {N}}}\ mathrm {var} \ left ({\ hat {A}} \ right) \ geq {\ frac {\ sigma ^ {2}} {N}}

Сравнение с дисперсией выборочного среднего ( определено ранее) показывает, что выборочное среднее равно нижней границе Крамера – Рао для всех значений N {\ displaystyle N}N и A {\ displaystyle A}A. Другими словами, выборочное среднее является (обязательно уникальным) эффективным оценщиком и, следовательно, также несмещенным оценщиком с минимальной дисперсией (MVUE), в дополнение к максимальной вероятности оценщик.

Максимум равномерного распределения

Одним из простейших нетривиальных примеров оценки является оценка максимума равномерного распределения. Он используется в качестве практического упражнения в классе и для иллюстрации основных принципов теории оценивания. Кроме того, в случае оценки, основанной на единственной выборке, она демонстрирует философские проблемы и возможные недоразумения при использовании оценок максимального правдоподобия и функций правдоподобия.

с учетом дискретного равномерного распределения. 1, 2,…, N {\ displaystyle 1,2, \ dots, N}1,2, \ точки, N с неизвестным максимумом, оценка UMVU для максимума определяется как

k + 1 км - 1 = m + mk - 1 {\ displaystyle {\ frac {k + 1} {k}} m-1 = m + {\ frac {m} {k}} - 1}{\ frac {k + 1} {k}} m-1 = m + {\ frac {m} {k}} - 1

где m - максимум выборки, а k - размер выборки, выборка без замены. Эта проблема широко известна как проблема немецких танков из-за применения максимальной оценки к оценке производства немецких танков во время Второй мировой войны.

Эту формулу можно интуитивно понять как;

«Максимум выборки плюс средний разрыв между наблюдениями в выборке»,

разрыв добавляется, чтобы компенсировать отрицательное смещение максимума выборки как средство оценки для максимума совокупности.

Это имеет дисперсию

1 k (N - k) (N + 1) (k + 2) ≈ N 2 k 2 для малых выборок k ≪ N {\ displaystyle {\ frac {1} {k}} {\ frac {(Nk) (N + 1)} {(k + 2)}} \ приблизительно {\ frac {N ^ {2}} {k ^ {2}}} {\ text {для малых образцов}} k \ ll N}{\ frac {1} {k}} {\ frac {(Nk) (N + 1)} {(k + 2)}} \ приблизительно {\ frac {N ^ {2}} {k ^ {2}}} {\ text {для небольших образцов}} k \ ll N

, то есть стандартное отклонение приблизительно N / k {\ displaystyle N / k}N / k , средний размер (совокупности) разрыва между выборками; сравните m k {\ displaystyle {\ frac {m} {k}}}{\ frac {m} {k}} выше. Это можно рассматривать как очень простой случай оценки максимального разнесения.

Максимум выборки - это оценка максимального правдоподобия для максимума совокупности, но, как обсуждалось выше, она смещена.

Приложения

Многие области требуют использования теории оценивания. Некоторые из этих областей включают (но не ограничиваются ими):

Измеренные данные могут быть подвержены шум или неопределенность, и именно посредством статистической вероятности ищутся оптимальные решения для извлечения как можно большего количества информации из данных.

См. Также
Примечания
Ссылки

Цитаты

Источники

Внешние ссылки
  • Связанные со СМИ на Теория оценок на Wikimedia Commons
Последняя правка сделана 2021-05-19 05:02:05
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте