stringtranslate.com

Теория оценки

Теория оценки — это раздел статистики , который занимается оценкой значений параметров на основе измеренных эмпирических данных, имеющих случайную составляющую. Параметры описывают базовую физическую обстановку таким образом, что их значение влияет на распределение измеренных данных. Оценщик пытается аппроксимировать неизвестные параметры, используя измерения. В теории оценки обычно рассматриваются два подхода: [1]

Примеры

Например, желательно оценить долю населения, которая проголосует за конкретного кандидата. Эта доля и есть искомый параметр; оценка основана на небольшой случайной выборке избирателей. В качестве альтернативы желательно оценить вероятность того, что избиратель проголосует за конкретного кандидата, на основе некоторых демографических характеристик, таких как возраст.

Или, например, в радаре целью является определение дальности объектов (самолетов, лодок и т. д.) путем анализа времени двустороннего транзита полученных эхо-сигналов переданных импульсов. Поскольку отраженные импульсы неизбежно встроены в электрический шум, их измеренные значения распределены случайным образом, поэтому время транзита должно быть оценено.

Другой пример: в теории электросвязи измерения, содержащие информацию об интересующих параметрах, часто связаны с зашумленным сигналом .

Основы

Для данной модели необходимо несколько статистических «ингредиентов», чтобы можно было реализовать оценщик. Первым является статистическая выборка — набор точек данных, взятых из случайного вектора (RV) размера N . Помещенный в вектор , Во-вторых, есть M параметров , значения которых должны быть оценены. В-третьих, непрерывная функция плотности вероятности (pdf) или ее дискретный аналог, функция массы вероятности (pmf), базового распределения, которое сгенерировало данные, должны быть указаны в зависимости от значений параметров: Также возможно, что сами параметры имеют распределение вероятностей (например, байесовская статистика ). Затем необходимо определить байесовскую вероятность После того, как модель сформирована, цель состоит в том, чтобы оценить параметры, с оценками, обычно обозначаемыми , где «шляпа» указывает на оценку.

Одним из распространенных оценщиков является оценщик минимальной средней квадратичной ошибки (MMSE), который использует ошибку между оцененными параметрами и фактическим значением параметров в качестве основы для оптимальности. Затем этот член ошибки возводится в квадрат, и ожидаемое значение этого квадратичного значения минимизируется для оценщика MMSE.

Оценщики

Наиболее часто используемые оценщики (методы оценки) и темы, связанные с ними, включают:

Примеры

Неизвестная константа в аддитивном белом гауссовском шуме

Рассмотрим полученный дискретный сигнал , , независимых выборок , состоящий из неизвестной константы с аддитивным белым гауссовым шумом (AWGN) с нулевым средним и известной дисперсией ( т.е. , ). Поскольку дисперсия известна, то единственным неизвестным параметром является .

Модель сигнала тогда будет следующей:

Две возможные (из многих) оценки параметра :

Обе эти оценки имеют среднее значение , которое можно показать, взяв ожидаемое значение каждой оценки и

На этом этапе эти два оценщика, казалось бы, работают одинаково. Однако разница между ними становится очевидной при сравнении дисперсий. и

По-видимому, выборочное среднее является лучшей оценкой, поскольку его дисперсия ниже для каждого  N  > 1.

Максимальная вероятность

Продолжая пример с использованием оценки максимального правдоподобия , функция плотности вероятности (PDF) шума для одной выборки равна и вероятность становится ( можно представить как ) В силу независимости вероятность становится. Беря натуральный логарифм PDF и оценки максимального правдоподобия, получаем

Берем первую производную логарифмической функции правдоподобия и приравниваем ее к нулю

Это приводит к оценке максимального правдоподобия, которая является просто средним значением выборки. Из этого примера было обнаружено, что среднее значение выборки является оценкой максимального правдоподобия для выборок фиксированного неизвестного параметра, искаженного AWGN.

Нижняя граница Крамера–Рао

Чтобы найти нижнюю границу Крамера–Рао (CRLB) оценки выборочного среднего, сначала необходимо найти информационное число Фишера и скопировать из вышеизложенного

Взять вторую производную и найти отрицательное ожидаемое значение тривиально, поскольку теперь это детерминированная константа.

Наконец, помещая информацию Фишера в результаты,

Сравнение этого с дисперсией выборочного среднего (определенной ранее) показывает, что выборочное среднее равно нижней границе Крамера–Рао для всех значений и . Другими словами, выборочное среднее является (обязательно уникальной) эффективной оценкой , и, таким образом, также минимальной дисперсионной несмещенной оценкой (MVUE), в дополнение к тому, что она является оценкой максимального правдоподобия .

Максимум равномерного распределения

Одним из простейших нетривиальных примеров оценки является оценка максимума равномерного распределения. Она используется в качестве практического упражнения в классе и для иллюстрации основных принципов теории оценки. Кроме того, в случае оценки на основе одной выборки она демонстрирует философские проблемы и возможные недоразумения при использовании оценок максимального правдоподобия и функций правдоподобия .

При наличии дискретного равномерного распределения с неизвестным максимумом оценка UMVU для максимума определяется по формуле, где mмаксимум выборки , а kразмер выборки , выборка без возвращения. [2] [3] Эта проблема широко известна как проблема немецких танков из-за применения оценки максимума к оценкам производства немецких танков во время Второй мировой войны .

Формулу можно интуитивно понять так:

«Выборочный максимум плюс средний разрыв между наблюдениями в выборке»,

разрыв добавляется для компенсации отрицательного смещения максимума выборки как оценки максимума популяции. [примечание 1]

Это имеет дисперсию [2], поэтому стандартное отклонение приблизительно равно , (популяционному) среднему размеру промежутка между образцами; сравните выше. Это можно рассматривать как очень простой случай оценки максимального интервала .

Максимум выборки — это оценка максимального правдоподобия для максимума популяции, но, как обсуждалось выше, она смещена.

Приложения

Многочисленные области требуют использования теории оценки. Некоторые из этих областей включают:

Измеренные данные, скорее всего, будут подвержены шуму или неопределенности, и именно с помощью статистической вероятности ищутся оптимальные решения для извлечения как можно большего количества информации из данных.

Смотрите также

Примечания

  1. ^ Максимум выборки никогда не превышает максимума популяции, но может быть меньше, поэтому это смещенная оценка : она будет иметь тенденцию недооценивать максимум популяции.

Ссылки

Цитаты

  1. ^ Уолтер, Э.; Пронзато, Л. (1997). Идентификация параметрических моделей по экспериментальным данным . Лондон, Англия: Springer-Verlag.
  2. ^ ab Джонсон, Роджер (1994), «Оценка размера популяции», Teaching Statistics , 16 (2 (лето)): 50–52, doi :10.1111/j.1467-9639.1994.tb00688.x
  3. ^ Джонсон, Роджер (2006), «Оценка размера популяции», Getting the Best from Teaching Statistics, архивировано из оригинала (PDF) 20 ноября 2008 г.

Источники

Внешние ссылки