stringtranslate.com

Теория оценки

Теория оценивания — раздел статистики , занимающийся оценкой значений параметров на основе измеренных эмпирических данных, имеющих случайную составляющую. Параметры описывают основные физические условия таким образом, что их значение влияет на распределение измеренных данных. Оценщик пытается аппроксимировать неизвестные параметры , используя измерения. В теории оценивания обычно рассматриваются два подхода: [1]

Примеры

Например, желательно оценить долю избирателей, которые проголосуют за конкретного кандидата. Эта пропорция и является искомым параметром; оценка основана на небольшой случайной выборке избирателей. Альтернативно, желательно оценить вероятность того, что избиратель проголосует за конкретного кандидата, на основе некоторых демографических характеристик, таких как возраст.

Или, например, в радаре цель состоит в том, чтобы определить дальность действия объектов (самолетов, лодок и т. д.) путем анализа времени двустороннего прохождения полученных эхо-сигналов переданных импульсов. Поскольку отраженные импульсы неизбежно включаются в электрический шум, их измеренные значения распределяются случайным образом, поэтому необходимо оценить время прохождения.

Другой пример: в теории электрической связи измерения, содержащие информацию об интересующих параметрах, часто связаны с зашумленным сигналом .

Основы

Для данной модели необходимо несколько статистических «ингредиентов», чтобы можно было реализовать оценщик. Первый — это статистическая выборка — набор точек данных, взятых из случайного вектора (RV) размера N. Поместите в вектор ,

Во-вторых, есть M параметров

значения которых подлежат оценке. В-третьих, непрерывная функция плотности вероятности (pdf) или ее дискретный аналог, функция массы вероятности (pmf), основного распределения, которое сгенерировало данные, должны быть указаны при условии, что значения параметров:

Также возможно, что сами параметры имеют распределение вероятностей (например, байесовская статистика ). Затем необходимо определить байесовскую вероятность

После формирования модели цель состоит в том, чтобы оценить параметры, при этом оценки обычно обозначаются , где «шляпа» указывает на оценку.

Одним из распространенных средств оценки является оценка минимальной среднеквадратической ошибки (MMSE), которая использует ошибку между оцененными параметрами и фактическим значением параметров.

как основа оптимальности. Затем этот член ошибки возводится в квадрат, и ожидаемое значение этого квадрата значения минимизируется для средства оценки MMSE.

Оценщики

Обычно используемые оценщики (методы оценки) и связанные с ними темы включают:

Примеры

Неизвестная константа в аддитивном белом гауссовском шуме

Рассмотрим полученный дискретный сигнал независимых выборок , который состоит из неизвестной константы с аддитивным белым гауссовским шумом (AWGN) с нулевым средним значением и известной дисперсией ( т.е. , ) . Поскольку дисперсия известна, единственным неизвестным параметром является .

Тогда модель сигнала будет

Две возможные (из многих) оценки параметра :

Обе эти оценки имеют среднее значение , которое можно показать, взяв ожидаемое значение каждой оценки.

и

На этом этапе эти две оценки будут работать одинаково. Однако разница между ними становится очевидной при сравнении дисперсий.

и

Казалось бы, выборочное среднее является лучшим средством оценки, поскольку его дисперсия ниже для каждого  N  > 1.

Максимальная вероятность

Продолжая пример с использованием средства оценки максимального правдоподобия , функция плотности вероятности (pdf) шума для одной выборки равна

и вероятность становится ( можно подумать о )

В силу независимости вероятность становится

Берём натуральный логарифм PDF-файла

и оценка максимального правдоподобия равна

Взяв первую производную функции логарифмического правдоподобия

и установим его на ноль

Это приводит к оценке максимального правдоподобия

что является просто выборочным средним значением. Из этого примера было обнаружено, что выборочное среднее является оценкой максимального правдоподобия для выборок фиксированного неизвестного параметра, искаженного AWGN.

Нижняя граница Крамера – Рао

Чтобы найти нижнюю границу Крамера – Рао (CRLB) выборочной оценки среднего, сначала необходимо найти информационное число Фишера.

и копирую сверху

Взяв вторую производную

и найти отрицательное ожидаемое значение тривиально, поскольку теперь оно является детерминированной константой.

Наконец, поместив информацию Фишера в

приводит к

Сравнение этого значения с дисперсией выборочного среднего значения (определенной ранее) показывает, что выборочное среднее равно нижней границе Крамера-Рао для всех значений и . Другими словами, выборочное среднее является (обязательно уникальным) эффективным оценщиком и, следовательно, также несмещенным оценщиком минимальной дисперсии (MVUE), а также оценщиком максимального правдоподобия .

Максимум равномерного распределения

Одним из простейших нетривиальных примеров оценки является оценка максимума равномерного распределения. Он используется в качестве практического упражнения в классе и для иллюстрации основных принципов теории оценки. Кроме того, в случае оценки, основанной на одной выборке, это демонстрирует философские проблемы и возможные недопонимания в использовании оценок максимального правдоподобия и функций правдоподобия .

Учитывая дискретное равномерное распределение с неизвестным максимумом, оценка UMVU для максимума определяется выражением

где mмаксимум выборки , а kразмер выборки , выборка без замены. [2] [3] Эта проблема широко известна как проблема немецких танков из-за применения максимальной оценки к оценкам производства немецких танков во время Второй мировой войны .

Формулу можно понимать интуитивно как;

«Выборочный максимум плюс средний разрыв между наблюдениями в выборке»,

разрыв добавляется для компенсации отрицательного смещения максимума выборки в качестве оценки максимума совокупности. [примечание 1]

Это имеет дисперсию [2]

таким образом, стандартное отклонение составляет приблизительно средний (популяционный) размер разрыва между выборками; сравни выше. Это можно рассматривать как очень простой случай оценки максимального расстояния .

Максимум выборки является оценкой максимального правдоподобия для максимума генеральной совокупности, но, как обсуждалось выше, он смещен.

Приложения

Многие области требуют использования теории оценивания. Некоторые из этих полей включают в себя:

Измеренные данные, вероятно, будут подвержены шуму или неопределенности, и именно с помощью статистической вероятности ищутся оптимальные решения для извлечения как можно большего количества информации из данных.

Смотрите также

Примечания

  1. ^ Максимум выборки никогда не превышает максимум совокупности, но может быть меньше, следовательно, это смещенная оценка : она имеет тенденцию недооценивать максимум совокупности.

Рекомендации

Цитаты

  1. ^ Уолтер, Э.; Пронцато, Л. (1997). Идентификация параметрических моделей по экспериментальным данным . Лондон, Англия: Springer-Verlag.
  2. ^ Аб Джонсон, Роджер (1994), «Оценка численности населения», Teaching Статистика , 16 (2 (лето)): 50–52, doi : 10.1111/j.1467-9639.1994.tb00688.x
  3. ^ Джонсон, Роджер (2006), «Оценка численности населения», Получение максимальной пользы от статистики преподавания, заархивировано из оригинала (PDF) 20 ноября 2008 г.

Источники

Внешние ссылки