Отдел статистики для оценки моделей на основе измеренных данных
Теория оценивания — раздел статистики , занимающийся оценкой значений параметров на основе измеренных эмпирических данных, имеющих случайную составляющую. Параметры описывают основные физические условия таким образом, что их значение влияет на распределение измеренных данных. Оценщик пытается аппроксимировать неизвестные параметры , используя измерения. В теории оценивания обычно рассматриваются два подхода: [1]
- Вероятностный подход (описанный в этой статье) предполагает, что измеренные данные случайны, а распределение вероятностей зависит от интересующих параметров.
- Подход на основе членства в наборе предполагает, что вектор измеренных данных принадлежит набору, который зависит от вектора параметров.
Примеры
Например, желательно оценить долю избирателей, которые проголосуют за конкретного кандидата. Эта пропорция и является искомым параметром; оценка основана на небольшой случайной выборке избирателей. Альтернативно, желательно оценить вероятность того, что избиратель проголосует за конкретного кандидата, на основе некоторых демографических характеристик, таких как возраст.
Или, например, в радаре цель состоит в том, чтобы определить дальность действия объектов (самолетов, лодок и т. д.) путем анализа времени двустороннего прохождения полученных эхо-сигналов переданных импульсов. Поскольку отраженные импульсы неизбежно включаются в электрический шум, их измеренные значения распределяются случайным образом, поэтому необходимо оценить время прохождения.
Другой пример: в теории электрической связи измерения, содержащие информацию об интересующих параметрах, часто связаны с зашумленным сигналом .
Основы
Для данной модели необходимо несколько статистических «ингредиентов», чтобы можно было реализовать оценщик. Первый — это статистическая выборка — набор точек данных, взятых из случайного вектора (RV) размера N. Поместите в вектор ,
Во-вторых, есть M параметров
значения которых подлежат оценке. В-третьих, непрерывная функция плотности вероятности (pdf) или ее дискретный аналог, функция массы вероятности (pmf), основного распределения, которое сгенерировало данные, должны быть указаны при условии, что значения параметров:
Также возможно, что сами параметры имеют распределение вероятностей (например, байесовская статистика ). Затем необходимо определить байесовскую вероятность
После формирования модели цель состоит в том, чтобы оценить параметры, при этом оценки обычно обозначаются , где «шляпа» указывает на оценку.
Одним из распространенных средств оценки является оценка минимальной среднеквадратической ошибки (MMSE), которая использует ошибку между оцененными параметрами и фактическим значением параметров.
как основа оптимальности. Затем этот член ошибки возводится в квадрат, и ожидаемое значение этого квадрата значения минимизируется для средства оценки MMSE.
Оценщики
Обычно используемые оценщики (методы оценки) и связанные с ними темы включают:
Примеры
Неизвестная константа в аддитивном белом гауссовском шуме
Рассмотрим полученный дискретный сигнал независимых выборок , который состоит из неизвестной константы с аддитивным белым гауссовским шумом (AWGN) с нулевым средним значением и известной дисперсией ( т.е. , ) . Поскольку дисперсия известна, единственным неизвестным параметром является .
Тогда модель сигнала будет
Две возможные (из многих) оценки параметра :
- какое среднее значение выборки
Обе эти оценки имеют среднее значение , которое можно показать, взяв ожидаемое значение каждой оценки.
и
На этом этапе эти две оценки будут работать одинаково. Однако разница между ними становится очевидной при сравнении дисперсий.
и
Казалось бы, выборочное среднее является лучшим средством оценки, поскольку его дисперсия ниже для каждого N > 1.
Максимальная вероятность
Продолжая пример с использованием средства оценки максимального правдоподобия , функция плотности вероятности (pdf) шума для одной выборки равна
и вероятность становится ( можно подумать о )
В силу независимости вероятность становится
Берём натуральный логарифм PDF-файла
и оценка максимального правдоподобия равна
Взяв первую производную функции логарифмического правдоподобия
и установим его на ноль
Это приводит к оценке максимального правдоподобия
что является просто выборочным средним значением. Из этого примера было обнаружено, что выборочное среднее является оценкой максимального правдоподобия для выборок фиксированного неизвестного параметра, искаженного AWGN.
Нижняя граница Крамера – Рао
Чтобы найти нижнюю границу Крамера – Рао (CRLB) выборочной оценки среднего, сначала необходимо найти информационное число Фишера.
и копирую сверху
Взяв вторую производную
и найти отрицательное ожидаемое значение тривиально, поскольку теперь оно является детерминированной константой.
Наконец, поместив информацию Фишера в
приводит к
Сравнение этого значения с дисперсией выборочного среднего значения (определенной ранее) показывает, что выборочное среднее равно нижней границе Крамера-Рао для всех значений и . Другими словами, выборочное среднее является (обязательно уникальным) эффективным оценщиком и, следовательно, также несмещенным оценщиком минимальной дисперсии (MVUE), а также оценщиком максимального правдоподобия .
Максимум равномерного распределения
Одним из простейших нетривиальных примеров оценки является оценка максимума равномерного распределения. Он используется в качестве практического упражнения в классе и для иллюстрации основных принципов теории оценки. Кроме того, в случае оценки, основанной на одной выборке, это демонстрирует философские проблемы и возможные недопонимания в использовании оценок максимального правдоподобия и функций правдоподобия .
Учитывая дискретное равномерное распределение с неизвестным максимумом, оценка UMVU для максимума определяется выражением
где m — максимум выборки , а k — размер выборки , выборка без замены. [2] [3] Эта проблема широко известна как проблема немецких танков из-за применения максимальной оценки к оценкам производства немецких танков во время Второй мировой войны .
Формулу можно понимать интуитивно как;
- «Выборочный максимум плюс средний разрыв между наблюдениями в выборке»,
разрыв добавляется для компенсации отрицательного смещения максимума выборки в качестве оценки максимума совокупности. [примечание 1]
Это имеет дисперсию [2]
таким образом, стандартное отклонение составляет приблизительно средний (популяционный) размер разрыва между выборками; сравни выше. Это можно рассматривать как очень простой случай оценки максимального расстояния .
Максимум выборки является оценкой максимального правдоподобия для максимума генеральной совокупности, но, как обсуждалось выше, он смещен.
Приложения
Многие области требуют использования теории оценивания. Некоторые из этих полей включают в себя:
Измеренные данные, вероятно, будут подвержены шуму или неопределенности, и именно с помощью статистической вероятности ищутся оптимальные решения для извлечения как можно большего количества информации из данных.
Смотрите также
Примечания
- ^ Максимум выборки никогда не превышает максимум совокупности, но может быть меньше, следовательно, это смещенная оценка : она имеет тенденцию недооценивать максимум совокупности.
Рекомендации
Цитаты
- ^ Уолтер, Э.; Пронцато, Л. (1997). Идентификация параметрических моделей по экспериментальным данным . Лондон, Англия: Springer-Verlag.
- ^ Аб Джонсон, Роджер (1994), «Оценка численности населения», Teaching Статистика , 16 (2 (лето)): 50–52, doi : 10.1111/j.1467-9639.1994.tb00688.x
- ^ Джонсон, Роджер (2006), «Оценка численности населения», Получение максимальной пользы от статистики преподавания, заархивировано из оригинала (PDF) 20 ноября 2008 г.
Источники
- Теория точечной оценки Э. Л. Лемана и Г. Казеллы. ( ISBN 0387985026 )
- Системное стоимостное проектирование Дейла Шермона. ( ISBN 978-0-566-08861-2 )
- Математическая статистика и анализ данных Джона Райса. ( ISBN 0-534-209343 )
- Основы статистической обработки сигналов: теория оценки Стивена М. Кея ( ISBN 0-13-345711-7 )
- Введение в обнаружение и оценку сигналов Х. Винсента Пура ( ISBN 0-387-94173-8 )
- Теория обнаружения, оценки и модуляции, часть 1, Гарри Л. Ван Трис ( ISBN 0-471-09517-6 ; веб-сайт)
- Оптимальная оценка состояния: подходы Калмана, H-бесконечности и нелинейные подходы, веб-сайт Дэна Саймона
- Али Х. Сайед , Адаптивные фильтры, Уайли, Нью-Джерси, 2008 г., ISBN 978-0-470-25388-5 .
- Али Х. Сайед , Основы адаптивной фильтрации, Уайли, Нью-Джерси, 2003, ISBN 0-471-46126-1 .
- Томас Кайлат , Али Х. Сайед и Бабак Хассиби , Линейная оценка, Прентис-Холл, Нью-Джерси, 2000, ISBN 978-0-13-022464-4 .
- Бабак Хассиби , Али Х. Сайед и Томас Кайлат , Неопределенная квадратичная оценка и контроль: унифицированный подход к теориям H2 и H , Общество промышленной и прикладной математики (SIAM), Пенсильвания, 1999, ISBN 978-0-89871-411 -1 .
- В.Г.Воинов, М.С.Никулин, "Несмещенные оценки и их приложения. Том 1: Одномерный случай", Kluwer Academic Publishers, 1993, ISBN 0-7923-2382-3 .
- В.Г.Воинов, М.С.Никулин, "Несмещенные оценки и их приложения. Том 2: Многомерный случай", Kluwer Academic Publishers, 1996, ISBN 0-7923-3939-8 .
Внешние ссылки
- СМИ, связанные с теорией оценки, на Викискладе?