Метод оценки параметров статистической модели по данным наблюдений
В статистике оценка максимального правдоподобия ( MLE ) — это метод оценки параметров предполагаемого распределения вероятностей с учетом некоторых наблюдаемых данных. Это достигается путем максимизации функции правдоподобия , так что в рамках предполагаемой статистической модели наблюдаемые данные являются наиболее вероятными. Точка в пространстве параметров , которая максимизирует функцию правдоподобия, называется оценкой максимального правдоподобия. [1] Логика максимального правдоподобия является как интуитивной, так и гибкой, и как таковой метод стал доминирующим средством статистического вывода . [2] [3] [4]
Если функция правдоподобия дифференцируема , можно применить производный тест для нахождения максимумов. В некоторых случаях условия первого порядка функции правдоподобия можно решить аналитически; например, обычная оценка наименьших квадратов для линейной регрессионной модели максимизирует правдоподобие, когда предполагается, что случайные ошибки имеют нормальное распределение с той же дисперсией. [5]
Мы моделируем набор наблюдений как случайную выборку из неизвестного совместного распределения вероятностей , которое выражается в терминах набора параметров . Цель оценки максимального правдоподобия состоит в том, чтобы определить параметры, для которых наблюдаемые данные имеют самую высокую совместную вероятность. Мы записываем параметры, управляющие совместным распределением, как вектор, так что это распределение попадает в параметрическое семейство , где называется пространством параметров , конечномерным подмножеством евклидова пространства . Оценка совместной плотности в наблюдаемой выборке данных дает вещественную функцию,
Целью оценки максимального правдоподобия является нахождение значений параметров модели, которые максимизируют функцию правдоподобия в пространстве параметров, [6] то есть
Интуитивно, это выбирает значения параметров, которые делают наблюдаемые данные наиболее вероятными. Конкретное значение , которое максимизирует функцию правдоподобия, называется оценкой максимального правдоподобия. Кроме того, если функция, определенная таким образом, измерима , то она называется оценщиком максимального правдоподобия . Это, как правило, функция, определенная на пространстве выборок , т. е. принимающая заданную выборку в качестве своего аргумента. Достаточным, но не необходимым условием для ее существования является непрерывность функции правдоподобия на пространстве параметров, которое является компактным . [7] Для открытого пространства функция правдоподобия может увеличиваться, никогда не достигая супремум-значения.
Так как логарифм является монотонной функцией , то максимум достигается при том же значении, что и максимум [8] Если дифференцируема , то достаточные условия для возникновения максимума (или минимума) таковы:
известные как уравнения правдоподобия. Для некоторых моделей эти уравнения могут быть явно решены для , но в общем случае решение в замкнутой форме для задачи максимизации неизвестно или недоступно, и MLE может быть найдено только с помощью численной оптимизации . Другая проблема заключается в том, что в конечных выборках может существовать несколько корней для уравнений правдоподобия. [9] Является ли выявленный корень уравнений правдоподобия действительно (локальным) максимумом, зависит от того, является ли матрица частных и перекрестных частных производных второго порядка, так называемая матрица Гессе
где — векторная функция, отображающая в Оценка истинного параметра, принадлежащего , с практической точки зрения означает нахождение максимума функции правдоподобия с учетом ограничения
На практике ограничения обычно накладываются с помощью метода Лагранжа, который с учетом ограничений, определенных выше, приводит к уравнениям ограниченного правдоподобия
и
где — вектор-столбец множителей Лагранжа , а — матрица Якоби частных производных размером k × r . [12] Естественно, если ограничения не являются обязательными на максимуме, множители Лагранжа должны быть равны нулю. [15] Это, в свою очередь, позволяет провести статистический тест «действительности» ограничения, известный как тест множителей Лагранжа .
это выборочный аналог ожидаемого логарифмического правдоподобия , где это ожидание берется по отношению к истинной плотности.
Оценки максимального правдоподобия не имеют оптимальных свойств для конечных выборок в том смысле, что (при оценке на конечных выборках) другие оценки могут иметь большую концентрацию вокруг истинного значения параметра. [16] Однако, как и другие методы оценки, оценка максимального правдоподобия обладает рядом привлекательных ограничивающих свойств : по мере того, как размер выборки увеличивается до бесконечности, последовательности оценок максимального правдоподобия обладают следующими свойствами:
Согласованность : последовательность MLE сходится по вероятности к оцениваемому значению.
Эквивариантность : Если — оценка максимального правдоподобия для , а если — биективное преобразование , то оценка максимального правдоподобия для — . Свойство эквивариантности можно обобщить на небиективные преобразования, хотя в этом случае оно применяется к максимуму индуцированной функции правдоподобия, которая в общем случае не является истинным правдоподобием.
Эффективность второго порядка после поправки на смещение.
Последовательность
При условиях, описанных ниже, оценка максимального правдоподобия является согласованной . Согласованность означает, что если данные были сгенерированы и у нас есть достаточно большое количество наблюдений n , то можно найти значение θ 0 с произвольной точностью. В математических терминах это означает, что по мере того, как n стремится к бесконечности, оценка сходится по вероятности к своему истинному значению:
При несколько более жестких условиях оценка сходится почти наверняка (или сильно ):
В практических приложениях данные никогда не генерируются . Скорее, это модель, часто в идеализированной форме, процесса, генерируемого данными. В статистике распространен афоризм, что все модели неверны . Таким образом, истинная согласованность не встречается в практических приложениях. Тем не менее, согласованность часто считается желательным свойством для оценщика.
Для установления согласованности достаточны следующие условия. [17]
Другими словами, различные значения параметра θ соответствуют различным распределениям внутри модели. Если бы это условие не выполнялось, то существовало бы некоторое значение θ 1 такое, что θ 0 и θ 1 генерировали бы одинаковое распределение наблюдаемых данных. Тогда мы не смогли бы различить эти два параметра даже при бесконечном количестве данных — эти параметры были бы наблюдательно эквивалентны .
Условие идентификации абсолютно необходимо для того, чтобы оценщик ML был последовательным. Когда это условие выполняется, предельная функция правдоподобия ℓ ( θ |·) имеет уникальный глобальный максимум при θ 0 .
Компактность: пространство параметров Θ модели компактно .
Условие идентификации устанавливает, что логарифмическое правдоподобие имеет уникальный глобальный максимум. Компактность подразумевает, что правдоподобие не может приближаться к максимальному значению произвольно близко в какой-то другой точке (как показано, например, на рисунке справа).
Компактность является лишь достаточным условием, а не необходимым. Компактность может быть заменена некоторыми другими условиями, такими как:
как вогнутость логарифмической функции правдоподобия, так и компактность некоторых (непустых) множеств верхнего уровня логарифмической функции правдоподобия, или
существование компактной окрестности N точки θ 0 такой, что вне N логарифмическая функция правдоподобия меньше максимума по крайней мере на некоторое ε > 0 .
Непрерывность: функция ln f ( x | θ ) непрерывна по θ почти для всех значений x :
Доминирование: существует D ( x ), интегрируемая относительно распределения f ( x | θ 0 ), такая, что
По равномерному закону больших чисел условие доминирования вместе с непрерывностью устанавливают равномерную сходимость по вероятности логарифма правдоподобия:
Условие доминирования может быть использовано в случае наблюдений iid . В случае не-iid равномерная сходимость по вероятности может быть проверена путем демонстрации того, что последовательность является стохастически равностепенно непрерывной . Если кто-то хочет продемонстрировать, что оценка ML сходится к θ 0 почти наверняка , то должно быть наложено более сильное условие равномерной сходимости почти наверняка:
Кроме того, если (как предполагалось выше) данные были сгенерированы , то при определенных условиях можно также показать, что оценка максимального правдоподобия сходится по распределению к нормальному распределению. В частности, [18]
Оценка максимального правдоподобия выбирает значение параметра, которое дает наблюдаемым данным наибольшую возможную вероятность (или плотность вероятности в непрерывном случае). Если параметр состоит из нескольких компонентов, то мы определяем их отдельные оценки максимального правдоподобия как соответствующий компонент MLE полного параметра. В соответствии с этим, если есть MLE для , и если есть любое преобразование , то MLE для по определению [19]
MLE также эквивариантен относительно некоторых преобразований данных. Если где является один к одному и не зависит от оцениваемых параметров, то функции плотности удовлетворяют
и, следовательно, функции правдоподобия для и отличаются только множителем, который не зависит от параметров модели.
Например, параметры MLE логнормального распределения такие же, как и у нормального распределения, подобранного к логарифму данных. Фактически, в логнормальном случае, если , то следует логнормальное распределение . Плотность Y следует со стандартным нормальным и , для .
Эффективность
Как предполагалось выше, если данные были сгенерированы к тому времени при определенных условиях, можно также показать, что оценка максимального правдоподобия сходится по распределению к нормальному распределению. Она √ n -согласована и асимптотически эффективна, что означает, что она достигает границы Крамера–Рао . В частности, [18]
В частности, это означает, что смещение оценки максимального правдоподобия равно нулю вплоть до порядка 1/√ н .
Эффективность второго порядка после коррекции смещения
Однако, когда мы рассматриваем члены более высокого порядка в разложении распределения этой оценки, оказывается, что θ mle имеет смещение порядка 1 ⁄ n . Это смещение равно (покомпонентно) [20]
где (с верхними индексами) обозначает ( j,k )-й компонент обратной информационной матрицы Фишера , а
Используя эти формулы, можно оценить смещение второго порядка оценки максимального правдоподобия и скорректировать это смещение, вычитая его:
Эта оценка является несмещенной вплоть до условий порядка 1/н , и называется оценкой максимального правдоподобия с поправкой на смещение .
Эта оценка со скорректированным смещением является эффективной второго порядка (по крайней мере, в пределах семейства криволинейных экспоненциальных функций), что означает, что она имеет минимальную среднеквадратичную ошибку среди всех оценок второго порядка со скорректированным смещением, вплоть до членов порядка 1/н 2 . Можно продолжить этот процесс, то есть вывести член коррекции смещения третьего порядка и т. д. Однако оценка максимального правдоподобия не является эффективной третьего порядка. [21]
где — априорное распределение для параметра θ , а где — вероятность данных, усредненная по всем параметрам. Поскольку знаменатель не зависит от θ , байесовская оценка получается путем максимизации по отношению к θ . Если мы далее предположим, что априорное распределение является равномерным, байесовская оценка получается путем максимизации функции правдоподобия . Таким образом, байесовская оценка совпадает с оценкой максимального правдоподобия для равномерного априорного распределения .
Применение оценки максимального правдоподобия в теории принятия решений Байеса
Во многих практических приложениях машинного обучения в качестве модели для оценки параметров используется оценка максимального правдоподобия.
Теория байесовских решений заключается в разработке классификатора, который минимизирует общий ожидаемый риск, особенно когда затраты (функция потерь), связанные с различными решениями, равны, классификатор минимизирует ошибку по всему распределению. [22]
Таким образом, правило принятия решения Байесом формулируется как
"решить, если иначе решить "
где есть предсказания разных классов. С точки зрения минимизации ошибки, это также можно сформулировать как
и если мы далее предположим функцию потерь «ноль или один», которая представляет собой одинаковые потери для всех ошибок, правило принятия решения Байесом можно переформулировать следующим образом:
Связь с минимизацией расхождения Кульбака-Лейблера и перекрестной энтропии
Нахождение , которое максимизирует правдоподобие, асимптотически эквивалентно нахождению , которое определяет распределение вероятностей ( ), которое имеет минимальное расстояние, в терминах расхождения Кульбака–Лейблера , до реального распределения вероятностей, из которого были сгенерированы наши данные (т.е. сгенерированы ). [23] В идеальном мире P и Q одинаковы (и единственное неизвестное — это то, что определяет P), но даже если это не так и используемая нами модель неверно определена, MLE все равно даст нам «ближайшее» распределение (в пределах ограничения модели Q, которая зависит от ) к реальному распределению . [24]
Примеры
Дискретное равномерное распределение
Рассмотрим случай, когда n билетов, пронумерованных от 1 до n, помещаются в коробку, и один из них выбирается случайным образом ( см. равномерное распределение ); таким образом, размер выборки равен 1. Если n неизвестно, то оценка максимального правдоподобия n — это число m в вытянутом билете. (Вероятность равна 0 для n < m , 1 ⁄ n для n ≥ m , и она наибольшая, когда n = m . Обратите внимание, что оценка максимального правдоподобия n происходит в нижнем пределе возможных значений { m , m + 1, ...}, а не где-то в «середине» диапазона возможных значений, что привело бы к меньшему смещению.) Ожидаемое значение числа m в вытянутом билете, а следовательно, и ожидаемое значение , равно ( n + 1)/2. В результате при размере выборки 1 оценка максимального правдоподобия для n будет систематически недооценивать n на ( n − 1)/2.
Дискретное распределение, конечное пространство параметров
Предположим, кто-то хочет определить, насколько предвзята нечестная монета . Назовем вероятность подбрасывания ' орла ' p . Тогда целью становится определение p .
Предположим, что монета подбрасывается 80 раз: т.е. выборка может быть такой: x 1 = H, x 2 = T, ..., x 80 = T, и наблюдается подсчет количества выпавших орлов «H».
Вероятность выпадения решки равна 1 − p (поэтому здесь p — это θ выше). Предположим, что результат равен 49 орлам и 31 решке , и предположим, что монета была взята из коробки, содержащей три монеты: одна, которая дает орел с вероятностью p = 1 ⁄ 3 , одна, которая дает орел с вероятностью p = 1 ⁄ 2 и еще одна, которая дает орел с вероятностью p = 2 ⁄ 3 . Монеты потеряли свои этикетки, поэтому неизвестно, какая из них это была. Используя оценку максимального правдоподобия, можно найти монету, которая имеет наибольшее правдоподобие, учитывая наблюдаемые данные. Используя функцию массы вероятности биномиального распределения с размером выборки, равным 80, числом успехов, равным 49, но для разных значений p («вероятность успеха»), функция правдоподобия (определенная ниже) принимает одно из трех значений:
Вероятность максимальна, когда p = 2 ⁄ 3 , и поэтому это оценка максимальной вероятности для p .
Дискретное распределение, непрерывное пространство параметров
Теперь предположим, что была только одна монета, но ее p могло быть любым значением 0 ≤ p ≤ 1. Функция правдоподобия, которую нужно максимизировать, равна
и максимизация осуществляется по всем возможным значениям 0 ≤ p ≤ 1.
Один из способов максимизировать эту функцию — дифференцировать по p и приравнять к нулю:
Это произведение трех членов. Первый член равен 0, когда p = 0. Второй равен 0, когда p = 1. Третий равен нулю, когда p = 49 ⁄ 80 . Решение, которое максимизирует правдоподобие, очевидно, равно p = 49 ⁄ 80 (поскольку p = 0 и p = 1 дают правдоподобие 0). Таким образом, максимальная оценка правдоподобия для p равна 49 ⁄ 80 .
Этот результат легко обобщается путем подстановки буквы, например, s, вместо 49, чтобы обозначить наблюдаемое число «успехов» наших испытаний Бернулли , и буквы, например, n , вместо 80, чтобы обозначить число испытаний Бернулли. Точно такой же расчет дает s ⁄ n , что является оценкой максимального правдоподобия для любой последовательности из n испытаний Бернулли, приводящих к s «успехам».
Непрерывное распределение, непрерывное пространство параметров
Это семейство распределений имеет два параметра: θ = ( μ , σ ) ; поэтому мы максимизируем правдоподобие, , по обоим параметрам одновременно или, если возможно, по отдельности.
Поскольку сама логарифмическая функция является непрерывной строго возрастающей функцией в диапазоне правдоподобия, значения, которые максимизируют правдоподобие, также максимизируют его логарифм (само логарифмическое правдоподобие не обязательно строго возрастает). Логарифмическое правдоподобие можно записать следующим образом:
Это действительно максимум функции, поскольку это единственная точка поворота в μ , а вторая производная строго меньше нуля. Ее ожидаемое значение равно параметру μ данного распределения,
это означает, что оценка максимального правдоподобия является несмещенной.
Аналогично дифференцируем логарифм правдоподобия по σ и приравниваем к нулю:
которая решается путем
Подставляя оценку получаем
Чтобы вычислить его ожидаемое значение, удобно переписать выражение в терминах случайных величин с нулевым средним ( статистическая ошибка ) . Выражение оценки в этих переменных дает
Упрощение приведенного выше выражения с учетом того, что и , позволяет нам получить
Это означает, что оценка смещена для . Можно также показать, что смещено для , но оба значения и являются согласованными.
Формально мы говорим, что оценка максимального правдоподобия для равна
В этом случае MLE могут быть получены по отдельности. В общем случае это может быть не так, и MLE должны быть получены одновременно.
Нормальное логарифмическое правдоподобие в максимуме принимает особенно простую форму:
Может быть так, что переменные коррелируют, то есть не являются независимыми. Две случайные величины и являются независимыми только в том случае, если их совместная функция плотности вероятности является произведением индивидуальных функций плотности вероятности, то есть
Предположим, что мы создаем гауссовский вектор порядка n из случайных величин , где каждая переменная имеет среднее значение, заданное как . Кроме того, пусть ковариационная матрица будет обозначена как . Совместная функция плотности вероятности этих n случайных величин затем следует многомерному нормальному распределению, заданному как:
В двумерном случае совместная функция плотности вероятности определяется выражением:
В этом и других случаях, когда существует совместная функция плотности, функция правдоподобия определяется, как указано выше в разделе « принципы », с использованием этой плотности.
Пример
являются счетчиками в ячейках / ящиках от 1 до m; каждый ящик имеет различную вероятность (представьте, что ящики больше или меньше), и мы фиксируем количество выпавших шариков, равное : . Вероятность каждого ящика равна , с ограничением: . Это случай, когда s не являются независимыми, совместная вероятность вектора называется полиномиальной и имеет вид:
Каждая ячейка, взятая отдельно по отношению ко всем остальным ячейкам, является биномом, и это является его расширением.
Логарифмическая вероятность этого равна:
Необходимо учитывать ограничение и использовать множители Лагранжа:
Приравнивая все производные к 0, получаем наиболее естественную оценку
Максимизация логарифмического правдоподобия, с ограничениями и без них, может оказаться неразрешимой задачей в замкнутой форме, тогда нам придется использовать итерационные процедуры.
Итеративные процедуры
За исключением особых случаев, уравнения правдоподобия
не могут быть решены явно для оценщика . Вместо этого их нужно решать итеративно : начиная с начального предположения (скажем ), пытаются получить сходящуюся последовательность . Существует много методов для такого рода задач оптимизации , [26] [27] но наиболее часто используемые из них — это алгоритмы, основанные на формуле обновления вида
(Примечание: здесь речь идет о задаче максимизации, поэтому знак перед градиентом меняется на противоположный)
что достаточно мало для сходимости и
Метод градиентного спуска требует вычисления градиента на r-й итерации, но не требует вычисления обратной производной второго порядка, т. е. матрицы Гессе. Поэтому он вычислительно быстрее, чем метод Ньютона-Рафсона.
Формула DFP находит решение, которое является симметричным, положительно определенным и наиболее близким к текущему приближенному значению производной второго порядка:
BFGS также дает решение, которое является симметричным и положительно определенным:
где
Метод BFGS не гарантирует сходимости, если функция не имеет квадратичного расширения Тейлора вблизи оптимума. Однако BFGS может иметь приемлемую производительность даже для негладких случаев оптимизации
Несмотря на популярность, квазиньютоновские методы могут сходиться к стационарной точке , которая не обязательно является локальным или глобальным максимумом, [33] , а скорее локальным минимумом или седловой точкой . Поэтому важно оценить достоверность полученного решения уравнений правдоподобия, проверив, что гессиан, оцененный в решении, является как отрицательно определенным , так и хорошо обусловленным . [34]
Оценка максимального правдоподобия наконец превзошла эвристическое обоснование в доказательстве, опубликованном Сэмюэлем С. Уилксом в 1938 году, теперь называемом теоремой Уилкса . [39] Теорема показывает, что ошибка в логарифме значений правдоподобия для оценок из нескольких независимых наблюдений асимптотически распределена по закону χ 2 , что позволяет удобно определять доверительную область вокруг любой оценки параметров. Единственная сложная часть доказательства Уилкса зависит от ожидаемого значения информационной матрицы Фишера , которое обеспечивается теоремой, доказанной Фишером. [40] Уилкс продолжал улучшать общность теоремы на протяжении всей своей жизни, и его наиболее общее доказательство было опубликовано в 1962 году. [41]
Обзоры развития оценки максимального правдоподобия были предоставлены рядом авторов. [42] [43] [44] [45] [46] [47] [48] [49]
Информация Фишера : информационная матрица, ее связь с ковариационной матрицей оценок ML
Среднеквадратическая ошибка : мера того, насколько «хороша» оценка параметра распределения (будь то оценка максимального правдоподобия или какая-то другая оценка)
RANSAC : метод оценки параметров математической модели с учетом данных, содержащих выбросы
Теорема Рао–Блэквелла : дает процесс нахождения наилучшей возможной несмещенной оценки (в смысле минимальной среднеквадратической ошибки ); MLE часто является хорошей отправной точкой для процесса.
Теорема Уилкса : дает возможность оценить размер и форму области приблизительно равновероятных оценок значений параметров популяции, используя информацию из одной выборки, используя распределение хи-квадрат.
Другие методы оценки
Обобщенный метод моментов : методы, связанные с уравнением правдоподобия в оценке максимального правдоподобия
M-оценщик : подход, используемый в надежной статистике
^ Росси, Ричард Дж. (2018). Математическая статистика: Введение в вывод на основе правдоподобия . Нью-Йорк: John Wiley & Sons. стр. 227. ISBN 978-1-118-77104-4.
^ Хендри, Дэвид Ф.; Нильсен, Бент (2007). Эконометрическое моделирование: подход с использованием теории правдоподобия . Принстон: Princeton University Press. ISBN978-0-691-13128-3.
^ Уорд, Майкл Дон ; Алквист, Джон С. (2018). Максимальное правдоподобие для социальных наук: стратегии анализа . Нью-Йорк: Cambridge University Press. ISBN978-1-107-18582-1.
^ Press, WH; Flannery, BP; Teukolsky, SA; Vetterling, WT (1992). «Наименьшие квадраты как оценка максимального правдоподобия». Numerical Recipes in FORTRAN: The Art of Scientific Computing (2nd ed.). Cambridge: Cambridge University Press. pp. 651–655. ISBN0-521-43064-X.
^ Myung, IJ (2003). «Учебник по оценке максимального правдоподобия». Журнал математической психологии . 47 (1): 90–100. doi :10.1016/S0022-2496(02)00028-7.
^ Гурьеру, Кристиан; Монфорт, Ален (1995). Статистика и эконометрические модели . Cambridge University Press. стр. 161. ISBN0-521-40551-3.
^ Кейн, Эдвард Дж. (1968). Экономическая статистика и эконометрика . Нью-Йорк, Нью-Йорк: Harper & Row. стр. 179.
^ Small, Christoper G.; Wang, Jinfang (2003). «Работа с корнями». Численные методы нелинейных оценочных уравнений . Oxford University Press. С. 74–124. ISBN0-19-850688-0.
^ Касс, Роберт Э.; Вос, Пол В. (1997). Геометрические основы асимптотического вывода. Нью-Йорк, Нью-Йорк: John Wiley & Sons. стр. 14. ISBN0-471-82668-5.
^ Пападопулос, Алекос (25 сентября 2013 г.). «Почему мы всегда ставим log() перед совместной pdf, когда используем MLE (оценку максимального правдоподобия)?». Stack Exchange .
^ ab Silvey, SD (1975). Статистический вывод. Лондон, Великобритания: Chapman and Hall. стр. 79. ISBN0-412-13820-4.
^ Олив, Дэвид (2004). «Максимизирует ли MLE правдоподобие?» (PDF) . Университет Южного Иллинойса .
^ Швалли, Дэниел П. (1985). «Положительно определенные оценки ковариации максимального правдоподобия». Economics Letters . 17 (1–2): 115–117. doi :10.1016/0165-1765(85)90139-9.
^ Магнус, Ян Р. (2017). Введение в теорию эконометрики . Амстердам: VU University Press. С. 64–65. ISBN978-90-8659-766-6.
^ Пфанцагль (1994, стр. 206)
^ По теореме 2.5 в Newey, Whitney K.; McFadden, Daniel (1994). "Глава 36: Оценка большой выборки и проверка гипотез". В Engle, Robert; McFadden, Dan (ред.). Справочник по эконометрике, том 4. Elsevier Science. стр. 2111–2245. ISBN 978-0-444-88766-5.
^ ab По теореме 3.3 в Newey, Whitney K.; McFadden, Daniel (1994). "Глава 36: Оценка большой выборки и проверка гипотез". В Engle, Robert; McFadden, Dan (ред.). Справочник по эконометрике, том 4. Elsevier Science. стр. 2111–2245. ISBN 978-0-444-88766-5.
^ Закс, Шелемьяху (1971). Теория статистического вывода . Нью-Йорк: John Wiley & Sons. стр. 223. ISBN0-471-98103-6.
^ Кано, Ютака (1996). «Эффективность третьего порядка подразумевает эффективность четвертого порядка». Журнал Японского статистического общества . 26 : 101–117. doi : 10.14490/jjss1995.26.101 .
^ Кристенсен, Хенрикт И. «Распознавание образов» (PDF) (лекция). Байесовская теория принятия решений - CS 7616. Georgia Tech.
^ cmplx96 (https://stats.stackexchange.com/users/177679/cmplx96), Расхождение Кульбака–Лейблера, URL (версия: 2017-11-18): https://stats.stackexchange.com/q/314472 (на видео на YouTube посмотрите минуты с 13 по 25)
^ Введение в статистический вывод | Стэнфорд (Лекция 16 — MLE при неправильной спецификации модели)
^ Sycorax говорит: «Восстановите Монику» (https://stats.stackexchange.com/users/22311/sycorax-says-reinstate-monica), взаимосвязь между максимизацией правдоподобия и минимизацией перекрестной энтропии, URL (версия: 2019-11-06): https://stats.stackexchange.com/q/364237
^ Флетчер, Р. (1987). Практические методы оптимизации (Второе издание). Нью-Йорк, Нью-Йорк: John Wiley & Sons. ISBN0-471-91547-5.
^ Даганзо, Карлос (1979). Мультиномиальный пробит: теория и ее применение для прогнозирования спроса . Нью-Йорк: Academic Press. С. 61–78. ISBN0-12-201150-3.
^ Гулд, Уильям; Питбладо, Джеффри; Пой, Брайан (2010). Оценка максимального правдоподобия с Stata (четвертое издание). College Station: Stata Press. стр. 13–20. ISBN978-1-59718-078-8.
^ Мерфи, Кевин П. (2012). Машинное обучение: вероятностная перспектива. Кембридж: MIT Press. стр. 247. ISBN978-0-262-01802-9.
^ Амемия, Такеши (1985). Продвинутая эконометрика. Кембридж: Издательство Гарвардского университета. С. 137–138. ISBN0-674-00560-0.
^ Сарган, Денис (1988). «Методы численной оптимизации». Конспект лекций по передовой эконометрической теории . Оксфорд: Basil Blackwell. С. 161–169. ISBN0-631-14956-2.
↑ См. теорему 10.1 в Avriel, Mordecai (1976). Нелинейное программирование: анализ и методы. Englewood Cliffs, NJ: Prentice-Hall. стр. 293–294. ISBN 978-0-486-43227-4.
^ Гилл, Филип Э.; Мюррей, Уолтер; Райт, Маргарет Х. (1981). Практическая оптимизация . Лондон, Великобритания: Academic Press. С. 312–313. ISBN0-12-283950-1.
^ Эджворт, Фрэнсис И. (сентябрь 1908 г.). «О вероятных ошибках частотных констант». Журнал Королевского статистического общества . 71 (3): 499–512. doi :10.2307/2339293. JSTOR 2339293.
^ Эджворт, Фрэнсис И. (декабрь 1908 г.). «О вероятных ошибках частотных констант». Журнал Королевского статистического общества . 71 (4): 651–678. doi :10.2307/2339378. JSTOR 2339378.
^ Пфанзагль, Иоганн (1994). Параметрическая статистическая теория . Вальтер де Грюйтер . стр. 207–208. дои : 10.1515/9783110889765. ISBN978-3-11-013863-4. МР 1291393.
^ Хальд, Андерс (1999). «Об истории максимального правдоподобия в связи с обратной вероятностью и наименьшими квадратами». Статистическая наука . 14 (2): 214–222. ISSN 0883-4237.
^ Уилкс, СС (1938). «Распределение отношения правдоподобия для большой выборки при проверке составных гипотез». Annals of Mathematical Statistics . 9 : 60–62. doi : 10.1214/aoms/1177732360 .
^ Уилкс, Сэмюэл С. (1962). Математическая статистика . Нью-Йорк, Нью-Йорк: John Wiley & Sons. ISBN978-0-471-94650-2.
^ Сэвидж, Леонард Дж. (1976). «О перечитывании RA Фишера». Анналы статистики . 4 (3): 441–500. doi : 10.1214/aos/1176343456 . JSTOR 2958221.
^ Пратт, Джон В. (1976). «Ф. И. Эджворт и Р. А. Фишер об эффективности оценки максимального правдоподобия». Анналы статистики . 4 (3): 501–514. doi : 10.1214/aos/1176343457 . JSTOR 2958222.
^ Стиглер, Стивен М. (1978). «Фрэнсис Исидро Эджворт, статистик». Журнал Королевского статистического общества, Серия A. 141 ( 3): 287–322. doi :10.2307/2344804. JSTOR 2344804.
^ Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года. Издательство Гарвардского университета. ISBN978-0-674-40340-6.
^ Стиглер, Стивен М. (1999). Статистика на столе: история статистических концепций и методов . Издательство Гарвардского университета. ISBN978-0-674-83601-3.
^ Хальд, Андерс (1998). История математической статистики с 1750 по 1930 год . Нью-Йорк, Нью-Йорк: Wiley. ISBN978-0-471-17912-2.
^ Хальд, Андерс (1999). «Об истории максимального правдоподобия в связи с обратной вероятностью и наименьшими квадратами». Статистическая наука . 14 (2): 214–222. doi : 10.1214/ss/1009212248 . JSTOR 2676741.
^ Олдрич, Джон (1997). «RA Fisher и создание максимального правдоподобия 1912–1922». Статистическая наука . 12 (3): 162–176. doi : 10.1214/ss/1030037906 . MR 1617519.
Дальнейшее чтение
Крамер, Дж. С. (1986). Эконометрические приложения методов максимального правдоподобия. Нью-Йорк, Нью-Йорк: Cambridge University Press. ISBN 0-521-25317-9.
Элиасон, Скотт Р. (1993). Оценка максимального правдоподобия: логика и практика . Newbury Park: Sage. ISBN 0-8039-4107-2.
Кинг, Гэри (1989). Унификация политической методологии: теория сходства статистического вывода . Cambridge University Press. ISBN 0-521-36697-6.
Le Cam, Lucien (1990). «Максимальное правдоподобие: Введение». ISI Review . 58 (2): 153–171. doi :10.2307/1403464. JSTOR 1403464.
Магнус, Ян Р. (2017). «Максимальное правдоподобие». Введение в теорию эконометрики . Амстердам, Нидерланды: VU University Press. С. 53–68. ISBN 978-90-8659-766-6.
Миллар, Рассел Б. (2011). Оценка максимального правдоподобия и вывод . Хобокен, Нью-Джерси: Wiley. ISBN 978-0-470-09482-2.
Pickles, Andrew (1986). Введение в анализ правдоподобия . Norwich: WH Hutchins & Sons. ISBN 0-86094-190-6.
Северини, Томас А. (2000). Методы правдоподобия в статистике . Нью-Йорк, Нью-Йорк: Oxford University Press. ISBN 0-19-850650-3.
Уорд, Майкл Д .; Алквист, Джон С. (2018). Максимальное правдоподобие для социальных наук: стратегии анализа . Cambridge University Press. ISBN 978-1-316-63682-4.
Внешние ссылки
Тилевик, Андреас (2022). Максимальное правдоподобие против наименьших квадратов в линейной регрессии (видео)