stringtranslate.com

Оценка максимального правдоподобия

В статистике оценка максимального правдоподобия ( MLE ) — это метод оценки параметров предполагаемого распределения вероятностей с учетом некоторых наблюдаемых данных. Это достигается путем максимизации функции правдоподобия , так что в рамках предполагаемой статистической модели наблюдаемые данные являются наиболее вероятными. Точка в пространстве параметров , которая максимизирует функцию правдоподобия, называется оценкой максимального правдоподобия. [1] Логика максимального правдоподобия является как интуитивной, так и гибкой, и как таковой метод стал доминирующим средством статистического вывода . [2] [3] [4]

Если функция правдоподобия дифференцируема , можно применить производный тест для нахождения максимумов. В некоторых случаях условия первого порядка функции правдоподобия можно решить аналитически; например, обычная оценка наименьших квадратов для линейной регрессионной модели максимизирует правдоподобие, когда предполагается, что случайные ошибки имеют нормальное распределение с той же дисперсией. [5]

С точки зрения байесовского вывода MLE в целом эквивалентно оценке максимума апостериори (MAP) с априорным распределением , которое равномерно в интересующей области. В частотном выводе MLE является частным случаем экстремальной оценки , где целевой функцией является правдоподобие.

Принципы

Мы моделируем набор наблюдений как случайную выборку из неизвестного совместного распределения вероятностей , которое выражается в терминах набора параметров . Цель оценки максимального правдоподобия состоит в том, чтобы определить параметры, для которых наблюдаемые данные имеют самую высокую совместную вероятность. Мы записываем параметры, управляющие совместным распределением, как вектор, так что это распределение попадает в параметрическое семейство , где называется пространством параметров , конечномерным подмножеством евклидова пространства . Оценка совместной плотности в наблюдаемой выборке данных дает вещественную функцию,

которая называется функцией правдоподобия . Для независимых и одинаково распределенных случайных величин будет произведением одномерных функций плотности :

Целью оценки максимального правдоподобия является нахождение значений параметров модели, которые максимизируют функцию правдоподобия в пространстве параметров, [6] то есть

Интуитивно, это выбирает значения параметров, которые делают наблюдаемые данные наиболее вероятными. Конкретное значение , которое максимизирует функцию правдоподобия, называется оценкой максимального правдоподобия. Кроме того, если функция, определенная таким образом, измерима , то она называется оценщиком максимального правдоподобия . Это, как правило, функция, определенная на пространстве выборок , т. е. принимающая заданную выборку в качестве своего аргумента. Достаточным, но не необходимым условием для ее существования является непрерывность функции правдоподобия на пространстве параметров, которое является компактным . [7] Для открытого пространства функция правдоподобия может увеличиваться, никогда не достигая супремум-значения.

На практике часто бывает удобно работать с натуральным логарифмом функции правдоподобия, называемым логарифмом правдоподобия :

Так как логарифм является монотонной функцией , то максимум достигается при том же значении, что и максимум [8] Если дифференцируема , то достаточные условия для возникновения максимума (или минимума) таковы:

известные как уравнения правдоподобия. Для некоторых моделей эти уравнения могут быть явно решены для , но в общем случае решение в замкнутой форме для задачи максимизации неизвестно или недоступно, и MLE может быть найдено только с помощью численной оптимизации . Другая проблема заключается в том, что в конечных выборках может существовать несколько корней для уравнений правдоподобия. [9] Является ли выявленный корень уравнений правдоподобия действительно (локальным) максимумом, зависит от того, является ли матрица частных и перекрестных частных производных второго порядка, так называемая матрица Гессе

отрицательно полуопределена при , так как это указывает на локальную вогнутость . Удобно, что большинство общих распределений вероятностей – в частности, экспоненциальное семейство – являются логарифмически вогнутыми . [10] [11]

Ограниченное пространство параметров

В то время как область функции правдоподобия — пространство параметров — обычно является конечномерным подмножеством евклидова пространства , иногда необходимо включать дополнительные ограничения в процесс оценки. Пространство параметров может быть выражено как

где — векторная функция, отображающая в Оценка истинного параметра, принадлежащего , с практической точки зрения означает нахождение максимума функции правдоподобия с учетом ограничения

Теоретически наиболее естественным подходом к этой проблеме ограниченной оптимизации является метод подстановки, то есть «заполнение» ограничений для набора таким образом, чтобы он был функцией один к одному из самого себя, и повторная параметризация функции правдоподобия путем установки [12] Из-за эквивариантности оценки максимального правдоподобия свойства MLE применяются также к ограниченным оценкам. [13] Например, в многомерном нормальном распределении ковариационная матрица должна быть положительно определенной ; это ограничение можно наложить путем замены, где — действительная верхняя треугольная матрица , а — ее транспонированная матрица . [14]

На практике ограничения обычно накладываются с помощью метода Лагранжа, который с учетом ограничений, определенных выше, приводит к уравнениям ограниченного правдоподобия

и

где — вектор-столбец множителей Лагранжа , а — матрица Якоби частных производных размером k × r . [12] Естественно, если ограничения не являются обязательными на максимуме, множители Лагранжа должны быть равны нулю. [15] Это, в свою очередь, позволяет провести статистический тест «действительности» ограничения, известный как тест множителей Лагранжа .

Непараметрическая оценка максимального правдоподобия

Непараметрическая оценка максимального правдоподобия может быть выполнена с использованием эмпирического правдоподобия .

Характеристики

Оценка максимального правдоподобия — это экстремальная оценка , полученная путем максимизации целевой функции как функции θ . Если данные независимы и одинаково распределены , то мы имеем

это выборочный аналог ожидаемого логарифмического правдоподобия , где это ожидание берется по отношению к истинной плотности.

Оценки максимального правдоподобия не имеют оптимальных свойств для конечных выборок в том смысле, что (при оценке на конечных выборках) другие оценки могут иметь большую концентрацию вокруг истинного значения параметра. [16] Однако, как и другие методы оценки, оценка максимального правдоподобия обладает рядом привлекательных ограничивающих свойств : по мере того, как размер выборки увеличивается до бесконечности, последовательности оценок максимального правдоподобия обладают следующими свойствами:

Последовательность

При условиях, описанных ниже, оценка максимального правдоподобия является согласованной . Согласованность означает, что если данные были сгенерированы и у нас есть достаточно большое количество наблюдений n , то можно найти значение θ 0 с произвольной точностью. В математических терминах это означает, что по мере того, как n стремится к бесконечности, оценка сходится по вероятности к своему истинному значению:

При несколько более жестких условиях оценка сходится почти наверняка (или сильно ):

В практических приложениях данные никогда не генерируются . Скорее, это модель, часто в идеализированной форме, процесса, генерируемого данными. В статистике распространен афоризм, что все модели неверны . Таким образом, истинная согласованность не встречается в практических приложениях. Тем не менее, согласованность часто считается желательным свойством для оценщика.

Для установления согласованности достаточны следующие условия. [17]

  1. Идентификация модели:

    Другими словами, различные значения параметра θ соответствуют различным распределениям внутри модели. Если бы это условие не выполнялось, то существовало бы некоторое значение θ 1 такое, что θ 0 и θ 1 генерировали бы одинаковое распределение наблюдаемых данных. Тогда мы не смогли бы различить эти два параметра даже при бесконечном количестве данных — эти параметры были бы наблюдательно эквивалентны .

    Условие идентификации абсолютно необходимо для того, чтобы оценщик ML был последовательным. Когда это условие выполняется, предельная функция правдоподобия ( θ |·) имеет уникальный глобальный максимум при θ 0 .
  2. Компактность: пространство параметров Θ модели компактно .

    Условие идентификации устанавливает, что логарифмическое правдоподобие имеет уникальный глобальный максимум. Компактность подразумевает, что правдоподобие не может приближаться к максимальному значению произвольно близко в какой-то другой точке (как показано, например, на рисунке справа).

    Компактность является лишь достаточным условием, а не необходимым. Компактность может быть заменена некоторыми другими условиями, такими как:

    • как вогнутость логарифмической функции правдоподобия, так и компактность некоторых (непустых) множеств верхнего уровня логарифмической функции правдоподобия, или
    • существование компактной окрестности N точки θ 0 такой, что вне N логарифмическая функция правдоподобия меньше максимума по крайней мере на некоторое ε > 0 .
  3. Непрерывность: функция ln f ( x  |  θ ) непрерывна по θ почти для всех значений x :
    Непрерывность здесь можно заменить несколько более слабым условием полунепрерывности сверху .
  4. Доминирование: существует D ( x ), интегрируемая относительно распределения f ( x  |  θ 0 ), такая, что
    По равномерному закону больших чисел условие доминирования вместе с непрерывностью устанавливают равномерную сходимость по вероятности логарифма правдоподобия:

Условие доминирования может быть использовано в случае наблюдений iid . В случае не-iid равномерная сходимость по вероятности может быть проверена путем демонстрации того, что последовательность является стохастически равностепенно непрерывной . Если кто-то хочет продемонстрировать, что оценка ML сходится к θ 0 почти наверняка , то должно быть наложено более сильное условие равномерной сходимости почти наверняка:

Кроме того, если (как предполагалось выше) данные были сгенерированы , то при определенных условиях можно также показать, что оценка максимального правдоподобия сходится по распределению к нормальному распределению. В частности, [18]

где Iинформационная матрица Фишера .

Функциональная инвариантность

Оценка максимального правдоподобия выбирает значение параметра, которое дает наблюдаемым данным наибольшую возможную вероятность (или плотность вероятности в непрерывном случае). Если параметр состоит из нескольких компонентов, то мы определяем их отдельные оценки максимального правдоподобия как соответствующий компонент MLE полного параметра. В соответствии с этим, если есть MLE для , и если есть любое преобразование , то MLE для по определению [19]

Он максимизирует так называемую профильную вероятность :

MLE также эквивариантен относительно некоторых преобразований данных. Если где является один к одному и не зависит от оцениваемых параметров, то функции плотности удовлетворяют

и, следовательно, функции правдоподобия для и отличаются только множителем, который не зависит от параметров модели.

Например, параметры MLE логнормального распределения такие же, как и у нормального распределения, подобранного к логарифму данных. Фактически, в логнормальном случае, если , то следует логнормальное распределение . Плотность Y следует со стандартным нормальным и , для .

Эффективность

Как предполагалось выше, если данные были сгенерированы к тому времени при определенных условиях, можно также показать, что оценка максимального правдоподобия сходится по распределению к нормальному распределению. Она n -согласована и асимптотически эффективна, что означает, что она достигает границы Крамера–Рао . В частности, [18] 

где информационная матрица Фишера :

В частности, это означает, что смещение оценки максимального правдоподобия равно нулю вплоть до порядка 1/н  .

Эффективность второго порядка после коррекции смещения

Однако, когда мы рассматриваем члены более высокого порядка в разложении распределения этой оценки, оказывается, что θ mle имеет смещение порядка 1n . Это смещение равно (покомпонентно) [20]

где (с верхними индексами) обозначает ( j,k )-й компонент обратной информационной матрицы Фишера , а

Используя эти формулы, можно оценить смещение второго порядка оценки максимального правдоподобия и скорректировать это смещение, вычитая его:

Эта оценка является несмещенной вплоть до условий порядка 1/н , и называется оценкой максимального правдоподобия с поправкой на смещение .

Эта оценка со скорректированным смещением является эффективной второго порядка (по крайней мере, в пределах семейства криволинейных экспоненциальных функций), что означает, что она имеет минимальную среднеквадратичную ошибку среди всех оценок второго порядка со скорректированным смещением, вплоть до членов порядка 1/н 2  . Можно продолжить этот процесс, то есть вывести член коррекции смещения третьего порядка и т. д. Однако оценка максимального правдоподобия не является эффективной третьего порядка. [21]

Отношение к байесовскому выводу

Оценка максимального правдоподобия совпадает с наиболее вероятной байесовской оценкой при условии равномерного априорного распределения параметров . Действительно, максимальная апостериорная оценка — это параметр θ , который максимизирует вероятность θ при данных, заданных теоремой Байеса:

где — априорное распределение для параметра θ , а где — вероятность данных, усредненная по всем параметрам. Поскольку знаменатель не зависит от θ , байесовская оценка получается путем максимизации по отношению к θ . Если мы далее предположим, что априорное распределение является равномерным, байесовская оценка получается путем максимизации функции правдоподобия . Таким образом, байесовская оценка совпадает с оценкой максимального правдоподобия для равномерного априорного распределения .

Применение оценки максимального правдоподобия в теории принятия решений Байеса

Во многих практических приложениях машинного обучения в качестве модели для оценки параметров используется оценка максимального правдоподобия.

Теория байесовских решений заключается в разработке классификатора, который минимизирует общий ожидаемый риск, особенно когда затраты (функция потерь), связанные с различными решениями, равны, классификатор минимизирует ошибку по всему распределению. [22]

Таким образом, правило принятия решения Байесом формулируется как

"решить, если иначе решить "

где есть предсказания разных классов. С точки зрения минимизации ошибки, это также можно сформулировать как

где

если мы решим и если мы решим

Применяя теорему Байеса

,

и если мы далее предположим функцию потерь «ноль или один», которая представляет собой одинаковые потери для всех ошибок, правило принятия решения Байесом можно переформулировать следующим образом:

где — прогноз, а — априорная вероятность .

Связь с минимизацией расхождения Кульбака-Лейблера и перекрестной энтропии

Нахождение , которое максимизирует правдоподобие, асимптотически эквивалентно нахождению , которое определяет распределение вероятностей ( ), которое имеет минимальное расстояние, в терминах расхождения Кульбака–Лейблера , до реального распределения вероятностей, из которого были сгенерированы наши данные (т.е. сгенерированы ). [23] В идеальном мире P и Q одинаковы (и единственное неизвестное — это то, что определяет P), но даже если это не так и используемая нами модель неверно определена, MLE все равно даст нам «ближайшее» распределение (в пределах ограничения модели Q, которая зависит от ) к реальному распределению . [24]

Примеры

Дискретное равномерное распределение

Рассмотрим случай, когда n билетов, пронумерованных от 1 до n, помещаются в коробку, и один из них выбирается случайным образом ( см. равномерное распределение ); таким образом, размер выборки равен 1. Если n неизвестно, то оценка максимального правдоподобия n — это число m в вытянутом билете. (Вероятность равна 0 для n  <  m , 1n для n  ≥  m , и она наибольшая, когда n  =  m . Обратите внимание, что оценка максимального правдоподобия n происходит в нижнем пределе возможных значений { mm  + 1, ...}, а не где-то в «середине» диапазона возможных значений, что привело бы к меньшему смещению.) Ожидаемое значение числа m в вытянутом билете, а следовательно, и ожидаемое значение , равно ( n  + 1)/2. В результате при размере выборки 1 оценка максимального правдоподобия для n будет систематически недооценивать n на ( n  − 1)/2.

Дискретное распределение, конечное пространство параметров

Предположим, кто-то хочет определить, насколько предвзята нечестная монета . Назовем вероятность подбрасывания ' орла ' p . Тогда целью становится определение p .

Предположим, что монета подбрасывается 80 раз: т.е. выборка может быть такой: x 1  = H, x 2  = T, ..., x 80 = T, и наблюдается  подсчет количества выпавших орлов «H».

Вероятность выпадения решки равна 1 −  p (поэтому здесь p — это θ выше). Предположим, что результат равен 49 орлам и 31  решке , и предположим, что монета была взята из коробки, содержащей три монеты: одна, которая дает орел с вероятностью p  =  13 , одна, которая дает орел с вероятностью p  =  12 и еще одна, которая дает орел с вероятностью p  =  23 . Монеты потеряли свои этикетки, поэтому неизвестно, какая из них это была. Используя оценку максимального правдоподобия, можно найти монету, которая имеет наибольшее правдоподобие, учитывая наблюдаемые данные. Используя функцию массы вероятности биномиального распределения с размером выборки, равным 80, числом успехов, равным 49, но для разных значений p («вероятность успеха»), функция правдоподобия (определенная ниже) принимает одно из трех значений:

Вероятность максимальна, когда p  =  23 , и поэтому это оценка максимальной вероятности для  p .

Дискретное распределение, непрерывное пространство параметров

Теперь предположим, что была только одна монета, но ее p могло быть любым значением 0 ≤ p ≤ 1. Функция правдоподобия, которую нужно максимизировать, равна

и максимизация осуществляется по всем возможным значениям 0 ≤ p ≤ 1.

Функция правдоподобия для пропорционального значения биномиального процесса ( n  = 10)

Один из способов максимизировать эту функцию — дифференцировать по p и приравнять к нулю:

Это произведение трех членов. Первый член равен 0, когда p  = 0. Второй равен 0, когда p  = 1. Третий равен нулю, когда p  =  4980 . Решение, которое максимизирует правдоподобие, очевидно, равно p  =  4980 (поскольку p  = 0 и p  = 1 дают правдоподобие 0). Таким образом, максимальная оценка правдоподобия для p равна 4980 .

Этот результат легко обобщается путем подстановки буквы, например, s, вместо 49, чтобы обозначить наблюдаемое число «успехов» наших испытаний Бернулли , и буквы, например, n , вместо 80, чтобы обозначить число испытаний Бернулли. Точно такой же расчет дает sn , что является оценкой максимального правдоподобия для любой последовательности из n испытаний Бернулли, приводящих к s «успехам».

Непрерывное распределение, непрерывное пространство параметров

Для нормального распределения , имеющего функцию плотности вероятности

соответствующая функция плотности вероятности для выборки из n независимых одинаково распределенных нормальных случайных величин (правдоподобие) равна

Это семейство распределений имеет два параметра: θ  = ( μσ ) ; поэтому мы максимизируем правдоподобие, , по обоим параметрам одновременно или, если возможно, по отдельности.

Поскольку сама логарифмическая функция является непрерывной строго возрастающей функцией в диапазоне правдоподобия, значения, которые максимизируют правдоподобие, также максимизируют его логарифм (само логарифмическое правдоподобие не обязательно строго возрастает). Логарифмическое правдоподобие можно записать следующим образом:

(Примечание: логарифм правдоподобия тесно связан с информационной энтропией и информацией Фишера .)

Теперь вычислим производные этого логарифмического правдоподобия следующим образом.

где выборочное среднее . Это решается с помощью

Это действительно максимум функции, поскольку это единственная точка поворота в μ , а вторая производная строго меньше нуля. Ее ожидаемое значение равно параметру μ данного распределения,

это означает, что оценка максимального правдоподобия является несмещенной.

Аналогично дифференцируем логарифм правдоподобия по σ и приравниваем к нулю:

которая решается путем

Подставляя оценку получаем

Чтобы вычислить его ожидаемое значение, удобно переписать выражение в терминах случайных величин с нулевым средним ( статистическая ошибка ) . Выражение оценки в этих переменных дает

Упрощение приведенного выше выражения с учетом того, что и , позволяет нам получить

Это означает, что оценка смещена для . Можно также показать, что смещено для , но оба значения и являются согласованными.

Формально мы говорим, что оценка максимального правдоподобия для равна

В этом случае MLE могут быть получены по отдельности. В общем случае это может быть не так, и MLE должны быть получены одновременно.

Нормальное логарифмическое правдоподобие в максимуме принимает особенно простую форму:

Можно показать, что эта максимальная логарифмическая вероятность одинакова для более общих наименьших квадратов , даже для нелинейных наименьших квадратов . Это часто используется при определении приближенных доверительных интервалов и доверительных областей на основе правдоподобия , которые, как правило, точнее тех, которые используют асимптотическую нормальность, обсуждавшуюся выше.

Независимые переменные

Может быть так, что переменные коррелируют, то есть не являются независимыми. Две случайные величины и являются независимыми только в том случае, если их совместная функция плотности вероятности является произведением индивидуальных функций плотности вероятности, то есть

Предположим, что мы создаем гауссовский вектор порядка n из случайных величин , где каждая переменная имеет среднее значение, заданное как . Кроме того, пусть ковариационная матрица будет обозначена как . Совместная функция плотности вероятности этих n случайных величин затем следует многомерному нормальному распределению, заданному как:

В двумерном случае совместная функция плотности вероятности определяется выражением:

В этом и других случаях, когда существует совместная функция плотности, функция правдоподобия определяется, как указано выше в разделе « принципы », с использованием этой плотности.

Пример

являются счетчиками в ячейках / ящиках от 1 до m; каждый ящик имеет различную вероятность (представьте, что ящики больше или меньше), и мы фиксируем количество выпавших шариков, равное : . Вероятность каждого ящика равна , с ограничением: . Это случай, когда s не являются независимыми, совместная вероятность вектора называется полиномиальной и имеет вид:

Каждая ячейка, взятая отдельно по отношению ко всем остальным ячейкам, является биномом, и это является его расширением.

Логарифмическая вероятность этого равна:

Необходимо учитывать ограничение и использовать множители Лагранжа:

Приравнивая все производные к 0, получаем наиболее естественную оценку

Максимизация логарифмического правдоподобия, с ограничениями и без них, может оказаться неразрешимой задачей в замкнутой форме, тогда нам придется использовать итерационные процедуры.

Итеративные процедуры

За исключением особых случаев, уравнения правдоподобия

не могут быть решены явно для оценщика . Вместо этого их нужно решать итеративно : начиная с начального предположения (скажем ), пытаются получить сходящуюся последовательность . Существует много методов для такого рода задач оптимизации , [26] [27] но наиболее часто используемые из них — это алгоритмы, основанные на формуле обновления вида

где вектор указывает направление спуска r -го «шага», а скаляр фиксирует «длину шага», [28] [29] также известную как скорость обучения . [30]

Градиентный спускметод

(Примечание: здесь речь идет о задаче максимизации, поэтому знак перед градиентом меняется на противоположный)

что достаточно мало для сходимости и

Метод градиентного спуска требует вычисления градиента на r-й итерации, но не требует вычисления обратной производной второго порядка, т. е. матрицы Гессе. Поэтому он вычислительно быстрее, чем метод Ньютона-Рафсона.

Метод Ньютона–Рафсона

и

где — оценка , а — обратная матрица Гессе функции логарифмического правдоподобия, обе оценивали r -ю итерацию. [31] [32] Но поскольку вычисление матрицы Гессе является вычислительно затратным , было предложено множество альтернатив. Популярный алгоритм Берндта–Холла–Хаусмана аппроксимирует Гессе внешним произведением ожидаемого градиента, таким образом, что

Квази-ньютоновские методы

Другие квазиньютоновские методы используют более сложные секущие обновления для получения аппроксимации матрицы Гессе.

Формула Дэвидона–Флетчера–Пауэлла

Формула DFP находит решение, которое является симметричным, положительно определенным и наиболее близким к текущему приближенному значению производной второго порядка:

где

Алгоритм Бройдена–Флетчера–Гольдфарба–Шанно

BFGS также дает решение, которое является симметричным и положительно определенным:

где

Метод BFGS не гарантирует сходимости, если функция не имеет квадратичного расширения Тейлора вблизи оптимума. Однако BFGS может иметь приемлемую производительность даже для негладких случаев оптимизации

Оценка Фишера

Другой популярный метод — заменить гессиан на информационную матрицу Фишера , что дает нам алгоритм оценки Фишера. Эта процедура является стандартной в оценке многих методов, таких как обобщенные линейные модели .

Несмотря на популярность, квазиньютоновские методы могут сходиться к стационарной точке , которая не обязательно является локальным или глобальным максимумом, [33] , а скорее локальным минимумом или седловой точкой . Поэтому важно оценить достоверность полученного решения уравнений правдоподобия, проверив, что гессиан, оцененный в решении, является как отрицательно определенным , так и хорошо обусловленным . [34]

История

Рональд Фишер в 1913 году

Среди первых пользователей метода максимального правдоподобия были Карл Фридрих Гаусс , Пьер-Симон Лаплас , Торвальд Н. Тиле и Фрэнсис Исидро Эджворт . [35] [36] Однако именно Рональд Фишер в период с 1912 по 1922 год единолично создал современную версию метода. [37] [38]

Оценка максимального правдоподобия наконец превзошла эвристическое обоснование в доказательстве, опубликованном Сэмюэлем С. Уилксом в 1938 году, теперь называемом теоремой Уилкса . [39] Теорема показывает, что ошибка в логарифме значений правдоподобия для оценок из нескольких независимых наблюдений асимптотически распределена по закону χ  2 , что позволяет удобно определять доверительную область вокруг любой оценки параметров. Единственная сложная часть доказательства Уилкса зависит от ожидаемого значения информационной матрицы Фишера , которое обеспечивается теоремой, доказанной Фишером. [40] Уилкс продолжал улучшать общность теоремы на протяжении всей своей жизни, и его наиболее общее доказательство было опубликовано в 1962 году. [41]

Обзоры развития оценки максимального правдоподобия были предоставлены рядом авторов. [42] [43] [44] [45] [46] [47] [48] [49]

Смотрите также

Связанные концепции

Другие методы оценки

Ссылки

  1. ^ Росси, Ричард Дж. (2018). Математическая статистика: Введение в вывод на основе правдоподобия . Нью-Йорк: John Wiley & Sons. стр. 227. ISBN 978-1-118-77104-4.
  2. ^ Хендри, Дэвид Ф.; Нильсен, Бент (2007). Эконометрическое моделирование: подход с использованием теории правдоподобия . Принстон: Princeton University Press. ISBN 978-0-691-13128-3.
  3. ^ Чемберс, Рэймонд Л.; Стил, Дэвид Г.; Ванг, Суодзин; Уэлш, Алан (2012). Оценка максимального правдоподобия для выборочных обследований . Бока-Ратон: CRC Press. ISBN 978-1-58488-632-7.
  4. ^ Уорд, Майкл Дон ; Алквист, Джон С. (2018). Максимальное правдоподобие для социальных наук: стратегии анализа . Нью-Йорк: Cambridge University Press. ISBN 978-1-107-18582-1.
  5. ^ Press, WH; Flannery, BP; Teukolsky, SA; Vetterling, WT (1992). «Наименьшие квадраты как оценка максимального правдоподобия». Numerical Recipes in FORTRAN: The Art of Scientific Computing (2nd ed.). Cambridge: Cambridge University Press. pp. 651–655. ISBN 0-521-43064-X.
  6. ^ Myung, IJ (2003). «Учебник по оценке максимального правдоподобия». Журнал математической психологии . 47 (1): 90–100. doi :10.1016/S0022-2496(02)00028-7.
  7. ^ Гурьеру, Кристиан; Монфорт, Ален (1995). Статистика и эконометрические модели . Cambridge University Press. стр. 161. ISBN 0-521-40551-3.
  8. ^ Кейн, Эдвард Дж. (1968). Экономическая статистика и эконометрика . Нью-Йорк, Нью-Йорк: Harper & Row. стр. 179.
  9. ^ Small, Christoper G.; Wang, Jinfang (2003). «Работа с корнями». Численные методы нелинейных оценочных уравнений . Oxford University Press. С. 74–124. ISBN 0-19-850688-0.
  10. ^ Касс, Роберт Э.; Вос, Пол В. (1997). Геометрические основы асимптотического вывода. Нью-Йорк, Нью-Йорк: John Wiley & Sons. стр. 14. ISBN 0-471-82668-5.
  11. ^ Пападопулос, Алекос (25 сентября 2013 г.). «Почему мы всегда ставим log() перед совместной pdf, когда используем MLE (оценку максимального правдоподобия)?». Stack Exchange .
  12. ^ ab Silvey, SD (1975). Статистический вывод. Лондон, Великобритания: Chapman and Hall. стр. 79. ISBN 0-412-13820-4.
  13. ^ Олив, Дэвид (2004). «Максимизирует ли MLE правдоподобие?» (PDF) . Университет Южного Иллинойса .
  14. ^ Швалли, Дэниел П. (1985). «Положительно определенные оценки ковариации максимального правдоподобия». Economics Letters . 17 (1–2): 115–117. doi :10.1016/0165-1765(85)90139-9.
  15. ^ Магнус, Ян Р. (2017). Введение в теорию эконометрики . Амстердам: VU University Press. С. 64–65. ISBN 978-90-8659-766-6.
  16. ^ Пфанцагль (1994, стр. 206)
  17. ^ По теореме 2.5 в Newey, Whitney K.; McFadden, Daniel (1994). "Глава 36: Оценка большой выборки и проверка гипотез". В Engle, Robert; McFadden, Dan (ред.). Справочник по эконометрике, том 4. Elsevier Science. стр. 2111–2245. ISBN 978-0-444-88766-5.
  18. ^ ab По теореме 3.3 в Newey, Whitney K.; McFadden, Daniel (1994). "Глава 36: Оценка большой выборки и проверка гипотез". В Engle, Robert; McFadden, Dan (ред.). Справочник по эконометрике, том 4. Elsevier Science. стр. 2111–2245. ISBN 978-0-444-88766-5.
  19. ^ Закс, Шелемьяху (1971). Теория статистического вывода . Нью-Йорк: John Wiley & Sons. стр. 223. ISBN 0-471-98103-6.
  20. ^ См. формулу 20 в Cox, David R. ; Snell, E. Joyce (1968). «Общее определение остатков». Журнал Королевского статистического общества, Серия B . 30 (2): 248–275. JSTOR  2984505.
  21. ^ Кано, Ютака (1996). «Эффективность третьего порядка подразумевает эффективность четвертого порядка». Журнал Японского статистического общества . 26 : 101–117. doi : 10.14490/jjss1995.26.101 .
  22. ^ Кристенсен, Хенрикт И. «Распознавание образов» (PDF) (лекция). Байесовская теория принятия решений - CS 7616. Georgia Tech.
  23. ^ cmplx96 (https://stats.stackexchange.com/users/177679/cmplx96), Расхождение Кульбака–Лейблера, URL (версия: 2017-11-18): https://stats.stackexchange.com/q/314472 (на видео на YouTube посмотрите минуты с 13 по 25)
  24. ^ Введение в статистический вывод | Стэнфорд (Лекция 16 — MLE при неправильной спецификации модели)
  25. ^ Sycorax говорит: «Восстановите Монику» (https://stats.stackexchange.com/users/22311/sycorax-says-reinstate-monica), взаимосвязь между максимизацией правдоподобия и минимизацией перекрестной энтропии, URL (версия: 2019-11-06): https://stats.stackexchange.com/q/364237
  26. ^ Флетчер, Р. (1987). Практические методы оптимизации (Второе издание). Нью-Йорк, Нью-Йорк: John Wiley & Sons. ISBN 0-471-91547-5.
  27. ^ Нокедаль, Хорхе ; Райт, Стивен Дж. (2006). Численная оптимизация (второе изд.). Нью-Йорк, Нью-Йорк: Springer. ISBN 0-387-30303-0.
  28. ^ Даганзо, Карлос (1979). Мультиномиальный пробит: теория и ее применение для прогнозирования спроса . Нью-Йорк: Academic Press. С. 61–78. ISBN 0-12-201150-3.
  29. ^ Гулд, Уильям; Питбладо, Джеффри; Пой, Брайан (2010). Оценка максимального правдоподобия с Stata (четвертое издание). College Station: Stata Press. стр. 13–20. ISBN 978-1-59718-078-8.
  30. ^ Мерфи, Кевин П. (2012). Машинное обучение: вероятностная перспектива. Кембридж: MIT Press. стр. 247. ISBN 978-0-262-01802-9.
  31. ^ Амемия, Такеши (1985). Продвинутая эконометрика. Кембридж: Издательство Гарвардского университета. С. 137–138. ISBN 0-674-00560-0.
  32. ^ Сарган, Денис (1988). «Методы численной оптимизации». Конспект лекций по передовой эконометрической теории . Оксфорд: Basil Blackwell. С. 161–169. ISBN 0-631-14956-2.
  33. См. теорему 10.1 в Avriel, Mordecai (1976). Нелинейное программирование: анализ и методы. Englewood Cliffs, NJ: Prentice-Hall. стр. 293–294. ISBN 978-0-486-43227-4.
  34. ^ Гилл, Филип Э.; Мюррей, Уолтер; Райт, Маргарет Х. (1981). Практическая оптимизация . Лондон, Великобритания: Academic Press. С. 312–313. ISBN 0-12-283950-1.
  35. ^ Эджворт, Фрэнсис И. (сентябрь 1908 г.). «О вероятных ошибках частотных констант». Журнал Королевского статистического общества . 71 (3): 499–512. doi :10.2307/2339293. JSTOR  2339293.
  36. ^ Эджворт, Фрэнсис И. (декабрь 1908 г.). «О вероятных ошибках частотных констант». Журнал Королевского статистического общества . 71 (4): 651–678. doi :10.2307/2339378. JSTOR  2339378.
  37. ^ Пфанзагль, Иоганн (1994). Параметрическая статистическая теория . Вальтер де Грюйтер . стр. 207–208. дои : 10.1515/9783110889765. ISBN 978-3-11-013863-4. МР  1291393.
  38. ^ Хальд, Андерс (1999). «Об истории максимального правдоподобия в связи с обратной вероятностью и наименьшими квадратами». Статистическая наука . 14 (2): 214–222. ISSN  0883-4237.
  39. ^ Уилкс, СС (1938). «Распределение отношения правдоподобия для большой выборки при проверке составных гипотез». Annals of Mathematical Statistics . 9 : 60–62. doi : 10.1214/aoms/1177732360 .
  40. ^ Оуэн, Арт Б. (2001). Эмпирическая вероятность . Лондон, Великобритания; Бока-Ратон, Флорида: Chapman & Hall; CRC Press. ISBN 978-1-58488-071-4.
  41. ^ Уилкс, Сэмюэл С. (1962). Математическая статистика . Нью-Йорк, Нью-Йорк: John Wiley & Sons. ISBN 978-0-471-94650-2.
  42. ^ Сэвидж, Леонард Дж. (1976). «О перечитывании RA Фишера». Анналы статистики . 4 (3): 441–500. doi : 10.1214/aos/1176343456 . JSTOR  2958221.
  43. ^ Пратт, Джон В. (1976). «Ф. И. Эджворт и Р. А. Фишер об эффективности оценки максимального правдоподобия». Анналы статистики . 4 (3): 501–514. doi : 10.1214/aos/1176343457 . JSTOR  2958222.
  44. ^ Стиглер, Стивен М. (1978). «Фрэнсис Исидро Эджворт, статистик». Журнал Королевского статистического общества, Серия A. 141 ( 3): 287–322. doi :10.2307/2344804. JSTOR  2344804.
  45. ^ Стиглер, Стивен М. (1986). История статистики: измерение неопределенности до 1900 года. Издательство Гарвардского университета. ISBN 978-0-674-40340-6.
  46. ^ Стиглер, Стивен М. (1999). Статистика на столе: история статистических концепций и методов . Издательство Гарвардского университета. ISBN 978-0-674-83601-3.
  47. ^ Хальд, Андерс (1998). История математической статистики с 1750 по 1930 год . Нью-Йорк, Нью-Йорк: Wiley. ISBN 978-0-471-17912-2.
  48. ^ Хальд, Андерс (1999). «Об истории максимального правдоподобия в связи с обратной вероятностью и наименьшими квадратами». Статистическая наука . 14 (2): 214–222. doi : 10.1214/ss/1009212248 . JSTOR  2676741.
  49. ^ Олдрич, Джон (1997). «RA Fisher и создание максимального правдоподобия 1912–1922». Статистическая наука . 12 (3): 162–176. doi : 10.1214/ss/1030037906 . MR  1617519.

Дальнейшее чтение

Внешние ссылки