stringtranslate.com

Линейный метод наименьших квадратов

Линейный метод наименьших квадратов ( LLS ) — это аппроксимация линейных функций к данным методом наименьших квадратов . Это набор формулировок для решения статистических задач, связанных с линейной регрессией , включая варианты для обычных (невзвешенных), взвешенных и обобщенных (коррелированных) остатков . Численные методы линейного метода наименьших квадратов включают обращение матрицы нормальных уравнений и методы ортогонального разложения .

Базовая формулировка

Рассмотрим линейное уравнение

где и заданы и являются переменной, подлежащей вычислению. Когда , как правило, ( 1 ) не имеет решения. Например, не существует удовлетворяющего значения , поскольку этого требуют первые две строки, но третья строка не удовлетворяется. Таким образом, цель точного решения ( 1 ) обычно заменяется поиском значения, которое минимизирует некоторую ошибку. Существует много способов определения ошибки, но один из наиболее распространенных — определить ее как « Это создает задачу минимизации, называемую задачей наименьших квадратов».

Решение задачи наименьших квадратов ( 1 ) вычисляется путем решения нормального уравнения [1]

где обозначает транспонирование . ​

Продолжая приведенный выше пример, мы находим и Решение нормального уравнения дает

Формулировки линейной регрессии

Три основные формулировки линейного метода наименьших квадратов:

Альтернативные составы

Другие составы включают:

Целевая функция

В МНК (т. е. при условии невзвешенных наблюдений) оптимальное значение целевой функции находится путем подстановки оптимального выражения для вектора коэффициентов: где последнее равенство выполняется, поскольку является симметричным и идемпотентным. Из этого можно показать [9] , что при соответствующем назначении весов ожидаемое значение S равно . Если вместо этого предполагаются единичные веса, ожидаемое значение S равно , где – дисперсия каждого наблюдения.

Если предположить, что остатки принадлежат нормальному распределению, целевая функция, представляющая собой сумму взвешенных квадратов остатков, будет принадлежать распределению хи-квадрат ( ) с m  −  n степенями свободы . Некоторые иллюстративные значения процентилей приведены в следующей таблице. [10]

Эти значения можно использовать в качестве статистического критерия степени соответствия . При использовании единичных весов числа следует разделить на дисперсию наблюдения.

Для WLS обычная целевая функция, указанная выше, заменяется средневзвешенным значением остатков.

Обсуждение

В статистике и математике линейный метод наименьших квадратов — это подход к подгонке математической или статистической модели к данным в случаях, когда идеализированное значение, предоставляемое моделью для любой точки данных, выражается линейно через неизвестные параметры модели. Полученную в результате подобранную модель можно использовать для обобщения данных, для прогнозирования ненаблюдаемых значений той же системы и для понимания механизмов, которые могут лежать в основе системы.

Математически линейный метод наименьших квадратов — это задача приближенного решения переопределенной системы линейных уравнений A x = b , где b не является элементом пространства столбцов матрицы A. Приближенное решение реализуется как точное решение A x = b' , где b ' — проекция b на пространство столбцов A. Наилучшим приближением является то, которое минимизирует сумму квадратов разностей между значениями данных и соответствующими им смоделированными значениями. Этот подход называется линейным методом наименьших квадратов, поскольку предполагаемая функция линейна по оцениваемым параметрам. Линейные задачи наименьших квадратов являются выпуклыми и имеют единственное решение в замкнутой форме при условии, что количество точек данных, используемых для подгонки, равно или превышает количество неизвестных параметров, за исключением особых вырожденных ситуаций. Напротив, нелинейные задачи наименьших квадратов обычно должны решаться с помощью итерационной процедуры , и проблемы могут быть невыпуклыми с несколькими оптимумами для целевой функции. Если доступны предыдущие распределения, то даже недоопределенную систему можно решить с помощью байесовской оценки MMSE .

В статистике линейные задачи наименьших квадратов соответствуют особенно важному типу статистической модели, называемой линейной регрессией , которая возникает как особая форма регрессионного анализа . Одной из основных форм такой модели является обычная модель наименьших квадратов . Настоящая статья концентрируется на математических аспектах линейных задач наименьших квадратов с обсуждением формулировки и интерпретации моделей статистической регрессии и связанных с ними статистических выводов, которые рассматриваются в только что упомянутых статьях. См. схему регрессионного анализа для ознакомления с темой.

Характеристики

Если экспериментальные ошибки некоррелированы, имеют нулевое среднее значение и постоянную дисперсию, теорема Гаусса-Маркова утверждает, что оценка методом наименьших квадратов имеет минимальную дисперсию среди всех оценок, которые являются линейными комбинациями наблюдений. В этом смысле это лучшая или оптимальная оценка параметров. Особо отметим, что это свойство не зависит от статистической функции распределения ошибок. Другими словами, функция распределения ошибок не обязательно должна быть нормальным распределением . Однако для некоторых распределений вероятностей нет никакой гарантии, что решение методом наименьших квадратов вообще возможно с учетом наблюдений; тем не менее, в таких случаях это лучшая оценка, которая является одновременно линейной и несмещенной.

Например, легко показать, что среднее арифметическое набора измерений величины является оценкой значения этой величины методом наименьших квадратов. Если применимы условия теоремы Гаусса–Маркова, среднее арифметическое является оптимальным, каким бы ни было распределение ошибок измерений.

Однако в случае, когда экспериментальные ошибки действительно принадлежат нормальному распределению, метод наименьших квадратов также является оценщиком максимального правдоподобия . [11]

Эти свойства лежат в основе использования метода наименьших квадратов для всех типов подбора данных, даже когда предположения не являются строго верными.

Ограничения

Предположение, лежащее в основе приведенной выше обработки, заключается в том, что независимая переменная x не содержит ошибок. На практике ошибки измерения независимой переменной обычно намного меньше ошибок измерения зависимой переменной, и поэтому их можно игнорировать. Если это не так, следует использовать метод общих наименьших квадратов или, в более общем плане , модели ошибок в переменных или строгие методы наименьших квадратов . Это можно сделать, скорректировав схему взвешивания для учета ошибок как по зависимым, так и по независимым переменным, а затем следуя стандартной процедуре. [12] [13]

В некоторых случаях матрица (взвешенных) нормальных уравнений X T X является плохо обусловленной . При аппроксимации полиномами матрица нормальных уравнений представляет собой матрицу Вандермонда . Матрицы Вандермонда становятся все более плохо обусловленными по мере увеличения порядка матрицы. [ нужна цитата ] В этих случаях оценка методом наименьших квадратов усиливает шум измерения и может быть крайне неточной. [ нужна цитата ] В таких случаях могут применяться различные методы регуляризации , наиболее распространенный из которых называется гребневой регрессией . Если известна дополнительная информация о параметрах, например диапазон возможных значений , то можно использовать различные методы для повышения устойчивости решения. Например, см. ограниченный метод наименьших квадратов.

Другим недостатком метода наименьших квадратов является тот факт, что норма остатков минимизирована, тогда как в некоторых случаях действительно интересно получить малую ошибку параметра , например, небольшое значение . [ нужна цитация ] Однако, поскольку истинный параметр обязательно неизвестен, эту величину нельзя минимизировать напрямую. Если априорная вероятность известна , то для минимизации среднеквадратической ошибки можно использовать байесовский оценщик . Метод наименьших квадратов часто применяется, когда априорное значение неизвестно. Когда несколько параметров оцениваются совместно, можно построить более точные оценки — эффект, известный как феномен Штейна . Например, если ошибка измерения гауссова , известно несколько методов оценки, которые доминируют или превосходят метод наименьших квадратов; наиболее известным из них является оценщик Джеймса – Стейна . Это пример более общих оценок усадки , которые применялись к задачам регрессии.

Приложения

Приближение наименьших квадратов линейными, квадратичными и кубическими полиномами.

Использование при подборе данных

Основное применение линейного метода наименьших квадратов – аппроксимация данных . Учитывая набор из m точек данных , состоящий из экспериментально измеренных значений, взятых при m значениях независимой переменной ( могут быть скалярными или векторными величинами), и заданную модельную функцию, желательно найти такие параметры, при которых модельная функция является «лучшей» соответствует данным. В линейном методе наименьших квадратов линейность подразумевается по отношению к параметрам , поэтому

Здесь функции могут быть нелинейными по переменной x .

В идеале функция модели точно соответствует данным, поэтому для всех. На практике это обычно невозможно, поскольку точек данных больше, чем параметров, которые необходимо определить. Выбранный тогда подход состоит в том, чтобы найти минимально возможное значение суммы квадратов остатков, чтобы минимизировать функцию

После замены на , а затем на , эта задача минимизации становится приведенной выше задачей квадратичной минимизации с, и наилучшее соответствие можно найти путем решения нормальных уравнений.

Пример

График точек данных (красный), линия наилучшего соответствия методом наименьших квадратов (синий) и остатков (зеленый)

Гипотетический исследователь проводит эксперимент и получает четыре точки данных: и (показаны красным на диаграмме справа). Из-за исследовательского анализа данных или предварительного знания предмета исследователь подозревает, что -ценности систематически зависят от -ценностей. Предполагается, что значения являются точными, однако значения содержат некоторую неопределенность или «шум» из-за изучаемого явления, несовершенства измерений и т. д.

Установка линии

Одним из простейших возможных отношений между и является линия . Точка пересечения и наклон изначально неизвестны. Исследователь хотел бы найти значения и , которые заставят линию проходить через четыре точки данных. Другими словами, исследователь хотел бы решить систему линейных уравнений с четырьмя уравнениями с двумя неизвестными, эта система является переопределенной. Точного решения не существует. Чтобы рассмотреть приближенные решения, в уравнения вводятся остатки , , : Остаток th — это несоответствие между наблюдением th и прогнозом th : Среди всех приближенных решений исследователь хотел бы найти то, которое является «лучшим» в некотором смысл.

В методе наименьших квадратов основное внимание уделяется сумме квадратов остатков: лучшим решением считается то, которое минимизируется по отношению к и . Минимум можно вычислить, установив частные производные равными нулю: эти нормальные уравнения представляют собой систему двух линейных уравнений с двумя неизвестными. Решением является и , поэтому наиболее подходящей линией является . Остатки равны и (см. диаграмму справа). Минимальное значение суммы квадратов остатков равно

Этот расчет можно выразить в матричной записи следующим образом. Исходная система уравнений равна , где Интуитивно, Более строго, если обратима, то матрица представляет собой ортогональную проекцию на пространство столбцов . Следовательно, среди всех векторов вида наиболее близким является . Установка очевидно, что это решение.

Установка параболы

Результат сопоставления квадратичной функции (синий цвет) с набором точек данных (красный цвет). В линейном методе наименьших квадратов функция не обязательно должна быть линейной по аргументу , а только по тем параметрам , которые определены для наилучшего соответствия.

Предположим, что гипотетический исследователь хочет подобрать параболу вида . Важно отметить, что эта модель по-прежнему линейна по неизвестным параметрам (теперь только ), поэтому линейный метод наименьших квадратов по-прежнему применим. Система уравнений с невязками имеет вид

Сумма квадратов остатков равна 0. Существует только одна частная производная, которую можно установить в 0: Решение — , а подходящая модель — .

В матричной записи уравнения без остатков снова имеют вид , где теперь По той же логике, что и выше, решение имеет вид

На рисунке показано расширение для подбора параболы с тремя параметрами с использованием матрицы расчета с тремя столбцами (один для , и ) и одной строкой для каждой из красных точек данных.

Подгонка других кривых и поверхностей

В более общем смысле можно иметь регрессоры и линейную модель.

Смотрите также

Рекомендации

  1. ^ Вайсштейн, Эрик В. «Нормальное уравнение». Математический мир . Вольфрам . Проверено 18 декабря 2023 г.
  2. ^ Лай, TL; Роббинс, Х.; Вэй, Чехия (1978). «Сильная согласованность оценок методом наименьших квадратов в множественной регрессии». ПНАС . 75 (7): 3034–3036. Бибкод : 1978PNAS...75.3034L. дои : 10.1073/pnas.75.7.3034 . JSTOR  68164. PMC 392707 . ПМИД  16592540. 
  3. ^ дель Пино, Гвидо (1989). «Объединяющая роль итерационного обобщенного метода наименьших квадратов в статистических алгоритмах». Статистическая наука . 4 (4): 394–403. дои : 10.1214/ss/1177012408 . JSTOR  2245853.
  4. ^ Кэрролл, Раймонд Дж. (1982). «Адаптация к гетероскедастичности в линейных моделях». Анналы статистики . 10 (4): 1224–1233. дои : 10.1214/aos/1176345987 . JSTOR  2240725.
  5. ^ Коэн, Майкл; Далал, Сиддхартха Р.; Тьюки, Джон В. (1993). «Надежная, плавно-гетерогенная дисперсионная регрессия». Журнал Королевского статистического общества, серия C. 42 (2): 339–353. JSTOR  2986237.
  6. ^ Нивергельт, Ив (1994). «Всего наименьших квадратов: современная регрессия в численном анализе». Обзор СИАМ . 36 (2): 258–264. дои : 10.1137/1036055. JSTOR  2132463.
  7. ^ Бритцгер, Дэниел (2022). «Подгонка линейного шаблона». Евро. Физ. Джей Си . 82 (8): 731. arXiv : 2112.01548 . Бибкод : 2022EPJC...82..731B. doi : 10.1140/epjc/s10052-022-10581-w. S2CID  244896511.
  8. ^ Тофалис, К. (2009). «Процентная регрессия по методу наименьших квадратов». Журнал современных прикладных статистических методов . 7 : 526–534. дои : 10.2139/ssrn.1406472. HDL : 2299/965 . ССНН  1406472.
  9. ^ Гамильтон, WC (1964). Статистика в физических науках . Нью-Йорк: Рональд Пресс.
  10. ^ Шпигель, Мюррей Р. (1975). Очерк теории и проблем вероятности и статистики Шаума . Нью-Йорк: МакГроу-Хилл. ISBN 978-0-585-26739-5.
  11. ^ Маргенау, Генри; Мерфи, Джордж Мозли (1956). Математика физики и химии . Принстон: Ван Ностранд.
  12. ^ аб Ганс, Питер (1992). Подгонка данных в химических науках . Нью-Йорк: Уайли. ISBN 978-0-471-93412-7.
  13. ^ Деминг, МЫ (1943). Статистическая корректировка данных . Нью-Йорк: Уайли.
  14. ^ Актон, Ф.С. (1959). Анализ прямолинейных данных . Нью-Йорк: Уайли.
  15. ^ Гость, PG (1961). Численные методы аппроксимации кривой . Кембридж: Издательство Кембриджского университета.[ нужна страница ]

дальнейшее чтение

Внешние ссылки