Численные методы линейного метода наименьших квадратов влекут за собой численный анализ задач линейного наименьших квадратов .
Общий подход к задаче наименьших квадратов можно описать следующим образом. Предположим, что мы можем найти матрицу S размера n на m такую, что XS является ортогональной проекцией на образ X . Тогда решение нашей задачи минимизации имеет вид
просто потому что
является в точности искомой ортогональной проекцией на изображение X (см. рисунок ниже и обратите внимание, что, как объясняется в следующем разделе, изображение X — это просто подпространство, порожденное векторами-столбцами X ). Ниже описаны несколько популярных способов найти такую матрицу S.
Это уравнение известно как нормальное уравнение. Алгебраическое решение нормальных уравнений с матрицей X T X полного ранга можно записать в виде
где X + — псевдообратная величина Мура–Пенроуза X . Хотя это уравнение корректно и может работать во многих приложениях, инвертировать матрицу нормальных уравнений ( матрицу Грама ) неэффективно с вычислительной точки зрения . Исключение составляет числовое сглаживание и дифференцирование , где требуется аналитическое выражение.
Если матрица X T X хорошо обусловлена и положительно определена , что означает, что она имеет полный ранг , нормальные уравнения могут быть решены непосредственно с помощью разложения Холецкого R T R , где R — верхняя треугольная матрица , что дает:
Решение получается в два этапа: шаг прямой замены , решение для z :
с последующей обратной заменой, решающей :
Обе замены облегчаются треугольной природой R.
Методы ортогональной декомпозиции решения задачи наименьших квадратов медленнее, чем метод нормальных уравнений, но более устойчивы численно, поскольку избегают формирования произведения X T X .
Остатки записываются в матричной записи как
Матрица X подвергается ортогональному разложению, например QR-разложению, следующим образом.
где Q — ортогональная матрица размера m × m ( Q T Q=I ), а R — верхняя треугольная матрица размера n × n с .
Вектор остатка умножается слева на Q T .
Поскольку Q ортогонально , сумма квадратов остатков s может быть записана как:
Поскольку v не зависит от β , минимальное значение s достигается, когда верхний блок u равен нулю. Поэтому параметры находятся путем решения:
Эти уравнения легко решаются, поскольку R является верхнетреугольным.
Альтернативным разложением X является разложение по сингулярным значениям (SVD) [1]
где U - ортогональная матрица размером m на m , V - ортогональная матрица размером n на n и представляет собой матрицу размером m на n , все ее элементы за пределами главной диагонали равны 0 . Псевдообратное легко получить путем инвертирования ненулевых диагональных элементов и транспонирования. Следовательно,
где P получается заменой ненулевых диагональных элементов единицами. Поскольку (свойство псевдообратности) матрица является ортогональной проекцией на изображение (пространство-столбец) X . В соответствии с общим подходом, описанным во введении выше (найти XS , который является ортогональной проекцией),
и поэтому,
является решением задачи наименьших квадратов. Этот метод является наиболее вычислительно интенсивным, но он особенно полезен, если матрица нормальных уравнений X TX очень плохо обусловлена (т. е. если ее число обусловленности , умноженное на относительную ошибку округления машины, значительно велико). В этом случае включение наименьших сингулярных значений в инверсию просто добавляет численный шум к решению. Это можно исправить с помощью подхода усеченного SVD, дающего более стабильный и точный ответ, путем явного обнуления всех сингулярных значений ниже определенного порога и, таким образом, их игнорирования - процесса, тесно связанного с факторным анализом .
Численные методы линейного метода наименьших квадратов важны, поскольку модели линейной регрессии являются одними из наиболее важных типов моделей как в качестве формальных статистических моделей , так и для исследования наборов данных. Большинство статистических компьютерных пакетов содержат средства регрессионного анализа, в которых используются линейные вычисления методом наименьших квадратов. Следовательно, вполне уместно, что значительные усилия были посвящены задаче обеспечения того, чтобы эти вычисления проводились эффективно и с должным учетом ошибки округления .
Индивидуальный статистический анализ редко проводится изолированно, а скорее является частью последовательности исследовательских шагов. Некоторые темы, связанные с рассмотрением численных методов линейного наименьших квадратов, относятся к этому моменту. Таким образом, важные темы могут быть
Аппроксимация линейных моделей методом наименьших квадратов часто, но не всегда, возникает в контексте статистического анализа . Поэтому может быть важно, чтобы соображения эффективности вычислений для таких задач распространялись на все вспомогательные величины, необходимые для такого анализа, и не ограничивались формальным решением линейной задачи наименьших квадратов.
На матричные вычисления, как и на любые другие, влияют ошибки округления . Ранний обзор этих эффектов, касающихся выбора методов вычислений для обращения матрицы, был предоставлен Уилкинсоном. [2]