stringtranslate.com

Численные методы линейного метода наименьших квадратов

Численные методы линейного метода наименьших квадратов влекут за собой численный анализ задач линейного наименьших квадратов .

Введение

Общий подход к задаче наименьших квадратов можно описать следующим образом. Предположим, что мы можем найти матрицу S размера n на m такую, что XS является ортогональной проекцией на образ X . Тогда решение нашей задачи минимизации имеет вид

просто потому что

является в точности искомой ортогональной проекцией на изображение X (см. рисунок ниже и обратите внимание, что, как объясняется в следующем разделе, изображение X — это просто подпространство, порожденное векторами-столбцами X ). Ниже описаны несколько популярных способов найти такую ​​матрицу S.

Обращение матрицы нормальных уравнений

Это уравнение известно как нормальное уравнение. Алгебраическое решение нормальных уравнений с матрицей X T X полного ранга можно записать в виде

где X + — псевдообратная величина Мура–Пенроуза X . Хотя это уравнение корректно и может работать во многих приложениях, инвертировать матрицу нормальных уравнений ( матрицу Грама ) неэффективно с вычислительной точки зрения . Исключение составляет числовое сглаживание и дифференцирование , где требуется аналитическое выражение.

Если матрица X T X хорошо обусловлена ​​и положительно определена , что означает, что она имеет полный ранг , нормальные уравнения могут быть решены непосредственно с помощью разложения Холецкого R T R , где R — верхняя треугольная матрица , что дает:

Решение получается в два этапа: шаг прямой замены , решение для z :

с последующей обратной заменой, решающей :

Обе замены облегчаются треугольной природой R.

Методы ортогонального разложения

Методы ортогональной декомпозиции решения задачи наименьших квадратов медленнее, чем метод нормальных уравнений, но более устойчивы численно, поскольку избегают формирования произведения X T X .

Остатки записываются в матричной записи как

Матрица X подвергается ортогональному разложению, например QR-разложению, следующим образом.

,

где Qортогональная матрица размера m × m ( Q T Q=I ), а R — верхняя треугольная матрица размера n × n с .

Вектор остатка умножается слева на Q T .

Поскольку Q ортогонально , сумма квадратов остатков s может быть записана как:

Поскольку v не зависит от β , минимальное значение s достигается, когда верхний блок u равен нулю. Поэтому параметры находятся путем решения:

Эти уравнения легко решаются, поскольку R является верхнетреугольным.

Альтернативным разложением X является разложение по сингулярным значениям (SVD) [1]

,

где U - ортогональная матрица размером m на m , V - ортогональная матрица размером n на n и представляет собой матрицу размером m на n , все ее элементы за пределами главной диагонали равны 0 . Псевдообратное легко получить путем инвертирования ненулевых диагональных элементов и транспонирования. Следовательно,

где P получается заменой ненулевых диагональных элементов единицами. Поскольку (свойство псевдообратности) матрица является ортогональной проекцией на изображение (пространство-столбец) X . В соответствии с общим подходом, описанным во введении выше (найти XS , который является ортогональной проекцией),

,

и поэтому,

является решением задачи наименьших квадратов. Этот метод является наиболее вычислительно интенсивным, но он особенно полезен, если матрица нормальных уравнений X TX очень плохо обусловлена ​​(т. е. если ее число обусловленности , умноженное на относительную ошибку округления машины, значительно велико). В этом случае включение наименьших сингулярных значений в инверсию просто добавляет численный шум к решению. Это можно исправить с помощью подхода усеченного SVD, дающего более стабильный и точный ответ, путем явного обнуления всех сингулярных значений ниже определенного порога и, таким образом, их игнорирования - процесса, тесно связанного с факторным анализом .

Обсуждение

Численные методы линейного метода наименьших квадратов важны, поскольку модели линейной регрессии являются одними из наиболее важных типов моделей как в качестве формальных статистических моделей , так и для исследования наборов данных. Большинство статистических компьютерных пакетов содержат средства регрессионного анализа, в которых используются линейные вычисления методом наименьших квадратов. Следовательно, вполне уместно, что значительные усилия были посвящены задаче обеспечения того, чтобы эти вычисления проводились эффективно и с должным учетом ошибки округления .

Индивидуальный статистический анализ редко проводится изолированно, а скорее является частью последовательности исследовательских шагов. Некоторые темы, связанные с рассмотрением численных методов линейного наименьших квадратов, относятся к этому моменту. Таким образом, важные темы могут быть

Аппроксимация линейных моделей методом наименьших квадратов часто, но не всегда, возникает в контексте статистического анализа . Поэтому может быть важно, чтобы соображения эффективности вычислений для таких задач распространялись на все вспомогательные величины, необходимые для такого анализа, и не ограничивались формальным решением линейной задачи наименьших квадратов.

На матричные вычисления, как и на любые другие, влияют ошибки округления . Ранний обзор этих эффектов, касающихся выбора методов вычислений для обращения матрицы, был предоставлен Уилкинсоном. [2]

Смотрите также

Рекомендации

  1. ^ Лоусон, CL; Хэнсон, Р.Дж. (1974). Решение задач наименьших квадратов . Энглвуд Клиффс, Нью-Джерси: Прентис-Холл. ISBN 0-13-822585-0.
  2. ^ Уилкинсон, Дж. Х. (1963) «Глава 3: Матричные вычисления», Ошибки округления в алгебраических процессах , Лондон: Канцелярия Ее Величества (Национальная физическая лаборатория, Заметки по прикладной науке, № 32)

дальнейшее чтение