stringtranslate.com

Итеративно перевзвешенные методы наименьших квадратов

Метод итеративно перевзвешенных наименьших квадратов ( IRLS ) используется для решения некоторых оптимизационных задач с целевыми функциями вида p -нормы :

итерационным методом , в котором каждый шаг включает решение взвешенной задачи наименьших квадратов вида: [1]

IRLS используется для нахождения оценок максимального правдоподобия обобщенной линейной модели , а в робастной регрессии — для нахождения M-оценки как способ смягчения влияния выбросов в обычно распределенном наборе данных, например, путем минимизации наименьшие абсолютные ошибки, а не наименьшие квадратичные ошибки .

Одним из преимуществ IRLS перед линейным программированием и выпуклым программированием является то, что его можно использовать с численными алгоритмами Гаусса – Ньютона и Левенберга – Марквардта .

Примеры

л1минимизация для редкого восстановления

IRLS можно использовать для минимизации ℓ 1 и сглаженной минимизации ℓ p , p  <1, в задачах измерения сжатых данных . Доказано, что алгоритм имеет линейную скорость сходимости для 1 нормы и суперлинейную для t с t  < 1 при ограниченном свойстве изометрии , которое обычно является достаточным условием для разреженных решений. [2] [3]

Л пнормальная линейная регрессия

Чтобы найти параметры β  = ( β 1 , …, β k ) T , которые минимизируют норму L p для задачи линейной регрессии ,

алгоритм IRLS на шаге t  +1 предполагает решение взвешенной линейной задачи наименьших квадратов : [4]

где W ( t )диагональная матрица весов, обычно со всеми элементами, изначально установленными на:

и обновляется после каждой итерации до:

В случае p  = 1 это соответствует регрессии с наименьшим абсолютным отклонением (в этом случае к проблеме лучше подходить с помощью методов линейного программирования , [5] , чтобы результат был точным) и формула:

Чтобы избежать деления на ноль, необходимо выполнить регуляризацию , поэтому на практике формула выглядит так:

где какое-то небольшое значение, например 0,0001. [5] Обратите внимание, что использование в весовой функции эквивалентно функции потерь Хубера при робастной оценке. [6]

Смотрите также

Примечания

  1. ^ К. Сидни Беррус, Итеративный перевзвешенный метод наименьших квадратов
  2. ^ Чартран, Р.; Инь, В. (31 марта – 4 апреля 2008 г.). «Итеративно перевзвешенные алгоритмы измерения сжатия». Международная конференция IEEE по акустике, речи и обработке сигналов (ICASSP), 2008 г. стр. 3869–3872. дои : 10.1109/ICASSP.2008.4518498.
  3. ^ Добеши, И.; Девор, Р.; Форназье, М.; Гюнтюрк, CSN (2010). «Итеративно перевзвешенная минимизация методом наименьших квадратов для редкого восстановления». Сообщения по чистой и прикладной математике . 63 : 1–38. arXiv : 0807.0575 . дои : 10.1002/cpa.20303.
  4. ^ Нежный, Джеймс (2007). «6.8.1 Решения, минимизирующие другие нормы невязок». Матричная алгебра . Тексты Спрингера в статистике. Нью-Йорк: Спрингер. дои : 10.1007/978-0-387-70873-7. ISBN 978-0-387-70872-0.
  5. ^ ab Уильям А. Пфейл, Статистические учебные пособия , диссертация бакалавра наук, Вустерский политехнический институт , 2006 г.
  6. ^ Фокс, Дж.; Вайсберг, С. (2013), Робастная регрессия , конспекты курса, Университет Миннесоты.

Рекомендации

Внешние ссылки