stringtranslate.com

Метод субградиента

Методы субградиента — это выпуклые методы оптимизации , которые используют субпроизводные . Первоначально разработанные Наумом З. Шором и другими в 1960-х и 1970-х годах, методы субградиента являются сходящимися, когда применяются даже к недифференцируемой целевой функции. Когда целевая функция дифференцируема, методы субградиента для задач без ограничений используют то же направление поиска, что и метод наискорейшего спуска .

Методы субградиента медленнее метода Ньютона при применении для минимизации дважды непрерывно дифференцируемых выпуклых функций. Однако метод Ньютона не сходится в задачах, которые имеют недифференцируемые перегибы.

В последние годы были предложены некоторые методы внутренней точки для задач выпуклой минимизации, но методы субградиентной проекции и связанные с ними методы пучкового спуска остаются конкурентоспособными. Для задач выпуклой минимизации с очень большим числом измерений методы субградиентной проекции подходят, поскольку они требуют мало памяти.

Методы субградиентной проекции часто применяются к крупномасштабным проблемам с методами декомпозиции. Такие методы декомпозиции часто допускают простой распределенный метод для проблемы.

Классические правила субградиента

Пусть будет выпуклой функцией с областью определения Классический метод субградиента итерирует , где обозначает любой субградиент в и является итерацией Если дифференцируемо, то его единственным субградиентом является сам вектор градиента . Может случиться, что это не направление спуска для в Поэтому мы поддерживаем список , который отслеживает наименьшее значение целевой функции, найденное до сих пор, т.е.

Правила размера шага

Множество различных типов правил размера шага используются субградиентными методами. В этой статье отмечены пять классических правил размера шага, для которых известны доказательства сходимости:

Для всех пяти правил размеры шагов определяются "офлайн", до итерации метода; размеры шагов не зависят от предыдущих итераций. Это "офлайн" свойство субградиентных методов отличается от "онлайн" правил размеров шагов, используемых для методов спуска для дифференцируемых функций: многие методы минимизации дифференцируемых функций удовлетворяют достаточным условиям Вульфа для сходимости, где размеры шагов обычно зависят от текущей точки и текущего направления поиска. Подробное обсуждение правил размеров шагов для субградиентных методов, включая инкрементные версии, дано в книгах Берцекаса [1] и Берцекаса, Недича и Оздаглара. [2]

Результаты конвергенции

Для постоянной длины шага и масштабированных субградиентов, имеющих евклидову норму , равную единице, метод субградиента сходится к произвольно близкому приближению к минимальному значению, то есть

по результату Шора . [3]

Эти классические субградиентные методы имеют низкую производительность и больше не рекомендуются для общего использования. [4] [5] Тем не менее, они по-прежнему широко используются в специализированных приложениях, поскольку они просты и их можно легко адаптировать для использования преимуществ особой структуры рассматриваемой проблемы.

Методы субградиентной проекции и пучка

В 1970-х годах Клод Лемарешаль и Фил Вулф предложили «методы пучков» спуска для задач выпуклой минимизации. [6] Значение термина «методы пучков» значительно изменилось с тех пор. Современные версии и полный анализ сходимости были предоставлены Кивилем. [7] Современные методы пучков часто используют правила « уровня контроля» для выбора размеров шагов, развивая методы из метода «проекции субградиента» Бориса Т. Поляка (1969). Однако существуют задачи, в которых методы пучков дают мало преимуществ по сравнению с методами проекции субградиента. [4] [5]

Ограниченная оптимизация

Прогнозируемый субградиент

Одним из расширений метода субградиента является метод проецируемого субградиента , который решает задачу ограниченной оптимизации.

минимизировать при условии

где — выпуклое множество . Метод проецируемого субградиента использует итерацию , где — проекция на и — любой субградиент на

Общие ограничения

Метод субградиента может быть расширен для решения задачи с ограничением в виде неравенства

минимизировать при условии

где выпуклы. Алгоритм принимает ту же форму, что и случай без ограничений , где — размер шага, а — субградиент целевой или одной из функций ограничений в Возьмем , где обозначает субдифференциал Если текущая точка достижима, алгоритм использует целевой субградиент ; если текущая точка не достижима, алгоритм выбирает субградиент любого нарушенного ограничения.

Смотрите также

Ссылки

  1. ^ Берцекас, Димитрий П. (2015). Выпуклые алгоритмы оптимизации (второе издание). Belmont, MA.: Athena Scientific. ISBN 978-1-886529-28-1.
  2. ^ Bertsekas, Dimitri P.; Nedic, Angelia; Ozdaglar, Asuman (2003). Выпуклый анализ и оптимизация (второе издание). Belmont, MA.: Athena Scientific. ISBN 1-886529-45-0.
  3. ^ Приблизительная сходимость метода субградиента с постоянным размером шага (масштабированного) изложена в упражнении 6.3.14(a) в Bertsekas (стр. 636): Bertsekas, Dimitri P. (1999). Nonlinear Programming (Второе изд.). Cambridge, MA.: Athena Scientific. ISBN 1-886529-00-0.На странице 636 Берцекас приписывает этот результат Шору: Шор, Наум З. (1985). Методы минимизации недифференцируемых функций . Springer-Verlag . ISBN 0-387-12763-1.
  4. ^ аб Лемарешаль, Клод (2001). «Лагранжева релаксация». В Михаэле Юнгере и Денисе Наддефе (ред.). Вычислительная комбинаторная оптимизация: доклады весенней школы, проходившей в замке Дагштуль, 15–19 мая 2000 г. Конспекты лекций по информатике. Том. 2241. Берлин: Springer-Verlag. стр. 112–156. дои : 10.1007/3-540-45586-8_4. ISBN 3-540-42877-1. MR  1900016. S2CID  9048698.
  5. ^ ab Kiwiel, Krzysztof C.; Larsson, Torbjörn; Lindberg, P. O. (август 2007 г.). «Лагранжева релаксация с помощью методов субградиента ballstep». Математика исследования операций . 32 (3): 669–686. doi :10.1287/moor.1070.0261. MR  2348241.
  6. ^ Берцекас, Димитрий П. (1999). Нелинейное программирование (второе изд.). Кембридж, Массачусетс: Athena Scientific. ISBN 1-886529-00-0.
  7. ^ Kiwiel, Krzysztof (1985). Методы спуска для недифференцируемой оптимизации . Берлин: Springer Verlag . стр. 362. ISBN 978-3540156420. МР  0797754.

Дальнейшее чтение

Внешние ссылки