В числовой оптимизации метаоптимизация — это использование одного метода оптимизации для настройки другого метода оптимизации. Сообщается, что метаоптимизация использовалась еще в конце 1970-х годов Мерсером и Сэмпсоном [1] для поиска оптимальных настроек параметров генетического алгоритма .
Мета-оптимизация и связанные с ней концепции также известны в литературе как мета-эволюция, супер-оптимизация, автоматическая калибровка параметров, гипер-эвристика и т. д.
Мотивация
Методы оптимизации, такие как генетический алгоритм и дифференциальная эволюция, имеют несколько параметров, которые управляют их поведением и эффективностью при оптимизации заданной проблемы, и эти параметры должны быть выбраны практиком для достижения удовлетворительных результатов. Выбор поведенческих параметров вручную является трудоемкой задачей, которая подвержена человеческим заблуждениям относительно того, что заставляет оптимизатор работать хорошо.
Поведенческие параметры оптимизатора можно изменять, а производительность оптимизации можно отображать в виде ландшафта. Это вычислительно осуществимо для оптимизаторов с небольшим количеством поведенческих параметров и задач оптимизации, которые быстро вычисляются, но когда число поведенческих параметров увеличивается, время, затрачиваемое на вычисление такого ландшафта производительности, увеличивается экспоненциально. Это проклятие размерности для пространства поиска, состоящего из поведенческих параметров оптимизатора. Поэтому необходим эффективный метод поиска в пространстве поведенческих параметров.
Методы
Простой способ найти хорошие поведенческие параметры для оптимизатора — использовать другой накладной оптимизатор, называемый мета -оптимизатором. Существуют различные способы сделать это в зависимости от того, являются ли настраиваемые поведенческие параметры действительными или дискретными , и в зависимости от того, какая мера производительности используется и т. д.
Мета-оптимизация параметров генетического алгоритма была выполнена Грефенстеттом [2] и Кином [3] среди прочих, а эксперименты с мета-оптимизацией как параметров, так и генетических операторов были описаны Бэком. [4] Мета-оптимизация алгоритма COMPLEX-RF была выполнена Крусом и Андерссоном [5] и [6] , где был введен и далее развит индекс производительности оптимизации, основанный на теории информации. Мета-оптимизация оптимизации роя частиц была выполнена Мейсснером и др. [7] Педерсеном и Чипперфилдом [8] и Мейсоном и др. [9] Педерсен и Чипперфилд применили мета-оптимизацию к дифференциальной эволюции . [10] Бираттари и др. [11] [12] мета-оптимизированная оптимизация колонии муравьев . Статистические модели также использовались для того, чтобы раскрыть больше информации о взаимосвязи между выбором поведенческих параметров и эффективностью оптимизации, см., например, Франсуа и Лавернь, [13] и Наннен и Эйбен. [14] Сравнение различных методов метаоптимизации было проведено Смитом и Эйбеном. [15]
^ Мерсер, Р. Э.; Сэмпсон, Дж. Р. (1978). «Адаптивный поиск с использованием репродуктивного метаплана». Kybernetes . 7 (3): 215–228. doi :10.1108/eb005486.
^ Грефенстетте, Дж. Дж. (1986). «Оптимизация параметров управления для генетических алгоритмов». Труды IEEE по системам, человеку и кибернетике . 16 (1): 122–128. doi :10.1109/TSMC.1986.289288. S2CID 23313487.
^ Keane, AJ (1995). «Оптимизация генетических алгоритмов в многопиковых задачах: исследования сходимости и надежности». Искусственный интеллект в инженерии . 9 (2): 75–83. doi :10.1016/0954-1810(95)95751-Q.
^ Бэк, Т. (1994). «Параллельная оптимизация эволюционных алгоритмов». Труды Международной конференции по эволюционным вычислениям . С. 418–427.
^ Крус, П.К.; Андерссон (Олвандер), Дж. (2003). «Оптимизация оптимизации для оптимизации проектирования». Труды технических конференций ASME по проектированию и инжинирингу DETC'03 2003 и конференции «Компьютеры и информация в машиностроении» Чикаго, Иллинойс, США .
^ Крус, ПК.; Олвандер (Андерссон), Дж. (2013). «Индекс производительности и метаоптимизация метода оптимизации прямого поиска» (PDF) . Инженерная оптимизация . 45 (10): 1167–1185. Bibcode :2013EnOp...45.1167K. doi :10.1080/0305215X.2012.725052. S2CID 62731978.
^ Мейсснер, М.; Шмукер, М.; Шнайдер, Г. (2006). «Оптимизированная оптимизация роя частиц (OPSO) и ее применение для обучения искусственных нейронных сетей». BMC Bioinformatics . 7 (1): 125. doi : 10.1186/1471-2105-7-125 . PMC 1464136 . PMID 16529661.
^ Мейсон, Карл; Дагган, Джим; Хоули, Энда (2018). «Анализ метаоптимизации уравнений обновления скорости оптимизации роя частиц для обучения управлению водоразделом». Прикладные мягкие вычисления . 62 : 148–161. doi :10.1016/j.asoc.2017.10.018.
^ Pedersen, MEH (2010). Tuning & Simplifying Heuristical Optimization (PDF) (диссертация на степень доктора философии). Университет Саутгемптона, Школа инженерных наук, Группа вычислительной инженерии и дизайна. S2CID 107805461. Архивировано из оригинала (PDF) 2020-02-13.
^ Бираттари, М.; Штютцле, Т.; Пакете, Л.; Варрентрапп, К. (2002). «Гоночный алгоритм для настройки метаэвристик». Труды конференции по генетическим и эволюционным вычислениям (GECCO) . стр. 11–18.
^ Бираттари, М. (2004). Проблема настройки метаэвристик с точки зрения машинного обучения (PDF) (диссертация на соискание степени доктора философии). Université Libre de Bruxelles.
^ Франсуа, О.; Лавернь, К. (2001). «Разработка эволюционных алгоритмов — статистическая перспектива». Труды IEEE по эволюционным вычислениям . 5 (2): 129–148. doi :10.1109/4235.918434.
^ Наннен, В.; Эйбен, А.Е. (2006). «Метод калибровки параметров и оценки релевантности в эволюционных алгоритмах» (PDF) . Труды 8-й ежегодной конференции по генетическим и эволюционным вычислениям (GECCO) . стр. 183–190.
^ Смит, СК; Эйбен, АЕ (2009). «Сравнение методов настройки параметров для эволюционных алгоритмов» (PDF) . Труды Конгресса IEEE по эволюционным вычислениям (CEC) . стр. 399–406.