stringtranslate.com

Оптимизация роя частиц

Рой частиц ищет глобальный минимум функции

В вычислительной науке оптимизация роя частиц ( PSO ) [1] — это вычислительный метод, который оптимизирует проблему, итеративно пытаясь улучшить возможное решение с учетом заданной меры качества. Он решает проблему, имея совокупность возможных решений, называемых здесь частицами , и перемещая эти частицы в пространстве поиска в соответствии с простой математической формулой относительно положения и скорости частицы . На движение каждой частицы влияет ее локальное наиболее известное положение, но оно также направляется к наиболее известным позициям в пространстве поиска, которые обновляются по мере того, как другие частицы находят лучшие позиции. Ожидается, что это подтолкнет рой к лучшим решениям.

PSO первоначально приписывается Кеннеди , Эберхарту и Ши [2] [3] и изначально предназначалась для моделирования социального поведения [4] как стилизованное изображение движения организмов в птичьей стае или рыбной стае . Алгоритм был упрощен, и было замечено, что он выполняет оптимизацию. В книге Кеннеди и Эберхарта [5] описаны многие философские аспекты PSO и роевого интеллекта . Обширный обзор приложений PSO проведен Poli . [6] [7] Недавно Боньяди и Михалевич опубликовали всеобъемлющий обзор теоретических и экспериментальных работ по PSO. [1]

PSO является метаэвристическим подходом , поскольку он делает мало или вообще не делает предположений относительно оптимизируемой проблемы и может искать в очень больших пространствах возможных решений. Кроме того, PSO не использует градиент оптимизируемой задачи, а это означает, что PSO не требует, чтобы задача оптимизации была дифференцируемой , как того требуют классические методы оптимизации, такие как градиентный спуск и методы квазиньютонов . Однако метаэвристика, такая как PSO, не гарантирует, что оптимальное решение когда-либо будет найдено.

Алгоритм

Базовый вариант алгоритма PSO работает за счет наличия популяции (называемой рой) решений-кандидатов (называемых частицами). Эти частицы перемещаются в пространстве поиска в соответствии с несколькими простыми формулами. [8] Движения частиц управляются их собственным наиболее известным положением в пространстве поиска, а также наиболее известным положением всего роя. Когда будут обнаружены улучшенные позиции, они начнут направлять движения роя. Процесс повторяется, и при этом есть надежда, но не гарантия, что в конечном итоге будет найдено удовлетворительное решение.

Формально, пусть f : ℝ n  → ℝ — функция стоимости, которую необходимо минимизировать. Функция принимает решение-кандидат в качестве аргумента в форме вектора действительных чисел и выдает на выходе вещественное число, которое указывает значение целевой функции данного решения-кандидата. Градиент f неизвестен . _ Цель состоит в том, чтобы найти решение a , для которого f ( a ) ≤  f ( b ) для всех b в пространстве поиска, что будет означать, что a является глобальным минимумом.

Пусть S — количество частиц в рое, каждая из которых имеет позицию x i  ∈ ℝ n в пространстве поиска и скорость v i  ∈ ℝ n . Пусть p i — наилучшее известное положение частицы i , а g — наилучшее известное положение всего роя. Тогда базовый алгоритм PSO для минимизации функции стоимости: [9]

для каждой частицы i  = 1, ...,  S  do Инициализируйте положение частицы равномерно распределенным случайным вектором: x i  ~  U ( b lob up ) Инициализируйте наилучшую известную позицию частицы как ее начальную позицию: p i  ←  x i  , если  f ( p i ) < f ( g ) , затем обновите наиболее известную позицию роя: g  ←  p i Инициализируйте скорость частицы: v i  ~  U (- | b up - b lo |, | b up - b lo |) пока критерий завершения не соблюден, выполните : для каждой частицы i  = 1, ...,  S  выполните  для каждого измерения d  = 1, ...,  n  do Выберите случайные числа: r p , r g ~ U (0,1) Обновите скорость частицы: vi ,d  ← w v i,d + φ p  r p ( p i,d - x i,d ) + φ g  r g ( g d - x i,d ) Обновите положение частицы: x i  ←  x i + v i  if  f ( x i ) < f ( p i ) then Обновите наиболее известное положение частицы: p i  ←  x i  if  f ( p i ) < f ( g ) then Обновите наиболее известную позицию роя: g  ←  p i

Значения b lo и b up представляют нижнюю и верхнюю границы пространства поиска соответственно. Параметр w — это инерционный вес. Параметры φ p и φ g часто называют когнитивным коэффициентом и социальным коэффициентом.

Критерием завершения может быть количество выполненных итераций или решение, в котором найдено адекватное значение целевой функции. [10] Параметры w, φ p и φ g выбираются практикующим врачом и контролируют поведение и эффективность метода PSO (ниже).

Выбор параметров

Ландшафт производительности, показывающий, как простой вариант PSO работает в совокупности при решении нескольких эталонных задач при изменении двух параметров PSO.

Выбор параметров PSO может оказать большое влияние на производительность оптимизации. Поэтому выбор параметров PSO, обеспечивающих хорошую производительность, стал предметом многочисленных исследований. [11] [12] [13] [14] [15] [16] [17] [18] [19]

Чтобы предотвратить расхождение («взрыв»), вес инерции должен быть меньше 1. Два других параметра могут быть затем получены с помощью подхода ограничения [16] или свободно выбраны, но анализ предполагает области конвергенции для их ограничения. Типичные значения указаны в формате .

Параметры PSO также можно настроить с помощью другого наложенного оптимизатора, концепции, известной как метаоптимизация , [20] [21] [22] [23] или даже точно настроить во время оптимизации, например, с помощью нечеткой логики. [24] [25]

Параметры также были настроены для различных сценариев оптимизации. [26] [27]

Окрестности и топологии

Топология роя определяет подмножество частиц, с которыми каждая частица может обмениваться информацией. [28] Базовая версия алгоритма использует глобальную топологию в качестве структуры роевой связи. [10] Эта топология позволяет всем частицам взаимодействовать со всеми другими частицами, таким образом, весь рой занимает одно и то же лучшее положение g из одной частицы. Однако этот подход может привести к тому, что рой окажется в ловушке локального минимума, [29] поэтому для управления потоком информации между частицами используются разные топологии. Например, в локальных топологиях частицы обмениваются информацией только с подмножеством частиц. [10] Это подмножество может быть геометрическим [30] – например, « m ближайших частиц» – или, чаще, социальным, т.е. набором частиц, не зависящим ни от какого расстояния. В таких случаях вариант PSO считается лучшим на местном уровне (по сравнению с глобальным лучшим вариантом базового PSO).

Обычно используемая топология роя — это кольцо, в котором у каждой частицы есть только два соседа, но есть и множество других. [10] Топология не обязательно статична. Фактически, поскольку топология связана с разнообразием коммуникаций частиц, [31] были предприняты некоторые усилия по созданию адаптивных топологий (SPSO, [32] APSO, [33] стохастическая звезда, [34] TRIBES, [35] ] Кибер-рой, [36] и C-PSO [37] )

Используя кольцевую топологию, PSO может достичь параллелизма на уровне поколений, что значительно увеличивает скорость эволюции. [38]

Внутренние работы

Существует несколько точек зрения относительно того, почему и как алгоритм PSO может выполнять оптимизацию.

Среди исследователей распространено мнение, что поведение стаи варьируется от исследовательского поведения, то есть поиска в более широкой области поискового пространства, до эксплуататорского поведения, то есть локально-ориентированного поиска с целью приблизиться к (возможно, локальному) поведению. оптимум. Эта школа мысли была распространена с момента создания PSO. [3] [4] [12] [16] Эта школа мысли утверждает, что алгоритм PSO и его параметры должны быть выбраны так, чтобы правильно балансировать между исследованием и эксплуатацией, чтобы избежать преждевременной сходимости к локальному оптимуму , но при этом обеспечить хорошую скорость сходимости к оптимуму . Это убеждение является предшественником многих вариантов PSO, см. ниже.

Другая школа мысли заключается в том, что поведение роя PSO недостаточно изучено с точки зрения того, как оно влияет на реальную производительность оптимизации, особенно для многомерных пространств поиска и задач оптимизации, которые могут быть прерывистыми, зашумленными и меняющимися во времени. Эта школа мысли просто пытается найти алгоритмы и параметры PSO, которые обеспечивают хорошую производительность независимо от того, как поведение стаи можно интерпретировать, например, в отношении разведки и эксплуатации. Такие исследования привели к упрощению алгоритма PSO, см. ниже.

Конвергенция

В отношении PSO слово «конвергенция» обычно относится к двум различным определениям:

Исследована сходимость последовательности решений для ПСО. [15] [16] [17] В результате этого анализа были разработаны рекомендации по выбору параметров PSO, которые, как полагают, вызывают сходимость к точке и предотвращают расхождение частиц роя (частицы не движутся неограниченно и будут сходиться куда-то). Однако анализ подвергся критике со стороны Педерсена [22] за чрезмерное упрощение, поскольку они предполагают, что рой состоит только из одной частицы, что он не использует стохастические переменные и что точки притяжения, то есть наиболее известное положение частицы p и положение роя, наилучшая известная позиция g , остаются постоянными на протяжении всего процесса оптимизации. Однако было показано [39] , что эти упрощения не влияют на границы, найденные в этих исследованиях для параметра, где рой сходится. В последние годы были предприняты значительные усилия по ослаблению допущений моделирования, используемых при анализе стабильности PSO, [40] при этом самый последний обобщенный результат был применен к многочисленным вариантам PSO и использовалось то, что, как было показано, является минимально необходимыми предположениями моделирования. [41]

Сходимость к локальному оптимуму была проанализирована для PSO в [42] и. [43] Было доказано, что PSO нуждается в некоторой модификации, чтобы гарантировать нахождение локального оптимума.

Это означает, что определение возможностей сходимости различных алгоритмов и параметров PSO по-прежнему зависит от эмпирических результатов. Одной из попыток решения этой проблемы является разработка стратегии «ортогонального обучения» для улучшения использования информации, уже существующей во взаимосвязи между p и g , чтобы сформировать ведущий сходящийся образец и быть эффективным с любой топологией PSO. Цель состоит в том, чтобы улучшить производительность PSO в целом, включая более быструю глобальную конвергенцию, более высокое качество решений и более высокую надежность. [44] Однако такие исследования не предоставляют теоретических доказательств, подтверждающих их утверждения.

Адаптивные механизмы

Без необходимости компромисса между конвергенцией («эксплуатацией») и дивергенцией («исследованием») можно ввести адаптивный механизм. Адаптивная роевая оптимизация частиц (APSO) [45] обеспечивает более высокую эффективность поиска, чем стандартная PSO. APSO может выполнять глобальный поиск по всему пространству поиска с более высокой скоростью сходимости. Это позволяет автоматически контролировать инерционный вес, коэффициенты ускорения и другие алгоритмические параметры во время выполнения, тем самым одновременно повышая эффективность и результативность поиска. Кроме того, APSO может воздействовать на лучшую в глобальном масштабе частицу, чтобы выпрыгнуть из вероятного локального оптимума. Однако APSO представит новые параметры алгоритма, тем не менее, он не вносит дополнительной сложности в проектирование или реализацию.

Кроме того, благодаря использованию механизма оценки пригодности, адаптируемого к масштабу, PSO может эффективно решать вычислительно затратные задачи оптимизации. [46]

Варианты

Возможны многочисленные варианты даже базового алгоритма PSO. Например, существуют разные способы инициализации частиц и скоростей (например, начать с нулевых скоростей), как уменьшить скорость, обновить значения pi и g только после обновления всего роя и т. д. Некоторые из этих вариантов и их Возможное влияние на производительность обсуждалось в литературе. [14]

Ведущими исследователями была создана серия стандартных реализаций, «предназначенных для использования как в качестве основы для тестирования производительности усовершенствований метода, так и для представления PSO более широкому сообществу специалистов по оптимизации. Имея хорошо известные, строго определенные Стандартный алгоритм обеспечивает ценную точку сравнения, которую можно использовать во всех областях исследований для более эффективного тестирования новых достижений». [10] Последней версией является Стандарт ПСО 2011 (СПСО-2011). [47]

Гибридизация

Новые и более сложные варианты PSO также постоянно вводятся в попытке улучшить производительность оптимизации. В этих исследованиях есть определенные тенденции; один из них — создать гибридный метод оптимизации с использованием PSO в сочетании с другими оптимизаторами, [48] [49] [50] , например, комбинированный PSO с оптимизацией на основе биогеографии, [51] и внедрение эффективного метода обучения. [44]

Устранение преждевременной конвергенции

Другая исследовательская тенденция состоит в том, чтобы попытаться облегчить преждевременную сходимость (то есть стагнацию оптимизации), например, обращая вспять или возмущая движение частиц PSO. [19] [52] [53] [54] Другой подход к борьбе с преждевременной сходимостью — использование нескольких роев [55] ( многороевая оптимизация ). Многороевой подход также можно использовать для реализации многоцелевой оптимизации. [56] Наконец, есть разработки в области адаптации поведенческих параметров PSO во время оптимизации. [45] [24]

Упрощения

Другая точка зрения состоит в том, что PSO следует максимально упростить, не ухудшив при этом его эффективность; общая концепция, которую часто называют бритвой Оккама . Упрощение PSO было первоначально предложено Кеннеди [4] и изучалось более подробно [18] [21] [22] [57] , где оказалось, что производительность оптимизации улучшилась, параметры стало легче настраивать и они работали более последовательно. различных задач оптимизации.

Еще один аргумент в пользу упрощения PSO заключается в том, что эффективность метаэвристики можно продемонстрировать только эмпирически , проводя вычислительные эксперименты над конечным числом задач оптимизации. Это означает, что метаэвристика, такая как PSO, не может быть доказана корректной , и это увеличивает риск ошибок в ее описании и реализации. Хороший пример этого [58] представил многообещающий вариант генетического алгоритма (еще одна популярная метаэвристика), но позже он оказался дефектным, поскольку при поиске оптимизации он сильно смещался в сторону одинаковых значений для разных измерений в пространстве поиска, что оказалось оптимальным из рассматриваемых эталонных задач. Это смещение произошло из-за ошибки программирования и теперь исправлено. [59]

Инициализация скоростей может потребовать дополнительных входных данных. Вариант Bare Bones PSO [60] был предложен в 2003 году Джеймсом Кеннеди и вообще не требует использования скорости.

Другим более простым вариантом является оптимизация роя ускоренных частиц (APSO) [61] , которая также не требует использования скорости и может ускорить сходимость во многих приложениях. Доступен простой демонстрационный код APSO. [62]

Многокритериальная оптимизация

PSO также применялся к многокритериальным задачам , [63] [64] [65] , в которых сравнение целевой функции учитывает доминирование Парето при движении частиц PSO, а недоминируемые решения сохраняются так, чтобы аппроксимировать фронт Парето. .

Бинарный, дискретный и комбинаторный

Поскольку приведенные выше уравнения PSO работают с действительными числами, обычно используемый метод решения дискретных задач состоит в отображении дискретного пространства поиска в непрерывную область, применении классического PSO, а затем обратном отображении результата. Такое сопоставление может быть очень простым (например, с использованием округленных значений) или более сложным. [66]

Однако можно отметить, что в уравнениях движения используются операторы, выполняющие четыре действия:

Обычно положение и скорость представляются n действительными числами, и эти операторы — это просто -, *, + и снова +. Но все эти математические объекты можно определить совершенно по-другому, чтобы справиться с бинарными задачами (или, в более общем случае, дискретными) или даже комбинаторными задачами. [67] [68] [69] [70] Один из подходов заключается в переопределении операторов на основе множеств. [71]

Смотрите также

Рекомендации

  1. ^ Аб Боньяди, MR; Михалевич, З. (2017). «Оптимизация роя частиц для решения одноцелевых задач в непрерывном пространстве: обзор». Эволюционные вычисления . 25 (1): 1–54. дои : 10.1162/EVCO_r_00180. PMID  26953883. S2CID  8783143.
  2. ^ Кеннеди, Дж.; Эберхарт, Р. (1995). «Оптимизация роя частиц». Материалы Международной конференции IEEE по нейронным сетям . Том. IV. стр. 1942–1948. doi : 10.1109/ICNN.1995.488968.
  3. ^ Аб Ши, Ю.; Эберхарт, Р.К. (1998). «Модифицированный оптимизатор роя частиц». Материалы Международной конференции IEEE по эволюционным вычислениям . стр. 69–73. doi : 10.1109/ICEC.1998.699146.
  4. ^ abc Кеннеди, Дж. (1997). «Рой частиц: социальная адаптация знаний». Материалы Международной конференции IEEE по эволюционным вычислениям . стр. 303–308. дои : 10.1109/ICEC.1997.592326.
  5. ^ Кеннеди, Дж.; Эберхарт, Р.К. (2001). Роевой интеллект . Морган Кауфманн. ISBN 978-1-55860-595-4.
  6. ^ Поли, Р. (2007). «Анализ публикаций по приложениям оптимизации роя частиц» (PDF) . Технический отчет CSM-469 . Архивировано из оригинала (PDF) 16 июля 2011 г. Проверено 3 мая 2010 г.
  7. ^ Поли, Р. (2008). «Анализ публикаций по применению оптимизации роя частиц» (PDF) . Журнал искусственной эволюции и приложений . 2008 : 1–10. дои : 10.1155/2008/685175 .
  8. ^ Чжан, Ю. (2015). «Комплексный обзор алгоритма оптимизации роя частиц и его приложений». Математические проблемы в технике . 2015 : 931256.
  9. ^ Клерк, М. (2012). «Стандартная оптимизация роя частиц» (PDF) . Архив открытого доступа HAL .
  10. ^ abcde Браттон, Дэниел; Кеннеди, Джеймс (2007). «Определение стандарта для оптимизации роя частиц». Симпозиум IEEE Swarm Intelligence, 2007 г. (PDF) . стр. 120–127. дои : 10.1109/SIS.2007.368035. ISBN 978-1-4244-0708-8. S2CID  6217309.
  11. ^ Тахерхани, М.; Сафабахш, Р. (2016). «Новый адаптивный инерционный вес, основанный на стабильности, для оптимизации роя частиц». Прикладные мягкие вычисления . 38 : 281–295. doi :10.1016/j.asoc.2015.10.004.
  12. ^ Аб Ши, Ю.; Эберхарт, Р.К. (1998). «Выбор параметров при оптимизации роя частиц». Труды по эволюционному программированию VII (EP98) . стр. 591–600.
  13. ^ Эберхарт, RC; Ши, Ю. (2000). «Сравнение весов инерции и коэффициентов сжатия при оптимизации роя частиц». Труды Конгресса по эволюционным вычислениям . Том. 1. С. 84–88.
  14. ^ аб Карлайл, А.; Дозье, Г. (2001). «Готовый PSO» (PDF) . Материалы семинара по оптимизации роя частиц . стр. 1–6. Архивировано из оригинала (PDF) 3 мая 2003 г.
  15. ^ Аб ван ден Берг, Ф. (2001). Анализ оптимизаторов роя частиц (PDF) (кандидатская диссертация). Университет Претории, факультет естественных и сельскохозяйственных наук.
  16. ^ abcd Клерк, М.; Кеннеди, Дж. (2002). «Рой частиц - взрыв, устойчивость и сближение в многомерном сложном пространстве». Транзакции IEEE в эволюционных вычислениях . 6 (1): 58–73. CiteSeerX 10.1.1.460.6608 . дои : 10.1109/4235.985692. 
  17. ^ аб Трелеа, IC (2003). «Алгоритм оптимизации роя частиц: анализ сходимости и выбор параметров». Письма об обработке информации . 85 (6): 317–325. дои : 10.1016/S0020-0190(02)00447-7.
  18. ^ Аб Брэттон, Д.; Блэквелл, Т. (2008). «Упрощенный рекомбинантный PSO» (PDF) . Журнал искусственной эволюции и приложений . 2008 : 1–10. дои : 10.1155/2008/654184 .
  19. ^ аб Эверс, Г. (2009). Механизм автоматической перегруппировки для борьбы с застоем при оптимизации роя частиц. Техасский университет – Панамериканский, факультет электротехники. Архивировано из оригинала (магистерская диссертация) 18 мая 2011 г. Проверено 5 мая 2010 г.
  20. ^ Мейснер, М.; Шмукер, М.; Шнайдер, Г. (2006). «Оптимизированная оптимизация роя частиц (OPSO) и ее применение для обучения искусственных нейронных сетей». БМК Биоинформатика . 7 (1): 125. дои : 10.1186/1471-2105-7-125 . ПМЦ 1464136 . ПМИД  16529661. 
  21. ^ Аб Педерсен, MEH (2010). Настройка и упрощение эвристической оптимизации (PDF) . Университет Саутгемптона, Школа инженерных наук, Группа вычислительной инженерии и дизайна. S2CID  107805461. Архивировано из оригинала (кандидатская диссертация) 13 февраля 2020 г.
  22. ^ abc Педерсен, MEH; Чипперфилд, Эй Джей (2010). «Упрощение оптимизации роя частиц». Прикладные мягкие вычисления . 10 (2): 618–628. CiteSeerX 10.1.1.149.8300 . дои : 10.1016/j.asoc.2009.08.029. 
  23. ^ Мейсон, Карл; Дагган, Джим; Хаули, Энда (2018). «Метаоптимизационный анализ уравнений обновления скорости оптимизации роя частиц для обучения управлению водоразделом». Прикладные мягкие вычисления . 62 : 148–161. doi :10.1016/j.asoc.2017.10.018.
  24. ^ аб Нобиле, М.С.; Каццанига, П.; Безоцци, Д.; Коломбо, Р.; Маури, Г.; Паси, Г. (2018). «Нечеткая самонастройка PSO: алгоритм глобальной оптимизации без настроек». Рой и эволюционные вычисления . 39 : 70–85. doi :10.1016/j.swevo.2017.09.001. hdl : 10446/106467 .
  25. ^ Нобиле, М.С.; Паси, Г.; Каццанига, П.; Безоцци, Д.; Коломбо, Р.; Маури, Г. (2015). «Проактивные частицы в роевой оптимизации: алгоритм самонастройки, основанный на нечеткой логике». Материалы Международной конференции IEEE по нечетким системам 2015 г. (FUZZ-IEEE 2015), Стамбул (Турция) . стр. 1–8. doi : 10.1109/FUZZ-IEEE.2015.7337957.
  26. ^ Каззанига, П.; Нобиле, Миссисипи; Безоцци, Д. (2015). «Влияние инициализации частиц в PSO: оценка параметров на примере (Канада)». Материалы конференции IEEE по вычислительному интеллекту в биоинформатике и вычислительной биологии . дои : 10.1109/CIBCB.2015.7300288.
  27. ^ Педерсен, MEH (2010). «Хорошие параметры для оптимизации роя частиц». Технический отчет HL1001 . CiteSeerX 10.1.1.298.4359 . 
  28. ^ Кеннеди, Дж.; Мендес, Р. (2002). «Структура населения и производительность роя частиц». Материалы Конгресса 2002 г. по эволюционным вычислениям. CEC'02 (Кат. № 02TH8600) . Том. 2. С. 1671–1676 т.2. CiteSeerX 10.1.1.114.7988 . дои : 10.1109/CEC.2002.1004493. ISBN  978-0-7803-7282-5. S2CID  14364974.{{cite book}}: CS1 maint: дата и год ( ссылка )
  29. ^ Мендес, Р. (2004). Топологии популяции и их влияние на производительность роя частиц (кандидатская диссертация). Университет Минью.
  30. ^ Сугантан, Поннутурай Н. «Оптимизатор роя частиц с оператором соседства». Эволюционные вычисления, 1999. CEC 99. Материалы Конгресса 1999 года. Том. 3. ИИЭР, 1999.
  31. ^ Оливейра, М.; Пиньейру, Д.; Андраде, Б.; Бастос-Фильо, К.; Менезес, Р. (2016). «Разнообразие коммуникаций в оптимизаторах роя частиц». Роевой интеллект . Конспекты лекций по информатике. Том. 9882. стр. 77–88. дои : 10.1007/978-3-319-44427-7_7. ISBN 978-3-319-44426-0. S2CID  37588745.
  32. ^ Центральный центр роя частиц SPSO
  33. ^ Алмаси, Онтарио и Хубан, Миннесота (2017). Экономичный критерий выбора модели SVM для классификации наборов реальных данных с помощью адаптивного алгоритма на основе совокупности. Нейронные вычисления и приложения, 1-9. https://doi.org/10.1007/s00521-017-2930-y
  34. ^ Миранда В., Кеко Х. и Дуке А. Дж. (2008). Топология стохастической звездной связи в эволюционных роях частиц (EPSO). Международный журнал исследований вычислительного интеллекта (IJCIR), том 4, номер 2, стр. 105–116.
  35. ^ Клерк, М. (2006). Оптимизация роя частиц. ISTE (Международная научно-техническая энциклопедия), 2006 г.
  36. ^ Инь П., Гловер Ф., Лагуна М. и Чжу Дж. (2011). Дополнительный алгоритм кибер-роя. Международный журнал исследований роевого интеллекта (IJSIR), 2 (2), 22–41.
  37. ^ Эльшами, В.; Рашад, Х.; Бахгат, А. (2007). «Оптимизация роя частиц на основе клубов» (PDF) . Симпозиум IEEE Swarm Intelligence 2007 (SIS2007) . Гонолулу, Гавайи. стр. 289–296. Архивировано из оригинала (PDF) 23 октября 2013 г. Проверено 27 апреля 2012 г.
  38. ^ Цзянь-Ю, Ли (2021). «Параллелизм на уровне генерации для эволюционных вычислений: оптимизация роя параллельных частиц на основе конвейера». Транзакции IEEE по кибернетике . 51 (10): 4848-4859. дои : 10.1109/TCYB.2020.3028070.
  39. ^ Клегхорн, Кристофер В. (2014). «Конвергенция роя частиц: стандартизированный анализ и топологическое влияние». Роевой интеллект . Конспекты лекций по информатике. Том. 8667. стр. 134–145. дои : 10.1007/978-3-319-09952-1_12. ISBN 978-3-319-09951-4.
  40. ^ Лю, Q (2015). «Анализ стабильности порядка 2 оптимизации роя частиц». Эволюционные вычисления . 23 (2): 187–216. дои : 10.1162/EVCO_a_00129. PMID  24738856. S2CID  25471827.
  41. ^ Клегхорн, Кристофер В.; Энгельбрехт, Андрис. (2018). «Стабильность роя частиц: теоретическое расширение с использованием предположения о нестагнативном распределении». Роевой интеллект . 12 (1): 1–22. дои : 10.1007/s11721-017-0141-x. hdl : 2263/62934 . S2CID  9778346.
  42. ^ Ван ден Берг, Ф. «Доказательство сходимости оптимизатора роя частиц» (PDF) . Фундамента информатики .
  43. ^ Боньяди, Мохаммад Реза.; Михалевич, З. (2014). «Локально сходящийся алгоритм оптимизации роя частиц, инвариантный к вращению» (PDF) . Роевой интеллект . 8 (3): 159–198. дои : 10.1007/s11721-014-0095-1. S2CID  2261683.
  44. ^ Аб Жан, Ж.; Чжан, Дж.; Ли, Ю; Ши, Ю.Х. (2011). «Оптимизация роя ортогональных обучающихся частиц» (PDF) . Транзакции IEEE в эволюционных вычислениях . 15 (6): 832–847. дои : 10.1109/TEVC.2010.2052054.
  45. ^ Аб Жан, Ж.; Чжан, Дж.; Ли, Ю; Чунг, HS-H. (2009). «Адаптивная оптимизация роя частиц» (PDF) . Транзакции IEEE по системам, человеку и кибернетике . 39 (6): 1362–1381. дои : 10.1109/TSMCB.2009.2015956. PMID  19362911. S2CID  11191625.
  46. ^ Ван, Е-Цюнь; Ли, Цзянь-Ю; Чен, Чунь-Хуа; Чжан, Цзюнь; Чжан, Чжи-Хуэй (сентябрь 2023 г.). «Оптимизация роя частиц на основе адаптивной оценки пригодности для оптимизации гиперпараметров и архитектуры в нейронных сетях и глубоком обучении». Сделки CAAI по разведывательным технологиям . 8 (3): 849-862. дои : 10.1049/cit2.12106 .
  47. ^ Самбрано-Биджарини, М.; Клерк, М.; Рохас, Р. (2013). «Стандартная оптимизация роя частиц 2011 на CEC-2013: основа для будущих улучшений PSO». Конгресс IEEE 2013 по эволюционным вычислениям . Эволюционные вычисления (CEC), Конгресс IEEE 2013 г. стр. 2337–2344. дои : 10.1109/CEC.2013.6557848. ISBN 978-1-4799-0454-9. S2CID  206553432.
  48. ^ Ловбьерг, М.; Кринк, Т. (2002). «Модель жизненного цикла: сочетание оптимизации роя частиц, генетических алгоритмов и альпинистов» (PDF) . Труды по параллельному решению проблем природы VII (PPSN) . стр. 621–630.
  49. ^ Никнам, Т.; Амири, Б. (2010). «Эффективный гибридный подход, основанный на PSO, ACO и k-средних для кластерного анализа». Прикладные мягкие вычисления . 10 (1): 183–197. doi :10.1016/j.asoc.2009.07.001.
  50. ^ Чжан, Вэнь-Цзюнь; Се, Сяо-Фэн (2003). DEPSO: гибридный рой частиц с оператором дифференциальной эволюции. Международная конференция IEEE по системам, человеку и кибернетике (SMCC), Вашингтон, округ Колумбия, США: 3816-3821.
  51. ^ Чжан, Ю.; Ван, С. (2015). «Обнаружение патологического мозга при сканировании магнитно-резонансной томографии с помощью вейвлет-энтропии и гибридизации оптимизации на основе биогеографии и оптимизации роя частиц». Прогресс в исследованиях в области электромагнетизма . 152 : 41–58. дои : 10.2528/pier15040602 .
  52. ^ Ловбьерг, М.; Кринк, Т. (2002). «Расширение оптимизаторов роя частиц с самоорганизованной критичностью» (PDF) . Труды Четвертого Конгресса по эволюционным вычислениям (CEC) . Том. 2. стр. 1588–1593.
  53. ^ Синьчао, З. (2010). «Алгоритм роя возмущенных частиц для численной оптимизации». Прикладные мягкие вычисления . 10 (1): 119–124. doi :10.1016/j.asoc.2009.06.010.
  54. ^ Се, Сяо-Фэн; Чжан, Вэнь-Цзюнь; Ян, Чжи-Лянь (2002). Оптимизация диссипативного роя частиц. Конгресс по эволюционным вычислениям (CEC), Гонолулу, Гавайи, США: 1456–1461.
  55. ^ Чунг, Нью-Джерси; Дин, Х.-М.; Шен, Х.-Б. (2013). «OptiFel: алгоритм оптимизации сармов конвергентных гетерогенных частиц для нечеткого моделирования Такаги-Сугено». Транзакции IEEE в нечетких системах . 22 (4): 919–933. дои : 10.1109/TFUZZ.2013.2278972. S2CID  27974467.
  56. ^ Нобиле, М.; Безоцци, Д.; Каццанига, П.; Маури, Г.; Пескини, Д. (2012). «Метод PSO с несколькими роями на основе графического процессора для оценки параметров в стохастических биологических системах с использованием целевых рядов с дискретным временем». Эволюционные вычисления, машинное обучение и интеллектуальный анализ данных в биоинформатике. Конспекты лекций по информатике . Том. 7264. стр. 74–85. дои : 10.1007/978-3-642-29066-4_7.
  57. ^ Ян, XS (2008). Вдохновленные природой метаэвристические алгоритмы . Лунивер Пресс. ISBN 978-1-905986-10-1.
  58. ^ Ту, З.; Лу, Ю. (2004). «Надежный стохастический генетический алгоритм (StGA) для глобальной числовой оптимизации». Транзакции IEEE в эволюционных вычислениях . 8 (5): 456–470. дои : 10.1109/TEVC.2004.831258. S2CID  22382958.
  59. ^ Ту, З.; Лу, Ю. (2008). «Исправления к «Надежному стохастическому генетическому алгоритму (StGA) для глобальной числовой оптимизации ». Транзакции IEEE по эволюционным вычислениям . 12 (6): 781. doi : 10.1109/TEVC.2008.926734. S2CID  2864886.
  60. ^ Кеннеди, Джеймс (2003). «Рой частиц голых костей». Материалы симпозиума IEEE Swarm Intelligence 2003 г. SIS'03 (Кат. № 03EX706) . стр. 80–87. дои : 10.1109/SIS.2003.1202251. ISBN 0-7803-7914-4. S2CID  37185749.
  61. ^ XS Ян, С. Деб и С. Фонг, Ускоренная оптимизация роя частиц и машина опорных векторов для оптимизации бизнеса и приложений, NDT 2011, Springer CCIS 136, стр. 53-66 (2011).
  62. ^ «Результаты поиска: APSO — обмен файлами — MATLAB Central» .
  63. ^ Парсопулос, К.; Врахатис, М. (2002). «Метод роя частиц в многокритериальных задачах». Материалы симпозиума ACM по прикладным вычислениям (SAC) . стр. 603–607. дои : 10.1145/508791.508907.
  64. ^ Коэльо Коэльо, К.; Салазар Лечуга, М. (2002). «MOPSO: предложение по многоцелевой оптимизации роя частиц». Конгресс по эволюционным вычислениям (CEC'2002) . стр. 1051–1056.
  65. ^ Мейсон, Карл; Дагган, Джим; Хаули, Энда (2017). «Многоцелевое динамическое экономичное распределение выбросов с использованием вариантов оптимизации роя частиц». Нейрокомпьютинг . 270 : 188–197. doi : 10.1016/j.neucom.2017.03.086.
  66. ^ Рой Р., Дехури С. и Чо С.Б. (2012). Новый алгоритм оптимизации роя частиц для задачи многокритериальной комбинаторной оптимизации. «Международный журнал прикладных метаэвристических вычислений (IJAMC)», 2 (4), 41–57.
  67. ^ Кеннеди, Дж. и Эберхарт, Р.К. (1997). Дискретная двоичная версия алгоритма роя частиц, Конференция по системам, человеку и кибернетике, Пискатауэй, Нью-Джерси: Сервисный центр IEEE, стр. 4104-4109.
  68. ^ Клерк, М. (2004). Оптимизация роя дискретных частиц, иллюстрированная задачей коммивояжера, Новые методы оптимизации в технике, Springer, стр. 219-239.
  69. ^ Клерк, М. (2005). Оптимизаторы роя бинарных частиц: набор инструментов, выводы и математические выводы, Открытый архив HAL
  70. ^ Жарбуи, Б.; Дамак, Н.; Сиарри, П.; Ребай, А. (2008). «Комбинаторная оптимизация роя частиц для решения многорежимных задач планирования проектов с ограниченными ресурсами». Прикладная математика и вычислительная техника . 195 : 299–308. дои : 10.1016/j.amc.2007.04.096.
  71. ^ Чен, Вэй-нэн; Чжан, июнь (2010). «Новый метод оптимизации роя частиц на основе наборов для решения задачи дискретной оптимизации». Транзакции IEEE в эволюционных вычислениях . 14 (2): 278–300. CiteSeerX 10.1.1.224.5378 . дои : 10.1109/tevc.2009.2030331. S2CID  17984726. 

Внешние ссылки