stringtranslate.com

Оптимизация роя частиц

Рой частиц ищет глобальный минимум функции

В вычислительной науке оптимизация роя частиц ( PSO ) [1] — это вычислительный метод, который оптимизирует задачу, итеративно пытаясь улучшить решение-кандидат с учетом заданной меры качества. Он решает задачу, имея популяцию решений-кандидатов, здесь называемых частицами , и перемещая эти частицы в пространстве поиска в соответствии с простыми математическими формулами относительно положения и скорости частицы . Движение каждой частицы зависит от ее локального лучшего известного положения, но также направляется к лучшим известным положениям в пространстве поиска, которые обновляются по мере нахождения лучших положений другими частицами. Ожидается, что это переместит рой к лучшим решениям.

Первоначально PSO приписывается Кеннеди , Эберхарту и Ши [2] [3] и изначально предназначался для моделирования социального поведения [ 4] как стилизованное представление движения организмов в стае птиц или косяке рыб . Алгоритм был упрощен, и было замечено, что он выполняет оптимизацию. В книге Кеннеди и Эберхарта [5] описываются многие философские аспекты PSO и роевого интеллекта . Обширный обзор приложений PSO сделан Поли [6] [7] В 2017 году всесторонний обзор теоретических и экспериментальных работ по PSO был опубликован Боньяди и Михалевичем [1] .

PSO является метаэвристикой, поскольку она делает мало или вообще не делает предположений об оптимизируемой задаче и может искать очень большие пространства возможных решений. Кроме того, PSO не использует градиент оптимизируемой задачи, что означает, что PSO не требует, чтобы задача оптимизации была дифференцируемой , как того требуют классические методы оптимизации, такие как градиентный спуск и квазиньютоновские методы . Однако метаэвристики, такие как PSO, не гарантируют, что оптимальное решение когда-либо будет найдено.

Алгоритм

Базовый вариант алгоритма PSO работает, имея популяцию (называемую роем) потенциальных решений (называемых частицами). Эти частицы перемещаются в пространстве поиска в соответствии с несколькими простыми формулами. [8] Движения частиц направляются их собственной наиболее известной позицией в пространстве поиска, а также наиболее известной позицией всего роя. Когда обнаруживаются улучшенные позиции, они затем начинают направлять движения роя. Процесс повторяется, и при этом есть надежда, но не гарантия, что в конечном итоге будет обнаружено удовлетворительное решение.

Формально, пусть f : ℝ n  → ℝ будет функцией стоимости, которая должна быть минимизирована. Функция принимает в качестве аргумента возможное решение в виде вектора действительных чисел и выдает действительное число в качестве выходных данных, которое указывает значение целевой функции данного возможного решения. Градиент f неизвестен . Цель состоит в том, чтобы найти решение a, для которого f ( a ) ≤  f ( b ) для всех b в пространстве поиска, что будет означать, что a является глобальным минимумом.

Пусть S будет числом частиц в рое, каждая из которых имеет позицию x i  ∈ ℝ n в пространстве поиска и скорость v i  ∈ ℝ n . Пусть p i будет наиболее известной позицией частицы i , а g будет наиболее известной позицией всего роя. Тогда базовый алгоритм PSO для минимизации функции стоимости будет следующим: [9]

для каждой частицы i  = 1, ...,  S  do Инициализируем положение частицы с помощью равномерно распределенного случайного вектора: x i  ~  U ( b lob up ) Инициализируем наиболее известную позицию частицы в ее начальном положении: p i  ←  x i  если  f ( p i ) < f ( g ), то обновляем наиболее известную позицию роя: g  ←  p i Инициализируем скорость частицы: v i  ~  U (-| b up - b lo |, | b up - b lo |) пока не будет выполнен критерий завершения do : для каждой частицы i  = 1, ...,  S  do  для каждого измерения d  = 1, ...,  n  do Выбираем случайные числа: r p , r g ~ U (0,1) Обновить скорость частицы: v i,d  ← w v i,d + φ p  r p ( p i,d - x i,d ) + φ g  r g ( g d - x i,d ) Обновите позицию частицы: x i  ←  x i + v i  если  f ( x i ) < f ( p i ) тогда Обновите наиболее известную позицию частицы: p i  ←  x i  если  f ( p i ) < f ( g ) тогда Обновите наиболее известную позицию роя: g  ←  p i

Значения b lo и b up представляют нижнюю и верхнюю границы пространства поиска соответственно. Параметр w — вес инерции. Параметры φ p и φ g часто называют когнитивным коэффициентом и социальным коэффициентом.

Критерием завершения может быть количество выполненных итераций или решение, в котором находится адекватное значение целевой функции. [10] Параметры w, φ p и φ g выбираются практиком и контролируют поведение и эффективность метода PSO (ниже).

Выбор параметров

Пейзаж производительности, демонстрирующий, как простой вариант PSO работает в совокупности при решении нескольких контрольных задач при изменении двух параметров PSO.

Выбор параметров PSO может иметь большое влияние на производительность оптимизации. Выбор параметров PSO, которые обеспечивают хорошую производительность, поэтому был предметом многих исследований. [11] [12] [13] [14] [15] [16] [17] [18] [19]

Для предотвращения расхождения («взрыва») вес инерции должен быть меньше 1. Два других параметра могут быть затем получены благодаря подходу ограничения [16] или выбраны свободно, но анализы предполагают области сходимости для их ограничения. Типичные значения находятся в .

Параметры PSO также можно настроить с помощью другого накладывающегося оптимизатора, концепции, известной как метаоптимизация , [20] [21] [22] [23] или даже точно настроить во время оптимизации, например, с помощью нечеткой логики. [24] [25]

Параметры также были настроены для различных сценариев оптимизации. [26] [27]

Окрестности и топологии

Топология роя определяет подмножество частиц, с которыми каждая частица может обмениваться информацией. [28] Базовая версия алгоритма использует глобальную топологию в качестве структуры коммуникации роя. [10] Эта топология позволяет всем частицам общаться со всеми другими частицами, таким образом, весь рой разделяет одну и ту же лучшую позицию g от одной частицы. Однако этот подход может привести к тому, что рой окажется в ловушке локального минимума, [29] поэтому для управления потоком информации между частицами использовались разные топологии. Например, в локальных топологиях частицы обмениваются информацией только с подмножеством частиц. [10] Это подмножество может быть геометрическим [30] — например, « m ближайших частиц» — или, чаще, социальным, т. е. набором частиц, который не зависит от какого-либо расстояния. В таких случаях вариант PSO называется локально лучшим (по сравнению с глобальным лучшим для базового PSO).

Обычно используемая топология роя — это кольцо, в котором у каждой частицы всего два соседа, но есть много других. [10] Топология не обязательно статична. Фактически, поскольку топология связана с разнообразием коммуникации частиц, [31] были предприняты некоторые попытки создания адаптивных топологий (SPSO, [32] APSO, [33] стохастическая звезда, [34] TRIBES, [35] Cyber ​​Swarm, [36] и C-PSO [37] )

Используя кольцевую топологию, PSO может достичь параллелизма на уровне поколений, значительно увеличивая скорость эволюции. [38]

Внутренние работы

Существует несколько точек зрения на то, почему и как алгоритм PSO может выполнять оптимизацию.

Распространенное мнение среди исследователей заключается в том, что поведение роя варьируется между исследовательским поведением, то есть поиском в более широкой области поискового пространства, и эксплуатационным поведением, то есть локально ориентированным поиском, чтобы приблизиться к (возможно, локальному) оптимуму. Эта школа мысли была распространена с момента появления PSO. [3] [4] [12] [16] Эта школа мысли утверждает, что алгоритм PSO и его параметры должны быть выбраны таким образом, чтобы правильно сбалансировать исследование и эксплуатацию, чтобы избежать преждевременной сходимости к локальному оптимуму , но при этом обеспечить хорошую скорость сходимости к оптимуму. Это убеждение является предшественником многих вариантов PSO, см. ниже.

Другая школа мысли заключается в том, что поведение роя PSO не очень хорошо изучено с точки зрения того, как оно влияет на фактическую производительность оптимизации, особенно для многомерных пространств поиска и задач оптимизации, которые могут быть прерывистыми, шумными и меняющимися во времени. Эта школа мысли просто пытается найти алгоритмы и параметры PSO, которые вызывают хорошую производительность независимо от того, как поведение роя можно интерпретировать по отношению, например, к разведке и эксплуатации. Такие исследования привели к упрощению алгоритма PSO, см. ниже.

Конвергенция

В отношении PSO слово «конвергенция» обычно имеет два различных определения:

Сходимость последовательности решений была исследована для PSO. [15] [16] [17] Эти анализы привели к рекомендациям по выбору параметров PSO, которые, как полагают, вызывают сходимость к точке и предотвращают расхождение частиц роя (частицы не движутся неограниченно и будут сходиться куда-то). Однако анализы были раскритикованы Педерсеном [22] за чрезмерное упрощение, поскольку они предполагают, что рой состоит только из одной частицы, что он не использует стохастические переменные и что точки притяжения, то есть наиболее известная позиция частицы p и наиболее известная позиция роя g , остаются постоянными на протяжении всего процесса оптимизации. Однако было показано [39] , что эти упрощения не влияют на границы, найденные этими исследованиями для параметра, где рой сходится. В последние годы были предприняты значительные усилия для ослабления допущений моделирования, используемых при анализе устойчивости PSO, [40] при этом последний обобщенный результат был применен к многочисленным вариантам PSO и использовал то, что, как было показано, является минимальными необходимыми допущениями моделирования. [41]

Сходимость к локальному оптимуму была проанализирована для PSO в [42] и [43] . Было доказано, что PSO нуждается в некоторой модификации, чтобы гарантировать нахождение локального оптимума.

Это означает, что определение возможностей сходимости различных алгоритмов и параметров PSO по-прежнему зависит от эмпирических результатов. Одной из попыток решения этой проблемы является разработка стратегии «ортогонального обучения» для улучшенного использования информации, уже существующей в отношении между p и g , чтобы сформировать ведущий сходящийся образец и быть эффективным с любой топологией PSO. Цель состоит в том, чтобы улучшить производительность PSO в целом, включая более быструю глобальную сходимость, более высокое качество решения и более высокую надежность. [44] Однако такие исследования не предоставляют теоретических доказательств для фактического подтверждения своих утверждений.

Адаптивные механизмы

Без необходимости компромисса между сходимостью («эксплуатацией») и расхождением («исследованием») можно ввести адаптивный механизм. Адаптивная оптимизация роя частиц (APSO) [45] отличается лучшей эффективностью поиска, чем стандартная PSO. APSO может выполнять глобальный поиск по всему поисковому пространству с более высокой скоростью сходимости. Она обеспечивает автоматический контроль веса инерции, коэффициентов ускорения и других алгоритмических параметров во время выполнения, тем самым одновременно повышая эффективность и производительность поиска. Кроме того, APSO может воздействовать на глобально лучшую частицу, чтобы выпрыгнуть из вероятных локальных оптимумов. Однако APSO введет новые параметры алгоритма, тем не менее, она не вносит дополнительной сложности в проектирование или реализацию.

Кроме того, благодаря использованию масштабно-адаптивного механизма оценки пригодности PSO может эффективно решать вычислительно затратные задачи оптимизации. [46]

Варианты

Возможны многочисленные варианты даже базового алгоритма PSO. Например, существуют различные способы инициализации частиц и скоростей (например, начать с нулевых скоростей), как уменьшить скорость, обновлять только p i и g после обновления всего роя и т. д. Некоторые из этих вариантов и их возможное влияние на производительность обсуждались в литературе. [14]

Ведущими исследователями был создан ряд стандартных реализаций, «предназначенных как для использования в качестве основы для тестирования производительности улучшений техники, так и для представления PSO более широкому сообществу оптимизации. Наличие хорошо известного, строго определенного стандартного алгоритма обеспечивает ценную точку сравнения, которая может использоваться во всей области исследований для лучшего тестирования новых достижений». [10] Последним является Standard PSO 2011 (SPSO-2011). [47]

Гибридизация

Новые и более сложные варианты PSO также постоянно вводятся в попытке улучшить производительность оптимизации. В этом исследовании есть определенные тенденции; одна из них заключается в создании гибридного метода оптимизации с использованием PSO в сочетании с другими оптимизаторами, [48] [49] [50] например, объединение PSO с оптимизацией на основе биогеографии, [51] и включение эффективного метода обучения. [44]

Устранение преждевременной конвергенции

Другая тенденция исследования заключается в попытке смягчить преждевременную сходимость (то есть застой оптимизации), например, путем изменения направления или возмущения движения частиц PSO, [19] [52] [53] [54] другой подход к решению проблемы преждевременной сходимости заключается в использовании множественных роев [55] ( многороевая оптимизация ). Многороевой подход также может быть использован для реализации многокритериальной оптимизации. [56] Наконец, существуют разработки в области адаптации поведенческих параметров PSO во время оптимизации. [45] [24]

Упрощения

Другая школа мысли заключается в том, что PSO следует максимально упростить, не ухудшая его производительность; общая концепция, часто называемая бритвой Оккама . Упрощение PSO было первоначально предложено Кеннеди [4] и было изучено более подробно, [18] [21] [22] [57] , где, как оказалось, производительность оптимизации улучшилась, а параметры стало легче настраивать, и они работали более последовательно в различных задачах оптимизации.

Другим аргументом в пользу упрощения PSO является то, что метаэвристики могут иметь свою эффективность только эмпирически, путем проведения вычислительных экспериментов на конечном числе задач оптимизации. Это означает, что метаэвристика, такая как PSO, не может быть доказана правильной , и это увеличивает риск совершения ошибок в ее описании и реализации. Хорошим примером этого [58] был многообещающий вариант генетического алгоритма (еще одна популярная метаэвристика), но позже было обнаружено, что он был дефектным, поскольку он был сильно смещен в своем поиске оптимизации в сторону схожих значений для разных измерений в пространстве поиска, что оказалось оптимумом рассматриваемых эталонных задач. Это смещение было вызвано ошибкой программирования и теперь исправлено. [59]

Голые кости PSO

Инициализация скоростей может потребовать дополнительных входных данных. Вариант Bare Bones PSO [60] был предложен в 2003 году Джеймсом Кеннеди и не нуждается в использовании скорости вообще.

В этом варианте PSO обходятся без скорости частиц и вместо этого обновляют положения частиц, используя следующее простое правило:

где , — позиция и наилучшая позиция частицы ; — наилучшая глобальная позиция; — нормальное распределение со средним значением и стандартным отклонением ; и где означает норму вектора.

Оптимизация ускоренного роя частиц

Другим более простым вариантом является ускоренная оптимизация роя частиц (APSO), [61] которая также не нуждается в использовании скорости и может ускорить сходимость во многих приложениях. Доступен простой демонстрационный код APSO. [62]

В этом варианте PSO обходятся без скорости частицы и ее наилучшего положения. Положение частицы обновляется в соответствии со следующим правилом:

где — случайный равномерно распределенный вектор, — типичная длина рассматриваемой задачи, а и — параметры метода. В качестве уточнения метода можно уменьшать с каждой итерацией, , где — номер итерации, а — параметр управления уменьшением.

Многоцелевая оптимизация

PSO также применяется к многокритериальным задачам [ 63] [64] [65] , в которых сравнение целевых функций учитывает доминирование Парето при перемещении частиц PSO, а недоминируемые решения сохраняются таким образом, чтобы аппроксимировать фронт Парето.

Двоичный, дискретный и комбинаторный

Поскольку уравнения PSO, приведенные выше, работают с действительными числами, обычно используемый метод решения дискретных задач заключается в отображении дискретного пространства поиска в непрерывную область, применении классического PSO, а затем обратном отображении результата. Такое отображение может быть очень простым (например, просто используя округленные значения) или более сложным. [66]

Однако можно отметить, что уравнения движения используют операторы, которые выполняют четыре действия:

Обычно положение и скорость представлены n действительными числами, и эти операторы просто -, *, + и снова +. Но все эти математические объекты можно определить совершенно по-другому, чтобы справиться с бинарными задачами (или, в более общем смысле, дискретными) или даже комбинаторными. [67] [68] [69] [70] Один из подходов заключается в переопределении операторов на основе множеств. [71]

Смотрите также

Ссылки

  1. ^ ab Bonyadi, MR; Michalewicz, Z. (2017). «Оптимизация роя частиц для одноцелевых непрерывных пространственных задач: обзор». Evolutionary Computation . 25 (1): 1–54. doi :10.1162/EVCO_r_00180. PMID  26953883. S2CID  8783143.
  2. ^ Кеннеди, Дж.; Эберхарт, Р. (1995). «Оптимизация роя частиц». Труды Международной конференции IEEE по нейронным сетям . Том IV. С. 1942–1948. doi :10.1109/ICNN.1995.488968.
  3. ^ ab Shi, Y.; Eberhart, RC (1998). «Модифицированный оптимизатор роя частиц». Труды Международной конференции IEEE по эволюционным вычислениям . С. 69–73. doi :10.1109/ICEC.1998.699146.
  4. ^ abc Kennedy, J. (1997). «Рой частиц: социальная адаптация знаний». Труды Международной конференции IEEE по эволюционным вычислениям . С. 303–308. doi :10.1109/ICEC.1997.592326.
  5. ^ Кеннеди, Дж.; Эберхарт, Р. К. (2001). Роевой интеллект . Морган Кауфманн. ISBN 978-1-55860-595-4.
  6. ^ Поли, Р. (2007). "Анализ публикаций по приложениям оптимизации роя частиц" (PDF) . Технический отчет CSM-469 . Архивировано из оригинала (PDF) 2011-07-16 . Получено 2010-05-03 .
  7. ^ Поли, Р. (2008). "Анализ публикаций по приложениям оптимизации роя частиц" (PDF) . Журнал искусственной эволюции и приложений . 2008 : 1–10. doi : 10.1155/2008/685175 .
  8. ^ Чжан, И. (2015). «Комплексный обзор алгоритма оптимизации роя частиц и его приложений». Математические проблемы в инженерии . 2015 : 931256.
  9. ^ Клерк, М. (2012). "Стандартная оптимизация роя частиц" (PDF) . Архив открытого доступа HAL .
  10. ^ abcde Браттон, Дэниел; Кеннеди, Джеймс (2007). «Определение стандарта для оптимизации роя частиц». Симпозиум IEEE Swarm Intelligence 2007 г. (PDF) . стр. 120–127. doi :10.1109/SIS.2007.368035. ISBN 978-1-4244-0708-8. S2CID  6217309.
  11. ^ Тахерхани, М.; Сафабахш, Р. (2016). «Новый адаптивный вес инерции на основе устойчивости для оптимизации роя частиц». Прикладные мягкие вычисления . 38 : 281–295. doi :10.1016/j.asoc.2015.10.004.
  12. ^ ab Ши, Y.; Эберхарт, RC (1998). «Выбор параметров при оптимизации роя частиц». Труды эволюционного программирования VII (EP98) . стр. 591–600.
  13. ^ Эберхарт, RC; Ши, Y. (2000). «Сравнение весов инерции и факторов ограничения при оптимизации роя частиц». Труды Конгресса по эволюционным вычислениям . Том 1. С. 84–88.
  14. ^ ab Carlisle, A.; Dozier, G. (2001). "An Off-The-Shelf PSO" (PDF) . Труды семинара по оптимизации роя частиц . стр. 1–6. Архивировано из оригинала (PDF) 2003-05-03.
  15. ^ ab van den Bergh, F. (2001). Анализ оптимизаторов роя частиц (PDF) (диссертация). Университет Претории, факультет естественных и сельскохозяйственных наук.
  16. ^ abcd Клерк, М.; Кеннеди, Дж. (2002). «Рой частиц — взрыв, устойчивость и сходимость в многомерном комплексном пространстве». Труды IEEE по эволюционным вычислениям . 6 (1): 58–73. CiteSeerX 10.1.1.460.6608 . doi :10.1109/4235.985692. 
  17. ^ ab Trelea, IC (2003). «Алгоритм оптимизации роя частиц: анализ сходимости и выбор параметров». Information Processing Letters . 85 (6): 317–325. doi :10.1016/S0020-0190(02)00447-7.
  18. ^ ab Bratton, D.; Blackwell, T. (2008). "Упрощенный рекомбинантный PSO" (PDF) . Журнал искусственной эволюции и приложений . 2008 : 1–10. doi : 10.1155/2008/654184 .
  19. ^ ab Evers, G. (2009). Автоматический механизм перегруппировки для борьбы со стагнацией при оптимизации роя частиц. Техасский университет - Панамериканский, кафедра электротехники. Архивировано из оригинала (магистерская диссертация) 2011-05-18 . Получено 2010-05-05 .
  20. ^ Мейсснер, М.; Шмукер, М.; Шнайдер, Г. (2006). «Оптимизированная оптимизация роя частиц (OPSO) и ее применение для обучения искусственных нейронных сетей». BMC Bioinformatics . 7 (1): 125. doi : 10.1186/1471-2105-7-125 . PMC 1464136 . PMID  16529661. 
  21. ^ ab Pedersen, MEH (2010). Настройка и упрощение эвристической оптимизации (PDF) . Университет Саутгемптона, Школа инженерных наук, Группа вычислительной инженерии и дизайна. S2CID  107805461. Архивировано из оригинала (диссертация на соискание ученой степени доктора философии) 13.02.2020.
  22. ^ abc Pedersen, MEH; Chipperfield, AJ (2010). «Упрощение оптимизации роя частиц». Applied Soft Computing . 10 (2): 618–628. CiteSeerX 10.1.1.149.8300 . doi :10.1016/j.asoc.2009.08.029. 
  23. ^ Мейсон, Карл; Дагган, Джим; Хоули, Энда (2018). «Анализ метаоптимизации уравнений обновления скорости оптимизации роя частиц для обучения управлению водоразделом». Прикладные мягкие вычисления . 62 : 148–161. doi :10.1016/j.asoc.2017.10.018.
  24. ^ ab Nobile, MS; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G.; Pasi, G. (2018). «Нечеткий самонастраивающийся PSO: алгоритм глобальной оптимизации без настроек». Swarm and Evolutionary Computation . 39 : 70–85. doi :10.1016/j.swevo.2017.09.001. hdl : 10446/106467 .
  25. ^ Nobile, MS; Pasi, G.; Cazzaniga, P.; Besozzi, D.; Colombo, R.; Mauri, G. (2015). «Проактивные частицы в оптимизации роя: самонастраивающийся алгоритм на основе нечеткой логики». Труды Международной конференции IEEE 2015 года по нечетким системам (FUZZ-IEEE 2015), Стамбул (Турция) . стр. 1–8. doi :10.1109/FUZZ-IEEE.2015.7337957.
  26. ^ Cazzaniga, P.; Nobile, MS; Besozzi, D. (2015). «Влияние инициализации частиц в PSO: оценка параметров как пример, (Канада)». Труды конференции IEEE по вычислительному интеллекту в биоинформатике и вычислительной биологии . doi :10.1109/CIBCB.2015.7300288.
  27. ^ Педерсен, MEH (2010). "Хорошие параметры для оптимизации роя частиц". Технический отчет HL1001 . CiteSeerX 10.1.1.298.4359 . 
  28. ^ Кеннеди, Дж.; Мендес, Р. (2002). «Структура популяции и производительность роя частиц». Труды Конгресса по эволюционным вычислениям 2002 года. CEC'02 (Cat. No.02TH8600) . Том 2. стр. 1671–1676 том 2. CiteSeerX 10.1.1.114.7988 . doi :10.1109/CEC.2002.1004493. ISBN  978-0-7803-7282-5. S2CID  14364974.{{cite book}}: CS1 maint: дата и год ( ссылка )
  29. ^ Мендес, Р. (2004). Топологии популяции и их влияние на производительность роя частиц (кандидатская диссертация). Universidade do Minho.
  30. ^ Suganthan, Ponnuthurai N. "Оптимизатор роя частиц с оператором соседства". Evolutionary Computation, 1999. CEC 99. Труды Конгресса 1999 года. Том 3. IEEE, 1999.
  31. ^ Оливейра, М.; Пиньейру, Д.; Андраде, Б.; Бастос-Фильо, К.; Менезес, Р. (2016). «Разнообразие коммуникаций в оптимизаторах роя частиц». Роевой интеллект . Конспекты лекций по информатике. Том. 9882. стр. 77–88. дои : 10.1007/978-3-319-44427-7_7. ISBN 978-3-319-44426-0. S2CID  37588745.
  32. ^ SPSO Particle Swarm Central
  33. ^ Almasi, ON и Khooban, MH (2017). Экономный критерий выбора модели SVM для классификации наборов данных реального мира с помощью адаптивного алгоритма на основе популяции. Neural Computing and Applications, 1-9. https://doi.org/10.1007/s00521-017-2930-y
  34. ^ Миранда, В., Кеко, Х. и Дуке, А. Дж. (2008). Топология стохастической звездной связи в эволюционных роях частиц (EPSO). Международный журнал исследований вычислительного интеллекта (IJCIR), том 4, номер 2, стр. 105-116
  35. ^ Клерк, М. (2006). Оптимизация роя частиц. ISTE (Международная научно-техническая энциклопедия), 2006
  36. ^ Инь, П., Гловер, Ф., Лагуна, М. и Чжу, Дж. (2011). Дополнительный алгоритм кибер-роя. Международный журнал исследований роевого интеллекта (IJSIR), 2(2), 22-41
  37. ^ Elshamy, W.; Rashad, H.; Bahgat, A. (2007). "Clubs-based Particle Swarm Optimization" (PDF) . IEEE Swarm Intelligence Symposium 2007 (SIS2007) . Гонолулу, Гавайи. стр. 289–296. Архивировано из оригинала (PDF) 2013-10-23 . Получено 2012-04-27 .
  38. ^ Цзянь-Ю, Ли (2021). «Параллелизм на уровне поколений для эволюционных вычислений: оптимизация параллельного роя частиц на основе конвейера». Труды IEEE по кибернетике . 51 (10): 4848-4859. doi :10.1109/TCYB.2020.3028070.
  39. ^ Cleghorn, Christopher W (2014). «Сходимость роя частиц: стандартизированный анализ и топологическое влияние». Swarm Intelligence . Lecture Notes in Computer Science. Vol. 8667. pp. 134–145. doi :10.1007/978-3-319-09952-1_12. ISBN 978-3-319-09951-4.
  40. ^ Лю, Q (2015). «Анализ стабильности порядка 2 оптимизации роя частиц». Эволюционные вычисления . 23 (2): 187–216. doi :10.1162/EVCO_a_00129. PMID  24738856. S2CID  25471827.
  41. ^ Cleghorn, Christopher W.; Engelbrecht, Andries. (2018). «Particle Swarm Stability: A Theoretical Extension using the Non-Stagnate Distribution Assumption». Swarm Intelligence . 12 (1): 1–22. doi :10.1007/s11721-017-0141-x. hdl : 2263/62934 . S2CID  9778346.
  42. ^ Ван ден Берг, Ф. "Доказательство сходимости для оптимизатора роя частиц" (PDF) . Fundamenta Informaticae .
  43. ^ Боньяди, Мохаммад Реза.; Михалевич, З. (2014). «Локально сходящийся вращательно-инвариантный алгоритм оптимизации роя частиц» (PDF) . Swarm Intelligence . 8 (3): 159–198. doi :10.1007/s11721-014-0095-1. S2CID  2261683.
  44. ^ ab Zhan, ZH.; Zhang, J.; Li, Y; Shi, YH. (2011). «Оптимизация роя частиц с ортогональным обучением» (PDF) . IEEE Transactions on Evolutionary Computation . 15 (6): 832–847. doi :10.1109/TEVC.2010.2052054.
  45. ^ ab Zhan, ZH.; Zhang, J.; Li, Y; Chung, HS-H. (2009). «Адаптивная оптимизация роя частиц» (PDF) . IEEE Transactions on Systems, Man, and Cybernetics . 39 (6): 1362–1381. doi :10.1109/TSMCB.2009.2015956. PMID  19362911. S2CID  11191625.
  46. ^ Ван, Е-Цюнь; Ли, Цзянь-Ю; Чэнь, Чунь-Хуа; Чжан, Цзюнь; Чжань, Чжи-Хуэй (сентябрь 2023 г.). «Масштабируемая адаптивная оптимизация роя частиц на основе оценки пригодности для оптимизации гиперпараметров и архитектуры в нейронных сетях и глубоком обучении». CAAI Transactions on Intelligence Technology . 8 (3): 849-862. doi : 10.1049/cit2.12106 .
  47. ^ Замбрано-Бигиарини, М.; Клерк, М.; Рохас, Р. (2013). "Стандартная оптимизация роя частиц 2011 на CEC-2013: базовая линия для будущих улучшений PSO". Конгресс IEEE 2013 года по эволюционным вычислениям . Эволюционные вычисления (CEC), Конгресс IEEE 2013 года. стр. 2337–2344. doi :10.1109/CEC.2013.6557848. ISBN 978-1-4799-0454-9. S2CID  206553432.
  48. ^ Ловбьерг, М.; Кринк, Т. (2002). «Модель жизненного цикла: объединение оптимизации роя частиц, генетических алгоритмов и алгоритмов восхождения на холм» (PDF) . Труды конференции «Параллельное решение проблем из природы VII» (PPSN) . стр. 621–630.
  49. ^ Никнам, Т.; Амири, Б. (2010). «Эффективный гибридный подход на основе PSO, ACO и k-средних для кластерного анализа». Applied Soft Computing . 10 (1): 183–197. doi :10.1016/j.asoc.2009.07.001.
  50. ^ Чжан, Вэнь-Джун; Се, Сяо-Фэн (2003). DEPSO: гибридный рой частиц с дифференциальным оператором эволюции. Международная конференция IEEE по системам, человеку и кибернетике (SMCC), Вашингтон, округ Колумбия, США: 3816-3821.
  51. ^ Чжан, И.; Ван, С. (2015). «Обнаружение патологических изменений мозга при магнитно-резонансном сканировании с помощью вейвлет-энтропии и гибридизации оптимизации на основе биогеографии и оптимизации роя частиц». Прогресс в исследованиях электромагнетизма . 152 : 41–58. doi : 10.2528/pier15040602 .
  52. ^ Ловбьерг, М.; Кринк, Т. (2002). «Расширение оптимизаторов роя частиц с самоорганизованной критичностью» (PDF) . Труды Четвертого конгресса по эволюционным вычислениям (CEC) . Том 2. С. 1588–1593.
  53. ^ Xinchao, Z. (2010). «Алгоритм возмущенного роя частиц для численной оптимизации». Applied Soft Computing . 10 (1): 119–124. doi :10.1016/j.asoc.2009.06.010.
  54. ^ Се, Сяо-Фэн; Чжан, Вэнь-Цзюнь; Ян, Чжи-Лянь (2002). Оптимизация диссипативного роя частиц. Конгресс по эволюционным вычислениям (CEC), Гонолулу, Гавайи, США: 1456–1461.
  55. ^ Cheung, NJ; Ding, X.-M.; Shen, H.-B. (2013). "OptiFel: конвергентный гетерогенный алгоритм оптимизации Sarm частиц для нечеткого моделирования Такаги-Сугено". IEEE Transactions on Fuzzy Systems . 22 (4): 919–933. doi :10.1109/TFUZZ.2013.2278972. S2CID  27974467.
  56. ^ Nobile, M.; Besozzi, D.; Cazzaniga, P.; Mauri, G.; Pescini, D. (2012). «Метод многороевого PSO на основе GPU для оценки параметров в стохастических биологических системах, использующих целевые ряды с дискретным временем». Эволюционные вычисления, машинное обучение и интеллектуальный анализ данных в биоинформатике. Конспект лекций по информатике . Том 7264. С. 74–85. doi :10.1007/978-3-642-29066-4_7.
  57. ^ Yang, XS (2008). Метаэвристические алгоритмы, вдохновленные природой . Luniver Press. ISBN 978-1-905986-10-1.
  58. ^ Tu, Z.; Lu, Y. (2004). «Надежный стохастический генетический алгоритм (StGA) для глобальной численной оптимизации». IEEE Transactions on Evolutionary Computation . 8 (5): 456–470. doi :10.1109/TEVC.2004.831258. S2CID  22382958.
  59. ^ Ту, З.; Лу, И. (2008). «Исправления к «Надежному стохастическому генетическому алгоритму (StGA) для глобальной численной оптимизации ». Труды IEEE по эволюционным вычислениям . 12 (6): 781. doi :10.1109/TEVC.2008.926734. S2CID  2864886.
  60. ^ Кеннеди, Джеймс (2003). «Голые кости частиц рои». Труды симпозиума IEEE Swarm Intelligence 2003 года. SIS'03 (Cat. No.03EX706) . стр. 80–87. doi :10.1109/SIS.2003.1202251. ISBN 0-7803-7914-4. S2CID  37185749.
  61. ^ XS Yang, S. Deb и S. Fong, Ускоренная оптимизация роя частиц и машина опорных векторов для оптимизации бизнеса и приложений, NDT 2011, Springer CCIS 136, стр. 53-66 (2011).
  62. ^ «Результаты поиска: APSO - Обмен файлами - MATLAB Central».
  63. ^ Парсопулос, К.; Врахатис, М. (2002). «Метод оптимизации роя частиц в многокритериальных задачах». Труды симпозиума ACM по прикладным вычислениям (SAC) . стр. 603–607. doi :10.1145/508791.508907.
  64. ^ Coello Coello, C.; Salazar Lechuga, M. (2002). «MOPSO: Предложение по оптимизации роя частиц с множественными целями». Конгресс по эволюционным вычислениям (CEC'2002) . стр. 1051–1056.
  65. ^ Мейсон, Карл; Дагган, Джим; Хоули, Энда (2017). «Многоцелевое динамическое распределение экономических выбросов с использованием вариантов оптимизации роя частиц». Нейрокомпьютинг . 270 : 188–197. doi :10.1016/j.neucom.2017.03.086.
  66. ^ Рой, Р., Дехури, С. и Чо, СБ (2012). Новый алгоритм оптимизации роя частиц для многоцелевой комбинаторной задачи оптимизации. «Международный журнал прикладных метаэвристических вычислений (IJAMC)», 2(4), 41-57
  67. ^ Кеннеди, Дж. и Эберхарт, Р. К. (1997). Дискретная двоичная версия алгоритма роя частиц, Конференция по системам, человеку и кибернетике, Пискатауэй, Нью-Джерси: IEEE Service Center, стр. 4104-4109
  68. ^ Клерк, М. (2004). Оптимизация дискретного роя частиц, проиллюстрированная на примере задачи коммивояжера, Новые методы оптимизации в машиностроении, Springer, стр. 219-239.
  69. ^ Клерк, М. (2005). Двоичные оптимизаторы роя частиц: набор инструментов, выводы и математические идеи, Открытый архив HAL
  70. ^ Jarboui, B.; Damak, N.; Siarry, P.; Rebai, A. (2008). «Комбинаторная оптимизация роя частиц для решения многорежимных задач планирования проектов с ограниченными ресурсами». Прикладная математика и вычисления . 195 : 299–308. doi :10.1016/j.amc.2007.04.096.
  71. ^ Чэнь, Вэй-нэн; Чжан, Цзюнь (2010). «Новый метод оптимизации роя частиц на основе множеств для решения задачи дискретной оптимизации». Труды IEEE по эволюционным вычислениям . 14 (2): 278–300. CiteSeerX 10.1.1.224.5378 . doi :10.1109/tevc.2009.2030331. S2CID  17984726. 

Внешние ссылки