Летальное автономное оружие ( LAW ) — это тип автономной военной системы, которая может самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний. LAW также известны как летальные автономные системы оружия ( LAWS ), автономные системы оружия ( AWS ), роботизированное оружие или роботы-убийцы . LAW могут работать в воздухе, на земле, на воде, под водой или в космосе. Автономность систем по состоянию на 2018 год [обновлять]была ограничена в том смысле, что человек отдает окончательную команду на атаку, хотя есть исключения для некоторых «оборонительных» систем.
Термин «автономный» имеет разное значение в разных областях изучения. В плане разработки военного оружия идентификация оружия как автономного не так ясна, как в других областях. [1] Конкретный стандарт, подразумеваемый в концепции автономности, может значительно различаться у разных ученых, стран и организаций.
У разных людей есть много определений того, что представляет собой летальное автономное оружие. Официальная политика Министерства обороны США по автономности в системах оружия определяет автономные системы оружия как «систему оружия, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора». [2] Хизер Рофф, автор юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы оружия как «вооруженные системы оружия, способные обучаться и адаптировать свое «функционирование в ответ на изменяющиеся обстоятельства в среде, в которой [они] развернуты», а также способные самостоятельно принимать решения об стрельбе». [3] Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, приведенными ниже.
Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и судить больше систем вооружения как автономных. Они считают, что любая система вооружения, которая способна выпустить летальную силу без операции, решения или подтверждения человека-руководителя, может считаться автономной. По словам Губруда, система вооружения, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система вооружения не обязательно должна быть способна принимать решения полностью самостоятельно, чтобы называться автономной. Вместо этого ее следует рассматривать как автономную, пока она активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела. [4] [5]
Другие организации, однако, устанавливают стандарт автономной системы оружия на более высоком уровне. Британское министерство обороны определяет автономные системы оружия как «системы, которые способны понимать намерения и направления более высокого уровня. Исходя из этого понимания и восприятия своей среды, такая система способна предпринять соответствующие действия для достижения желаемого состояния. Она способна выбирать курс действий из ряда альтернатив, не завися от человеческого надзора и контроля — хотя такое человеческое взаимодействие с системой все еще может присутствовать. Хотя общая деятельность автономного беспилотного летательного аппарата будет предсказуемой, отдельные действия могут быть нет». [6]
В результате, при составлении договора между государствами требуется общепринятая маркировка того, что именно представляет собой автономное оружие. [7]
Самым старым автоматически срабатывающим летальным оружием является наземная мина , используемая по крайней мере с 1600-х годов, и морские мины , используемые по крайней мере с 1700-х годов. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года , за исключением США, России и большей части Азии и Ближнего Востока.
Некоторые современные примеры LAW — это автоматизированные системы активной защиты «hardkill», такие как системы CIWS с радиолокационным наведением, используемые для защиты кораблей, которые используются с 1970-х годов (например, американская Phalanx CIWS ). Такие системы могут автономно идентифицировать и атаковать приближающиеся ракеты, реактивные снаряды, артиллерийский огонь, самолеты и надводные суда в соответствии с критериями, установленными человеком-оператором. Аналогичные системы существуют для танков, такие как российская Arena , израильская Trophy и немецкая AMAP-ADS . Несколько типов стационарных сторожевых орудий , которые могут стрелять по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможности автономного наведения.
Основная причина отсутствия " человека в петле " в этих системах - необходимость быстрого реагирования. Они обычно использовались для защиты персонала и установок от приближающихся снарядов.
По данным The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, установку мин, противолодочную сенсорную сеть в спорных водах, патрулирование с помощью активного сонара, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] В 2018 году в Обзоре ядерной политики США утверждалось, что Россия разрабатывает «новую межконтинентальную, ядерную, атомную, подводную автономную торпеду» под названием « Статус 6 ». [9]
Российская Федерация активно разрабатывает ракеты с искусственным интеллектом , [10] беспилотные летательные аппараты , [11] беспилотные летательные аппараты , военные роботы и роботы-медики. [12] [13] [14] [15]
Израильский министр Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе размером с муху. [16]
В октябре 2018 года Цзэн И, старший исполнительный директор китайской оборонной компании Norinco , выступил с речью, в которой сказал, что «на будущих полях сражений не будет людей», и что использование смертоносного автономного оружия в войне «неизбежно». [17] В 2019 году министр обороны США Марк Эспер обрушился с критикой на Китай за продажу беспилотников, способных отнимать жизни без человеческого контроля. [18]
В 2019 году британская армия развернула новые беспилотные летательные аппараты и военных роботов. [19]
ВМС США разрабатывают «призрачные» флоты беспилотных кораблей . [20]
В 2020 году беспилотник Kargu 2 выследил и атаковал человеческую цель в Ливии, согласно докладу Группы экспертов Совета Безопасности ООН по Ливии, опубликованному в марте 2021 года. Это, возможно, был первый случай, когда автономный робот-убийца, вооруженный смертоносным оружием, напал на людей. [21] [22]
В мае 2021 года Израиль провел атаку роя боевых беспилотников с искусственным интеллектом в секторе Газа. [23]
С тех пор появились многочисленные сообщения об использовании роев и других автономных систем оружия на полях сражений по всему миру. [24]
Кроме того, DARPA работает над созданием роя из 250 автономных смертоносных дронов, доступных для американских военных. [25]
Три классификации степени человеческого контроля над автономными системами оружия были изложены Бонни Дочерти в отчете Human Rights Watch за 2012 год . [26]
Текущая политика США гласит: «Автономные… системы оружия должны быть спроектированы так, чтобы позволить командирам и операторам осуществлять соответствующие уровни человеческого суждения относительно применения силы». [27] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и поражая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «соответствующим уровням» и другим стандартам, а не то, что такие системы оружия не могут соответствовать этим стандартам и поэтому запрещены. [28] «Полуавтономные» охотники-убийцы, которые автономно идентифицируют и атакуют цели, даже не требуют сертификации. [28] Заместитель министра обороны Роберт О. Уорк заявил в 2016 году, что Министерство обороны «не будет делегировать машине полномочия по принятию смертоносных решений», но, возможно, ему придется пересмотреть это, поскольку «авторитарные режимы» могут это делать. [29] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий беспилотную войну , мог бы «вести постоянные войны по всему миру, и многие из них скрытые, без какой-либо ответственности или демократических дебатов». [30] [31] В США ИИ, связанный с безопасностью, попал в компетенцию Комиссии национальной безопасности по искусственному интеллекту с 2018 года. [32] [33] 31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов для военного ИИ и даются 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые гарантировали бы, что оператор-человек всегда сможет заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как отчет будет реализован. [34]
Стюарт Рассел , профессор компьютерных наук из Калифорнийского университета в Беркли, заявил, что его беспокоит LAW, поскольку он считает, что это неэтично и бесчеловечно. Основная проблема этой системы в том, что сложно отличить комбатантов от некомбатантов. [35]
Некоторые экономисты [36] и правоведы выражают обеспокоенность по поводу того, будут ли ЗАКОНЫ нарушать международное гуманитарное право , особенно принцип различия, который требует возможности отличать комбатантов от некомбатантов, и принцип пропорциональности , который требует, чтобы ущерб гражданским лицам был пропорционален военной цели. [37] Эта обеспокоенность часто приводится в качестве причины для полного запрета «роботов-убийц», но сомнительно, что эта обеспокоенность может быть аргументом против ЗАКОНОВ, которые не нарушают международное гуманитарное право. [38] [39] [40]
В докладе Исследовательской службы Конгресса США за 2021 год говорится, что «не существует никаких внутренних или международных правовых запретов на разработку использования ЛСО», хотя в нем признаются продолжающиеся переговоры в рамках Конвенции ООН о конкретных видах обычного оружия (КНО). [41]
Некоторые утверждают, что законы размывают границы того, кто несет ответственность за конкретное убийство. [42] [36] Философ Роберт Спэрроу утверждает, что автономное оружие несет причинную, но не моральную ответственность, подобно детям-солдатам. В каждом случае он утверждает, что существует риск совершения зверств без соответствующего субъекта, на которого можно возложить ответственность, что нарушает jus in bello . [43] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить регистрацию того, кто отдал какой приказ. [44] Потенциальные нарушения МГП законами по определению применимы только в ситуациях конфликта, которые подразумевают необходимость различать комбатантов и гражданских лиц. Таким образом, любой сценарий конфликта без присутствия гражданских лиц — например, в космосе или в глубоководных морях — не столкнется с препятствиями, создаваемыми МГП. [45]
Возможность LAW вызвала значительные дебаты, особенно о риске появления «роботов-убийц», бродящих по земле — в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots была сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и было подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомским , соучредителем Skype Яаном Таллином и соучредителем Google DeepMind Демисом Хассабисом , среди прочих. [46] [47]
По данным PAX For Peace (одной из организаций-основателей кампании по остановке роботов-убийц), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты будут удалены с поля боя, а общественность будет дистанцирована от участия в войне, предоставляя политикам и другим лицам, принимающим решения, больше свободы в принятии решений о том, когда и как вступать в войну. [48] Они предупреждают, что после развертывания FAW затруднит демократический контроль над войной — о чем также предупреждал автор романа Kill Decision на эту тему и специалист по информационным технологиям Дэниел Суарес : по его словам, это может снова централизовать власть в руках очень немногих, требуя, чтобы на войну шло очень мало людей. [48]
Существуют веб-сайты [ требуется разъяснение ], протестующие против разработки LAW, представляя нежелательные последствия, если исследования по применению искусственного интеллекта для обозначения оружия продолжатся. На этих веб-сайтах новости об этических и правовых вопросах постоянно обновляются, чтобы посетители могли ознакомиться с последними новостями о международных встречах и исследовательскими статьями, касающимися LAW. [49]
Святой Престол неоднократно призывал международное сообщество запретить использование LAW. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил, что «чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать быстро: сейчас самое время не допустить, чтобы LAW стали реальностью завтрашней войны». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отчуждение от человеческого фактора и поставить под вопрос гуманность обществ. [50]
По состоянию на 29 марта 2019 года [обновлять]большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет LAW. [51] Меньшинство правительств, включая правительства Австралии, Израиля, России, Великобритании и США, выступили против запрета. [51] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийство мирных жителей. [52]
В декабре 2022 года голосование Совета попечителей Сан-Франциско за разрешение полицейскому департаменту Сан-Франциско использовать ЗАКОНЫ привлекло внимание всей страны и вызвало протесты. [53] [54] Совет отменил это голосование на последующем заседании. [55]
Третий подход фокусируется на регулировании использования автономных систем оружия вместо запрета. [56] Контроль над военным ИИ-вооружением, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях в сочетании с активным мониторингом и неформальной («Track II») дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [57] [58] [59] [60] В 2021 году Министерство обороны США запросило диалог с Народно-освободительной армией Китая по автономному оружию с поддержкой ИИ, но получило отказ. [61]
В 2023 году состоялся саммит 60 стран по ответственному использованию ИИ в военных целях. [ 62 ]
22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций в поддержку международного обсуждения проблем, связанных с LAW. Голосование было следующим: 152 «за», 4 «против» и 11 воздержавшихся. [63]