Летальное автономное оружие ( LAW ) — это тип автономной военной системы, которая может самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний. LAW также известны как смертоносные автономные системы вооружения (LAWS), автономные системы вооружения (AWS), роботизированное оружие или роботы-убийцы . ЗАКОНЫ могут действовать в воздухе, на земле, на воде, под водой или в космосе. Автономность нынешних систем по состоянию на 2018 год [обновлять]была ограничена в том смысле, что последнюю команду на атаку дает человек, хотя есть исключения для некоторых «защитных» систем.
Термин «автономность» имеет разное значение в разных областях обучения. С точки зрения разработки военного оружия идентификация оружия как автономного не так очевидна, как в других областях. [1] Конкретный стандарт, заложенный в концепцию автономии, может сильно различаться в зависимости от ученых, стран и организаций.
У разных людей есть много определений того, что представляет собой смертоносное автономное оружие. Официальная политика Министерства обороны США в отношении автономности систем вооружения определяет автономные системы вооружения как «систему вооружения, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора». [2] Хизер Рофф, автор юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы вооружения как «системы вооруженного оружия, способные обучаться и адаптировать свое функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты». », а также способны самостоятельно принимать решения о стрельбе». [3] Это определение автономных систем вооружения является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, представленными ниже.
Такие ученые, как Питер Асаро и Марк Губруд, пытаются снизить порог и считать больше систем вооружения автономными. Они считают, что любая система вооружения, способная высвободить смертоносную силу без вмешательства, решения или подтверждения человека-наблюдателя, может считаться автономной. По мнению Губруда, система вооружения, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система вооружений не обязательно должна быть способна принимать решения самостоятельно, чтобы называться автономной. Вместо этого его следует рассматривать как автономный, пока он активно участвует в одной или нескольких частях «процесса подготовки», от обнаружения цели до окончательного выстрела. [4] [5]
Однако другие организации устанавливают более высокие стандарты автономных систем вооружения. Министерство обороны Великобритании определяет автономные системы вооружения как «системы, которые способны понимать намерения и направления более высокого уровня. Исходя из этого понимания и восприятия окружающей среды, такая система способна предпринимать соответствующие действия для достижения желаемого состояния. способен принимать решения о ходе действий из ряда альтернатив, не полагаясь на надзор и контроль со стороны человека – однако такое взаимодействие человека с системой все еще может присутствовать. действий может и не быть». [6]
В результате состав договора между государствами требует общепринятого определения того, что именно представляет собой автономное оружие. [7]
Самым старым смертоносным оружием автоматического срабатывания является наземная мина , используемая, по крайней мере, с 1600-х годов, и морские мины , используемые, по крайней мере, с 1700-х годов. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года , за исключением США, России и большей части стран Азии и Ближнего Востока.
Некоторыми современными примерами LAW являются автоматизированные системы активной защиты «жесткого уничтожения», такие как системы CIWS с радиолокационным наведением, используемые для защиты кораблей, которые используются с 1970-х годов (например, американская Phalanx CIWS ). Такие системы могут автономно идентифицировать и атаковать встречные ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют и для танков, таких как «Русская Арена» , израильский «Трофи » и немецкий AMAP-ADS . Несколько типов стационарных сторожевых орудий , способных вести огонь по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможности автономного наведения.
Основной причиной отсутствия « человека в курсе » в этих системах является необходимость быстрого реагирования. Обычно они использовались для защиты персонала и объектов от летящих снарядов.
По данным The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, постановку мин, противолодочные сенсорные сети в оспариваемых водах, патрулирование с помощью активных гидролокаторов, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] В 2018 году в « Обзоре ядерной политики США » утверждалось, что Россия разрабатывает «новую межконтинентальную подводную автономную торпеду с ядерным вооружением и ядерной установкой» под названием « Статус 6 ». [9]
В РФ активно разрабатываются ракеты с искусственным интеллектом , [10] беспилотники , [11] беспилотные автомобили , военные роботы и роботы-медики. [12] [13] [14] [15]
Министр Израиля Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе размером с муху. [16]
В октябре 2018 года Цзэн И, старший руководитель китайской оборонной фирмы Norinco , выступил с речью, в которой сказал, что «на будущих полях сражений не будет людей, сражающихся», и что использование смертоносного автономного оружия в войне «недопустимо». неизбежный". [17] В 2019 году министр обороны США Марк Эспер раскритиковал Китай за продажу дронов, способных уносить жизни без контроля со стороны человека. [18]
В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов. [19]
ВМС США создают «призрачные» флоты беспилотных кораблей . [20]
Согласно отчету Группы экспертов Совета Безопасности ООН по Ливии, опубликованному в марте 2021 года, в 2020 году дрон Kargu 2 выследил и атаковал человека в Ливии . Возможно, это был первый случай, когда автономный робот-убийца был вооружен с применением смертоносного оружия нападали на людей. [21] [22]
В мае 2021 года Израиль провел атаку группы боевых дронов с искусственным интеллектом в секторе Газа. [23]
С тех пор появились многочисленные сообщения об использовании роев и других автономных систем вооружения на полях сражений по всему миру. [24]
Кроме того, DARPA работает над предоставлением американским военным группы из 250 автономных летальных дронов. [25]
Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [26]
Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы командиры и операторы могли осуществлять соответствующий уровень человеческого суждения о применении силы». [27] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и поражая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не то, что такие системы оружия не могут соответствовать этим стандартам. стандарты и поэтому запрещены. [28] «Полуавтономные» охотники-убийцы, которые автономно определяют и атакуют цели, даже не требуют сертификации. [28] Заместитель министра обороны Роберт О. Уорк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решений», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут поступать так. [29] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий боевые действия дронов, сможет «вести вечные войны по всему миру, и многие из них тайные, без любая подотчетность или демократические дебаты». [30] [31] В США искусственный интеллект, связанный с безопасностью, с 2018 года находится в ведении Комиссии национальной безопасности по искусственному интеллекту. [32] [33] 31 октября 2019 года Министерство обороны США объявило об оборонных инновациях. Совет опубликовал проект отчета, в котором излагаются пять принципов использования искусственного интеллекта в качестве оружия и даются 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые гарантировали бы, что человек-оператор всегда сможет заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как этот отчет будет реализован. [34]
Стюарт Рассел , профессор информатики из Калифорнийского университета в Беркли, заявил, что его обеспокоенность по поводу ЗАКОНОВ заключается в том, что, по его мнению, они неэтичны и бесчеловечны. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов. [35]
Некоторые экономисты [36] и ученые-юристы обеспокоены тем, что ЗАКОНЫ нарушат международное гуманитарное право , особенно принцип различия, который требует возможности отличать комбатантов от некомбатантов, и принцип пропорциональности , который требует, чтобы ущерб гражданские лица должны быть пропорциональны военной цели. [37] Эту обеспокоенность часто называют причиной полного запрета «роботов-убийц», но сомнительно, что эта озабоченность может стать аргументом против ЗАКОНОВ, которые не нарушают международное гуманитарное право. [38] [39] [40]
В отчете Исследовательской службы американского Конгресса за 2021 год говорится, что «не существует никаких внутренних или международных юридических запретов на использование ЗАКОНов», хотя в нем признается, что переговоры в рамках Конвенции ООН по конкретным видам обычного оружия (КОО) продолжаются. [41]
Некоторые говорят, что ЗАКОНЫ стирают границы ответственности за конкретное убийство. [42] [36] Философ Роберт Воробей утверждает, что автономное оружие несет причинную, но не моральную ответственность, подобно детям-солдатам. В каждом случае, по его мнению, существует риск совершения злодеяний без соответствующего субъекта, который будет нести ответственность, что нарушает нормы права войны . [43] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись того, кто какую команду отдал. [44] Аналогичным образом, Стивен Амбрелло, Эмиль П. Торрес и Анджело Ф. Де Беллис утверждают, что если технические возможности ЗАКОНОВ хотя бы так же точны, как и человеческие солдаты, то, учитывая психологические недостатки людей-солдат на войне, следует использовать только эти типы солдат. следует использовать этические ЗАКОНЫ. Аналогичным образом, они предлагают использовать ценностно-ориентированный подход к разработке в качестве потенциальной основы для разработки этих законов, которые будут соответствовать человеческим ценностям и международному гуманитарному праву . [39] Кроме того, потенциальные нарушения МГП ЗАКОНАМИ – по определению – применимы только в условиях конфликта, который предполагает необходимость проводить различие между комбатантами и гражданскими лицами. Таким образом, любой сценарий конфликта, лишенный присутствия гражданских лиц – то есть в космосе или в глубоком море – не столкнется с препятствиями, создаваемыми МГП. [45]
Возможность существования ЗАКОНОВ вызвала серьезные споры, особенно о риске появления «роботов-убийц», бродящих по земле – в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформировалась в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений в области искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомским , соучредителем Skype Яаном Таллинном и соучредителем Google DeepMind. основатель Демис Хассабис и другие. [46] [47]
По мнению PAX For Peace (одной из организаций-учредителей Кампании по прекращению роботов-убийц), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты будут удалены с поля боя, а общественность будет дистанцирована от участия в войне. предоставление политикам и другим лицам, принимающим решения, большего пространства в принятии решений, когда и как начинать войну. [48] Они предупреждают, что после развертывания FAW затруднит демократический контроль над войной - о чем предупреждал автор книги « Решение об убийстве» - романа на эту тему - и специалист по информационным технологиям Дэниел Суарес : по его мнению, это может привести к повторной централизации власти в очень мало рук, требуя, чтобы очень мало людей отправлялись на войну. [48]
Существуют веб-сайты [ необходимы разъяснения ] , протестующие против разработки ЗАКОНОВ, представляя нежелательные последствия, если исследования по использованию искусственного интеллекта для обозначения оружия продолжатся. На этих веб-сайтах новости по этическим и правовым вопросам постоянно обновляются, чтобы посетители могли ознакомиться с последними новостями о международных встречах и исследовательскими статьями, касающимися ЗАКОНОВ. [49]
Святой Престол несколько раз призывал международное сообщество запретить использование ЗАКОНОВ. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил, что «чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, крайне важно действовать быстро: сейчас настало время пришло время не допустить, чтобы ЗАКОНЫ стали реальностью завтрашней войны». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстранение от человеческой деятельности и поставить под вопрос гуманность общества. [50]
По состоянию на 29 марта 2019 года [обновлять]большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНОВ. [51] Меньшинство правительств, включая правительства Австралии, Израиля, России, Великобритании и США, выступили против запрета. [51] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийства мирных жителей. [52]
В декабре 2022 года голосование Наблюдательного совета Сан-Франциско за разрешение полицейскому управлению Сан-Франциско использовать ЗАКОНЫ привлекло внимание всей страны и вызвало протесты. [53] [54] Совет отменил это голосование на последующем заседании. [55]
Третий подход направлен на регулирование использования автономных систем вооружения вместо запрета. [56] Военный контроль над вооружениями с использованием искусственного интеллекта, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Путь II») дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [57] [58] [59] [60] В 2021 году Министерство обороны США запросило диалог с Народно-освободительной армией Китая по автономному оружию с поддержкой искусственного интеллекта, но получило отказ. [61]
22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций в поддержку международной дискуссии по поводу обеспокоенности по поводу ЗАКОНОВ. Голосовали 152 человека за, четверо против и 11 воздержавшихся. [62]