stringtranslate.com

Летальное автономное оружие

Сербский тягач Land Rover Defender с гусеничным боевым роботом «Милош»

Летальное автономное оружие ( LAW ) — это тип автономной военной системы, которая может самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний. LAW также известны как смертоносные автономные системы вооружения (LAWS), автономные системы вооружения (AWS), роботизированное оружие или роботы-убийцы . ЗАКОНЫ могут действовать в воздухе, на земле, на воде, под водой или в космосе. Автономность нынешних систем по состоянию на 2018 год была ограничена в том смысле, что последнюю команду на атаку дает человек, хотя есть исключения для некоторых «защитных» систем.

Автономность как оружие

Термин «автономность» имеет разное значение в разных областях обучения. С точки зрения разработки военного оружия идентификация оружия как автономного не так очевидна, как в других областях. [1] Конкретный стандарт, заложенный в концепцию автономии, может сильно различаться в зависимости от ученых, стран и организаций.

У разных людей есть много определений того, что представляет собой смертоносное автономное оружие. Официальная политика Министерства обороны США в отношении автономности систем вооружения определяет автономные системы вооружения как «систему вооружения, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора». [2] Хизер Рофф, автор юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы вооружения как «системы вооруженного оружия, способные обучаться и адаптировать свое функционирование в ответ на меняющиеся обстоятельства в среде, в которой [они] развернуты». », а также способны самостоятельно принимать решения о стрельбе». [3] Это определение автономных систем вооружения является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, представленными ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются снизить порог и считать больше систем вооружения автономными. Они считают, что любая система вооружения, способная высвободить смертоносную силу без вмешательства, решения или подтверждения человека-наблюдателя, может считаться автономной. По мнению Губруда, система вооружения, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система вооружений не обязательно должна быть способна принимать решения самостоятельно, чтобы называться автономной. Вместо этого его следует рассматривать как автономный, пока он активно участвует в одной или нескольких частях «процесса подготовки», от обнаружения цели до окончательного выстрела. [4] [5]

Однако другие организации устанавливают более высокие стандарты автономных систем вооружения. Министерство обороны Великобритании определяет автономные системы вооружения как «системы, которые способны понимать намерения и направления более высокого уровня. Исходя из этого понимания и восприятия окружающей среды, такая система способна предпринимать соответствующие действия для достижения желаемого состояния. способен принимать решения о ходе действий из ряда альтернатив, не полагаясь на надзор и контроль со стороны человека – однако такое взаимодействие человека с системой все еще может присутствовать. действий может и не быть». [6]

В результате состав договора между государствами требует общепринятого определения того, что именно представляет собой автономное оружие. [7]

Автоматические защитные системы

Самым старым смертоносным оружием автоматического срабатывания является наземная мина , используемая, по крайней мере, с 1600-х годов, и морские мины , используемые, по крайней мере, с 1700-х годов. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года , за исключением США, России и большей части стран Азии и Ближнего Востока.

Некоторыми современными примерами LAW являются автоматизированные системы активной защиты «жесткого уничтожения», такие как системы CIWS с радиолокационным наведением, используемые для защиты кораблей, которые используются с 1970-х годов (например, американская Phalanx CIWS ). Такие системы могут автономно идентифицировать и атаковать встречные ракеты, ракеты, артиллерийский огонь, самолеты и надводные корабли в соответствии с критериями, установленными человеком-оператором. Подобные системы существуют и для танков, таких как «Русская Арена» , израильский «Трофи » и немецкий AMAP-ADS . Несколько типов стационарных сторожевых орудий , способных вести огонь по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможности автономного наведения.

Основной причиной отсутствия « человека в курсе » в этих системах является необходимость быстрого реагирования. Обычно они использовались для защиты персонала и объектов от летящих снарядов.

Автономные наступательные системы

По данным The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, постановку мин, противолодочные сенсорные сети в оспариваемых водах, патрулирование с помощью активных гидролокаторов, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] В 2018 году в « Обзоре ядерной политики США » утверждалось, что Россия разрабатывает «новую межконтинентальную подводную автономную торпеду с ядерным вооружением и ядерной установкой» под названием « Статус 6 ». [9]

В РФ активно разрабатываются ракеты с искусственным интеллектом , [10] беспилотники , [11] беспилотные автомобили , военные роботы и роботы-медики. [12] [13] [14] [15]

Министр Израиля Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе размером с муху. [16]

В октябре 2018 года Цзэн И, старший руководитель китайской оборонной фирмы Norinco , выступил с речью, в которой сказал, что «на будущих полях сражений не будет людей, сражающихся», и что использование смертоносного автономного оружия в войне «недопустимо». неизбежный". [17] В 2019 году министр обороны США Марк Эспер раскритиковал Китай за продажу дронов, способных уносить жизни без контроля со стороны человека. [18]

В 2019 году британская армия развернула новые беспилотные автомобили и военных роботов. [19]

ВМС США создают «призрачные» флоты беспилотных кораблей . [20]

Согласно отчету Группы экспертов Совета Безопасности ООН по Ливии, опубликованному в марте 2021 года, в 2020 году дрон Kargu 2 выследил и атаковал человека в Ливии . Возможно, это был первый случай, когда автономный робот-убийца был вооружен с применением смертоносного оружия нападали на людей. [21] [22]

В мае 2021 года Израиль провел атаку группы боевых дронов с искусственным интеллектом в секторе Газа. [23]

С тех пор появились многочисленные сообщения об использовании роев и других автономных систем вооружения на полях сражений по всему миру. [24]

Кроме того, DARPA работает над предоставлением американским военным группы из 250 автономных летальных дронов. [25]

Этические и юридические вопросы

Степень человеческого контроля

Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [26]

Стандарт, используемый в политике США

Текущая политика США гласит: «Автономные… системы вооружения должны быть спроектированы таким образом, чтобы командиры и операторы могли осуществлять соответствующий уровень человеческого суждения о применении силы». [27] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и поражая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «надлежащим уровням» и другим стандартам, а не то, что такие системы оружия не могут соответствовать этим стандартам. стандарты и поэтому запрещены. [28] «Полуавтономные» охотники-убийцы, которые автономно определяют и атакуют цели, даже не требуют сертификации. [28] Заместитель министра обороны Роберт О. Уорк заявил в 2016 году, что министерство обороны «не будет делегировать смертоносные полномочия машине для принятия решений», но, возможно, придется пересмотреть это, поскольку «авторитарные режимы» могут поступать так. [29] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий боевые действия дронов, сможет «вести вечные войны по всему миру, и многие из них тайные, без любая подотчетность или демократические дебаты». [30] [31] В США искусственный интеллект, связанный с безопасностью, с 2018 года находится в ведении Комиссии национальной безопасности по искусственному интеллекту. [32] [33] 31 октября 2019 года Министерство обороны США объявило об оборонных инновациях. Совет опубликовал проект отчета, в котором излагаются пять принципов использования искусственного интеллекта в качестве оружия и даются 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые гарантировали бы, что человек-оператор всегда сможет заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как этот отчет будет реализован. [34]

Возможные нарушения этики и международных актов

Стюарт Рассел , профессор информатики из Калифорнийского университета в Беркли, заявил, что его обеспокоенность по поводу ЗАКОНОВ заключается в том, что, по его мнению, они неэтичны и бесчеловечны. Основная проблема этой системы заключается в том, что трудно отличить комбатантов от некомбатантов. [35]

Некоторые экономисты [36] и ученые-юристы обеспокоены тем, что ЗАКОНЫ нарушат международное гуманитарное право , особенно принцип различия, который требует возможности отличать комбатантов от некомбатантов, и принцип пропорциональности , который требует, чтобы ущерб гражданские лица должны быть пропорциональны военной цели. [37] Эту обеспокоенность часто называют причиной полного запрета «роботов-убийц», но сомнительно, что эта озабоченность может стать аргументом против ЗАКОНОВ, которые не нарушают международное гуманитарное право. [38] [39] [40]

В отчете Исследовательской службы американского Конгресса за 2021 год говорится, что «не существует никаких внутренних или международных юридических запретов на использование ЗАКОНов», хотя в нем признается, что переговоры в рамках Конвенции ООН по конкретным видам обычного оружия (КОО) продолжаются. [41]

Некоторые говорят, что ЗАКОНЫ стирают границы ответственности за конкретное убийство. [42] [36] Философ Роберт Воробей утверждает, что автономное оружие несет причинную, но не моральную ответственность, подобно детям-солдатам. В каждом случае, по его мнению, существует риск совершения злодеяний без соответствующего субъекта, который будет нести ответственность, что нарушает нормы права войны . [43] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить запись того, кто какую команду отдал. [44] Аналогичным образом, Стивен Амбрелло, Эмиль П. Торрес и Анджело Ф. Де Беллис утверждают, что если технические возможности ЗАКОНОВ хотя бы так же точны, как и человеческие солдаты, то, учитывая психологические недостатки людей-солдат на войне, следует использовать только эти типы солдат. следует использовать этические ЗАКОНЫ. Аналогичным образом, они предлагают использовать ценностно-ориентированный подход к разработке в качестве потенциальной основы для разработки этих законов, которые будут соответствовать человеческим ценностям и международному гуманитарному праву . [39] Кроме того, потенциальные нарушения МГП ЗАКОНАМИ – по определению – применимы только в условиях конфликта, который предполагает необходимость проводить различие между комбатантами и гражданскими лицами. Таким образом, любой сценарий конфликта, лишенный присутствия гражданских лиц – то есть в космосе или в глубоком море – не столкнется с препятствиями, создаваемыми МГП. [45]

Кампании по запрету ЗАКОНОВ

Митинг на ступенях мэрии Сан-Франциско в знак протеста против голосования за разрешение полиции использовать смертоносных роботов.
Митинг на ступенях мэрии Сан-Франциско в знак протеста против голосования за разрешение полиции использовать смертоносных роботов.

Возможность существования ЗАКОНОВ вызвала серьезные споры, особенно о риске появления «роботов-убийц», бродящих по земле – в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots сформировалась в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений в области искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомским , соучредителем Skype Яаном Таллинном и соучредителем Google DeepMind. основатель Демис Хассабис и другие. [46] [47]

По мнению PAX For Peace (одной из организаций-учредителей Кампании по прекращению роботов-убийц), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты будут удалены с поля боя, а общественность будет дистанцирована от участия в войне. предоставление политикам и другим лицам, принимающим решения, большего пространства в принятии решений, когда и как начинать войну. [48] ​​Они предупреждают, что после развертывания FAW затруднит демократический контроль над войной - о чем предупреждал автор книги « Решение об убийстве» - романа на эту тему - и специалист по информационным технологиям Дэниел Суарес : ​​по его мнению, это может привести к повторной централизации власти в очень мало рук, требуя, чтобы очень мало людей отправлялись на войну. [48]

Существуют веб-сайты [ необходимы разъяснения ] , протестующие против разработки ЗАКОНОВ, представляя нежелательные последствия, если исследования по использованию искусственного интеллекта для обозначения оружия продолжатся. На этих веб-сайтах новости по этическим и правовым вопросам постоянно обновляются, чтобы посетители могли ознакомиться с последними новостями о международных встречах и исследовательскими статьями, касающимися ЗАКОНОВ. [49]

Святой Престол несколько раз призывал международное сообщество запретить использование ЗАКОНОВ. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил, что «чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, крайне важно действовать быстро: сейчас настало время пришло время не допустить, чтобы ЗАКОНЫ стали реальностью завтрашней войны». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отстранение от человеческой деятельности и поставить под вопрос гуманность общества. [50]

По состоянию на 29 марта 2019 года большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет ЗАКОНОВ. [51] Меньшинство правительств, включая правительства Австралии, Израиля, России, Великобритании и США, выступили против запрета. [51] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийства мирных жителей. [52]

В декабре 2022 года голосование Наблюдательного совета Сан-Франциско за разрешение полицейскому управлению Сан-Франциско использовать ЗАКОНЫ привлекло внимание всей страны и вызвало протесты. [53] [54] Совет отменил это голосование на последующем заседании. [55]

Не запрет, а регулирование

Третий подход направлен на регулирование использования автономных систем вооружения вместо запрета. [56] Военный контроль над вооружениями с использованием искусственного интеллекта, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной («Путь II») дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [57] [58] [59] [60] В 2021 году Министерство обороны США запросило диалог с Народно-освободительной армией Китая по автономному оружию с поддержкой искусственного интеллекта, но получило отказ. [61]

22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций в поддержку международной дискуссии по поводу обеспокоенности по поводу ЗАКОНОВ. Голосовали 152 человека за, четверо против и 11 воздержавшихся. [62]

Смотрите также

Рекомендации

  1. ^ Крутоф, Ребекка (2015). «Роботы-убийцы здесь: юридические и политические последствия». Кардосо Л. Преподобный . 36 : 1837 – через heinonline.org.
  2. Аллен, Грегори (6 июня 2022 г.). «Министерство обороны обновляет свою десятилетнюю политику автономного вооружения, но путаница по-прежнему широко распространена». Центр стратегических и международных исследований . Проверено 24 июля 2022 г.
  3. ^ Рофф, Хизер (2015). «Смертельное автономное оружие и пропорциональность Jus Ad Bellum».
  4. ^ Асаро, Питер (2012). «О запрете автономных систем вооружения: права человека, автоматизация и дегуманизация принятия смертоносных решений». Красный Крест . 687 :94.
  5. ^ «Автономия без тайны: где провести черту?». 1.0 Человек . 09.05.2014. Архивировано из оригинала 16 ноября 2018 г. Проверено 8 июня 2018 г.
  6. ^ «Беспилотные авиационные системы (JDP 0-30.2)» . GOV.UK. _ Проверено 8 июня 2018 г.
  7. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия. Тейлор и Фрэнсис. дои : 10.4324/9781315591070. ISBN 9781317109129. Проверено 8 июня 2018 г.
  8. ^ «Знакомство с военной робототехникой» . Экономист . 25 января 2018 года . Проверено 7 февраля 2018 г.
  9. ^ "США заявляют, что Россия 'разрабатывает' подводную торпеду с ядерным боеголовкой" . CNN . 3 февраля 2018 года . Проверено 7 февраля 2018 г.
  10. ^ "Россия создает ракету, которая может принимать собственные решения" . Newsweek . 20 июля 2017 г.
  11. ^ Литовкин, Николай (31 мая 2017 г.). «Цифровое оружие Судного дня России: Роботы готовятся к войне - Россия за пределами». Россия за пределами .
  12. ^ «'Товарищ по оружию': Россия разрабатывает свободомыслящую военную машину» . 09.08.2017.
  13. ^ «Восстание машин: взгляд на новейших российских боевых роботов». 06.06.2017.
  14. ^ «Терминатор вернулся? Россияне добились больших успехов в области искусственного интеллекта» . Россия за пределами . 10 февраля 2016 г.
  15. ^ "В России разработан виртуальный тренажер для роботов и дронов". 15 мая 2017 года. Архивировано из оригинала 11 октября 2017 года . Проверено 3 сентября 2017 г.
  16. ^ «Кара: Я не раскрывала государственную тайну о роботах». «Джерузалем Пост» .
  17. ^ Аллен, Грегори. «Понимание стратегии Китая в области искусственного интеллекта». Центр новой американской безопасности . Проверено 11 марта 2019 г.
  18. ^ «Экспортирует ли Китай роботов-убийц на Ближний Восток?». Азия Таймс . 28 ноября 2019 года . Проверено 21 декабря 2019 г.
  19. ^ «Британская армия развернет новых роботов в оперативном порядке в 2019 году | Март 2019 года, индустрия новостей армии глобальной безопасности обороны | Армия индустрии новостей глобальной безопасности обороны, 2019 год | Архив новостей года» .
  20. ^ «ВМС США планируют построить беспилотный флот-призрак» .
  21. ^ Хэмблинг, Дэвид. «Дроны, возможно, впервые атаковали людей полностью автономно». Новый учёный . Проверено 30 мая 2021 г.
  22. ^ «Дрон-убийца« выследил человека » без приказа» . Фокс Ньюс . 29 мая 2021 г. Проверено 30 мая 2021 г.
  23. ^ Хэмблинг, Дэвид. «Израиль применил первый в мире рой боевых дронов с искусственным интеллектом при атаках в секторе Газа». Новый учёный . Проверено 15 января 2023 г.
  24. ^ "БОТЫ-БОЙНИ ЗДЕСЬ" .
  25. ^ «Мечта DARPA о крошечной армии роботов близка к тому, чтобы стать реальностью» . декабрь 2020.
  26. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения». армия.мил .
  27. ^ Министерство обороны США (2012). «Директива 3000.09, Автономность систем вооружения» (PDF) . п. 2. Архивировано из оригинала (PDF) 1 декабря 2012 г.
  28. ^ Аб Губруд, Марк (апрель 2015 г.). «Полуавтономные и самостоятельные: роботы-убийцы в пещере Платона». Бюллетень ученых-атомщиков . Архивировано из оригинала 9 мая 2017 г. Проверено 30 октября 2017 г.
  29. Ламот, Дэн (30 марта 2016 г.). «Пентагон изучает угрозу «робота-убийцы»» . Бостон Глобус .
  30. ^ Хаит, Джонатан (3 октября 2016 г.). «Барак Обама о 5 днях, определивших его президентство». Ежедневный разведчик . Проверено 3 января 2017 г.
  31. ^ Деверо, Райан; Эммонс, Алекс (3 октября 2016 г.). «Обама обеспокоен тем, что будущие президенты будут вести бесконечную тайную войну дронов» . Перехват . Проверено 3 января 2017 г.
  32. ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 - 115-й Конгресс (2017–2018 гг.): Закон об искусственном интеллекте Комиссии национальной безопасности 2018 года». www.congress.gov . Проверено 13 марта 2020 г.
  33. ^ Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта». Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN  2078-2489.
  34. ^ США. Совет оборонных инноваций. Принципы искусственного интеллекта: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . ОСЛК  1126650738.
  35. Рассел, Стюарт (27 мая 2015 г.). «Займите позицию в отношении ИИ-оружия». Международный еженедельный научный журнал . 521 .
  36. ^ Аб Койн, Кристофер; Альшами, Яхья А. (3 апреля 2021 г.). «Порочные последствия смертоносных автономных систем вооружения». Обзор мира . 33 (2): 190–198. дои : 10.1080/10402659.2021.1998747. ISSN  1040-2659. S2CID  233764057.
  37. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Неизбежность войны автономных роботов *». Международное обозрение Красного Креста . 94 (886): 787–799. дои : 10.1017/S1816383112000732. ISSN  1816-3831. S2CID  145682587.
  38. ^ Мюллер, Винсент К. (2016). Автономные роботы-убийцы, вероятно, являются хорошей новостью. Эшгейт. стр. 67–81.
  39. ^ ab Umbrello, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (01 марта 2020 г.). «Будущее войны: может ли смертоносное автономное оружие сделать конфликт более этичным?». ИИ и общество . 35 (1): 273–282. дои : 10.1007/s00146-019-00879-x. hdl : 2318/1699364 . ISSN  1435-5655. S2CID  59606353.
  40. ^ Зонт, Стивен; Вуд, Натан Габриэль (20 апреля 2021 г.). «Автономные системы вооружения и контекстуальный характер выведенного из строя статуса». Информация . 12 (5): 216. doi : 10.3390/info12050216 . hdl : 1854/LU-8709449 .
  41. Келли М. Сэйлер (8 июня 2021 г.). Учебник по обороне: новые технологии (PDF) (отчет). Исследовательская служба Конгресса . Проверено 22 июля 2021 г.
  42. ^ Ньягуди, Ньягуди Мусанду (9 декабря 2016 г.). «Докторская диссертация по военной информатике (OpenPhD #openphd): Летальная автономия оружия спроектирована и / или рецессивна». Архивировано из оригинала 07 января 2017 г. Проверено 6 января 2017 г.
  43. ^ ВОРОБЕЙ, РОБЕРТ (2007). «Роботы-убийцы». Журнал прикладной философии . 24 (1): 62–77. дои : 10.1111/j.1468-5930.2007.00346.x. ISSN  0264-3758. JSTOR  24355087. S2CID  239364893.
  44. ^ Симпсон, Томас В.; Мюллер, Винсент К. (2016). «Просто война и убийства роботов». Философский ежеквартальный журнал . 66 (263): 302–22. дои : 10.1093/pq/pqv075 .
  45. ^ Буланин и др., «Ограничения автономии в системах вооружения», SIPRI и ICRC (2020): 37.
  46. ^ Закшевский, Кот (27 июля 2015 г.). «Маск и Хокинг предупреждают об оружии искусственного интеллекта». Блоги WSJ — Цифры . Проверено 28 июля 2015 г.
  47. Гиббс, Сэмюэл (27 июля 2015 г.). «Маск, Возняк и Хокинг призывают запретить боевой искусственный интеллект и автономное оружие». Хранитель . Проверено 28 июля 2015 г.
  48. ^ ab «Смертельные решения — 8 возражений против роботов-убийц» (PDF) . п. 10 . Проверено 2 декабря 2016 г.
  49. ^ "Главная страница" . Запретить летальное автономное оружие . 10.11.2017 . Проверено 9 июня 2018 г.
  50. ^ «Святой Престол возобновляет призыв запретить роботов-убийц» . Католическое информационное агентство . 28 ноября 2018 года . Проверено 30 ноября 2018 г.
  51. ^ аб Гейл, Дэмиен (29 марта 2019 г.). «Великобритания, США и Россия среди тех, кто выступает против запрета роботов-убийц» . Хранитель . Проверено 30 марта 2019 г.
  52. Верхойзер, Нина (27 августа 2018 г.). «Следует ли запретить «роботов-убийц»?». Немецкая волна (ДВ) . Проверено 31 декабря 2021 г.
  53. Сильва, Даниэлла (2 декабря 2022 г.). «Голосование в Сан-Франциско за разрешение полиции использовать смертоносных роботов вызывает беспокойство и возмущение». Новости Эн-Би-Си . Проверено 5 декабря 2022 г.
  54. Холанд, Лена (5 декабря 2022 г.). «Активисты сопротивляются смертоносным роботам полиции Сан-Франциско из-за проблем с законностью». КГО-ТВ . Проверено 5 декабря 2022 г.
  55. Моррис, JD (6 декабря 2022 г.). «SF прекращает полицейскую политику в отношении «роботов-убийц» после огромной негативной реакции — на данный момент». Хроники Сан-Франциско . Проверено 6 декабря 2022 г.
  56. ^ Бенто, Лукас (2017). «Не просто деоданды: ответственность человека при использовании насильственных интеллектуальных систем в соответствии с международным публичным правом». Хранилище стипендий Гарварда . Проверено 14 сентября 2019 г.
  57. ^ Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны ею управлять». Бюллетень ученых-атомщиков . 72 (5): 318–321. Бибкод : 2016BuAtS..72e.318G. дои : 10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  58. ^ Маас, Маттейс М. (06 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия». Современная политика безопасности . 40 (3): 285–311. дои : 10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  59. ^ Экельхоф, Мерель (2019). «Выход за рамки семантики автономного оружия: значимый человеческий контроль в действии». Глобальная политика . 10 (3): 343–348. дои : 10.1111/1758-5899.12665 . ISSN  1758-5899.
  60. ^ Амбрелло, Стивен (05 апреля 2021 г.). «Соединение уровней абстракции в понимании значимого человеческого контроля над автономным оружием: двухуровневый подход». Этика и информационные технологии . 23 (3): 455–464. дои : 10.1007/s10676-021-09588-w . hdl : 2318/1784315 . ISSN  1572-8439.
  61. Аллен, Грегори К. (20 мая 2022 г.). «Одна из ключевых проблем дипломатии в области искусственного интеллекта: военные Китая не хотят говорить». Центр стратегических и международных исследований (CSIS) . Проверено 20 мая 2022 г.
  62. ^ Пандей, Шашанк (4 января 2024 г.). «HRW призывает к заключению международного договора о запрете «роботов-убийц»». Юрист . Проверено 8 января 2024 г.

дальнейшее чтение

  1. ^ Туссен-Штраус, Джош; Ассаф, Али; Пирс, Джозеф; Бакстер, Райан (24 февраля 2023 г.). «Как роботы-убийцы меняют современную войну – видео». хранитель . ISSN  0261-3077 . Проверено 27 февраля 2023 г.