stringtranslate.com

Смертоносное автономное оружие

Сербский Land Rover Defender тянет прицеп с гусеничным боевым роботом «Милош»

Летальное автономное оружие ( LAW ) — это тип автономной военной системы, которая может самостоятельно искать и поражать цели на основе запрограммированных ограничений и описаний. LAW также известны как летальные автономные системы оружия ( LAWS ), автономные системы оружия ( AWS ), роботизированное оружие или роботы-убийцы . LAW могут работать в воздухе, на земле, на воде, под водой или в космосе. Автономность систем по состоянию на 2018 год была ограничена в том смысле, что человек отдает окончательную команду на атаку, хотя есть исключения для некоторых «оборонительных» систем.

Автономность как оружие

Термин «автономный» имеет разное значение в разных областях изучения. В плане разработки военного оружия идентификация оружия как автономного не так ясна, как в других областях. [1] Конкретный стандарт, подразумеваемый в концепции автономности, может значительно различаться у разных ученых, стран и организаций.

У разных людей есть много определений того, что представляет собой летальное автономное оружие. Официальная политика Министерства обороны США по автономности в системах оружия определяет автономные системы оружия как «систему оружия, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора». [2] Хизер Рофф, автор юридического факультета Университета Кейс Вестерн Резерв , описывает автономные системы оружия как «вооруженные системы оружия, способные обучаться и адаптировать свое «функционирование в ответ на изменяющиеся обстоятельства в среде, в которой [они] развернуты», а также способные самостоятельно принимать решения об стрельбе». [3] Это определение автономных систем оружия является довольно высоким порогом по сравнению с определениями таких ученых, как Питер Асаро и Марк Губруд, приведенными ниже.

Такие ученые, как Питер Асаро и Марк Губруд, пытаются установить более низкий порог и судить больше систем вооружения как автономных. Они считают, что любая система вооружения, которая способна выпустить летальную силу без операции, решения или подтверждения человека-руководителя, может считаться автономной. По словам Губруда, система вооружения, работающая частично или полностью без вмешательства человека, считается автономной. Он утверждает, что система вооружения не обязательно должна быть способна принимать решения полностью самостоятельно, чтобы называться автономной. Вместо этого ее следует рассматривать как автономную, пока она активно участвует в одной или нескольких частях «процесса подготовки», от поиска цели до окончательного выстрела. [4] [5]

Другие организации, однако, устанавливают стандарт автономной системы оружия на более высоком уровне. Британское министерство обороны определяет автономные системы оружия как «системы, которые способны понимать намерения и направления более высокого уровня. Исходя из этого понимания и восприятия своей среды, такая система способна предпринять соответствующие действия для достижения желаемого состояния. Она способна выбирать курс действий из ряда альтернатив, не завися от человеческого надзора и контроля — хотя такое человеческое взаимодействие с системой все еще может присутствовать. Хотя общая деятельность автономного беспилотного летательного аппарата будет предсказуемой, отдельные действия могут быть нет». [6]

В результате, при составлении договора между государствами требуется общепринятая маркировка того, что именно представляет собой автономное оружие. [7]

Автоматические системы защиты

Самым старым автоматически срабатывающим летальным оружием является наземная мина , используемая по крайней мере с 1600-х годов, и морские мины , используемые по крайней мере с 1700-х годов. Противопехотные мины запрещены во многих странах Оттавским договором 1997 года , за исключением США, России и большей части Азии и Ближнего Востока.

Некоторые современные примеры LAW — это автоматизированные системы активной защиты «hardkill», такие как системы CIWS с радиолокационным наведением, используемые для защиты кораблей, которые используются с 1970-х годов (например, американская Phalanx CIWS ). Такие системы могут автономно идентифицировать и атаковать приближающиеся ракеты, реактивные снаряды, артиллерийский огонь, самолеты и надводные суда в соответствии с критериями, установленными человеком-оператором. Аналогичные системы существуют для танков, такие как российская Arena , израильская Trophy и немецкая AMAP-ADS . Несколько типов стационарных сторожевых орудий , которые могут стрелять по людям и транспортным средствам, используются в Южной Корее и Израиле. Многие системы противоракетной обороны , такие как Iron Dome , также имеют возможности автономного наведения.

Основная причина отсутствия " человека в петле " в этих системах - необходимость быстрого реагирования. Они обычно использовались для защиты персонала и установок от приближающихся снарядов.

Автономные наступательные системы

По данным The Economist , по мере развития технологий будущие применения беспилотных подводных аппаратов могут включать разминирование, установку мин, противолодочную сенсорную сеть в спорных водах, патрулирование с помощью активного сонара, пополнение запасов пилотируемых подводных лодок и превращение в недорогие ракетные платформы. [8] В 2018 году в Обзоре ядерной политики США утверждалось, что Россия разрабатывает «новую межконтинентальную, ядерную, атомную, подводную автономную торпеду» под названием « Статус 6 ». [9]

Российская Федерация активно разрабатывает ракеты с искусственным интеллектом , [10] беспилотные летательные аппараты , [11] беспилотные летательные аппараты , военные роботы и роботы-медики. [12] [13] [14] [15]

Израильский министр Аюб Кара заявил в 2017 году, что Израиль разрабатывает военных роботов, в том числе размером с муху. [16]

В октябре 2018 года Цзэн И, старший исполнительный директор китайской оборонной компании Norinco , выступил с речью, в которой сказал, что «на будущих полях сражений не будет людей», и что использование смертоносного автономного оружия в войне «неизбежно». [17] В 2019 году министр обороны США Марк Эспер обрушился с критикой на Китай за продажу беспилотников, способных отнимать жизни без человеческого контроля. [18]

В 2019 году британская армия развернула новые беспилотные летательные аппараты и военных роботов. [19]

ВМС США разрабатывают «призрачные» флоты беспилотных кораблей . [20]

Дрон STM Kargu

В 2020 году беспилотник Kargu 2 выследил и атаковал человеческую цель в Ливии, согласно докладу Группы экспертов Совета Безопасности ООН по Ливии, опубликованному в марте 2021 года. Это, возможно, был первый случай, когда автономный робот-убийца, вооруженный смертоносным оружием, напал на людей. [21] [22]

В мае 2021 года Израиль провел атаку роя боевых беспилотников с искусственным интеллектом в секторе Газа. [23]

С тех пор появились многочисленные сообщения об использовании роев и других автономных систем оружия на полях сражений по всему миру. [24]

Кроме того, DARPA работает над созданием роя из 250 автономных смертоносных дронов, доступных для американских военных. [25]

Этические и правовые вопросы

Степень человеческого контроля

Три классификации степени человеческого контроля над автономными системами оружия были изложены Бонни Дочерти в отчете Human Rights Watch за 2012 год . [26]

Стандарт, используемый в политике США

Текущая политика США гласит: «Автономные… системы оружия должны быть спроектированы так, чтобы позволить командирам и операторам осуществлять соответствующие уровни человеческого суждения относительно применения силы». [27] Однако политика требует, чтобы автономные системы оружия, которые убивают людей или используют кинетическую силу, выбирая и поражая цели без дальнейшего вмешательства человека, были сертифицированы как соответствующие «соответствующим уровням» и другим стандартам, а не то, что такие системы оружия не могут соответствовать этим стандартам и поэтому запрещены. [28] «Полуавтономные» охотники-убийцы, которые автономно идентифицируют и атакуют цели, даже не требуют сертификации. [28] Заместитель министра обороны Роберт О. Уорк заявил в 2016 году, что Министерство обороны «не будет делегировать машине полномочия по принятию смертоносных решений», но, возможно, ему придется пересмотреть это, поскольку «авторитарные режимы» могут это делать. [29] В октябре 2016 года президент Барак Обама заявил, что в начале своей карьеры он опасался будущего, в котором президент США, использующий беспилотную войну , мог бы «вести постоянные войны по всему миру, и многие из них скрытые, без какой-либо ответственности или демократических дебатов». [30] [31] В США ИИ, связанный с безопасностью, попал в компетенцию Комиссии национальной безопасности по искусственному интеллекту с 2018 года. [32] [33] 31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором излагаются пять принципов для военного ИИ и даются 12 рекомендаций по этическому использованию искусственного интеллекта Министерством обороны, которые гарантировали бы, что оператор-человек всегда сможет заглянуть в «черный ящик» и понять процесс цепочки убийств. Основная проблема заключается в том, как отчет будет реализован. [34]

Возможные нарушения этики и международных актов

Стюарт Рассел , профессор компьютерных наук из Калифорнийского университета в Беркли, заявил, что его беспокоит LAW, поскольку он считает, что это неэтично и бесчеловечно. Основная проблема этой системы в том, что сложно отличить комбатантов от некомбатантов. [35]

Некоторые экономисты [36] и правоведы выражают обеспокоенность по поводу того, будут ли ЗАКОНЫ нарушать международное гуманитарное право , особенно принцип различия, который требует возможности отличать комбатантов от некомбатантов, и принцип пропорциональности , который требует, чтобы ущерб гражданским лицам был пропорционален военной цели. [37] Эта обеспокоенность часто приводится в качестве причины для полного запрета «роботов-убийц», но сомнительно, что эта обеспокоенность может быть аргументом против ЗАКОНОВ, которые не нарушают международное гуманитарное право. [38] [39] [40]

В докладе Исследовательской службы Конгресса США за 2021 год говорится, что «не существует никаких внутренних или международных правовых запретов на разработку использования ЛСО», хотя в нем признаются продолжающиеся переговоры в рамках Конвенции ООН о конкретных видах обычного оружия (КНО). [41]

Некоторые утверждают, что законы размывают границы того, кто несет ответственность за конкретное убийство. [42] [36] Философ Роберт Спэрроу утверждает, что автономное оружие несет причинную, но не моральную ответственность, подобно детям-солдатам. В каждом случае он утверждает, что существует риск совершения зверств без соответствующего субъекта, на которого можно возложить ответственность, что нарушает jus in bello . [43] Томас Симпсон и Винсент Мюллер утверждают, что они могут облегчить регистрацию того, кто отдал какой приказ. [44] Потенциальные нарушения МГП законами по определению применимы только в ситуациях конфликта, которые подразумевают необходимость различать комбатантов и гражданских лиц. Таким образом, любой сценарий конфликта без присутствия гражданских лиц — например, в космосе или в глубоководных морях — не столкнется с препятствиями, создаваемыми МГП. [45]

Кампании по запрету ЗАКОНОВ

Митинг на ступенях мэрии Сан-Франциско с протестом против голосования по вопросу о разрешении полиции использовать роботов-убийц.
Митинг на ступенях мэрии Сан-Франциско , протестующий против голосования по разрешению использования полицией роботов-убийц

Возможность LAW вызвала значительные дебаты, особенно о риске появления «роботов-убийц», бродящих по земле — в ближайшем или далеком будущем. Группа Campaign to Stop Killer Robots была сформирована в 2013 году. В июле 2015 года более 1000 экспертов в области искусственного интеллекта подписали письмо, предупреждающее об угрозе гонки вооружений искусственного интеллекта и призывающее к запрету автономного оружия. Письмо было представлено в Буэнос-Айресе на 24-й Международной совместной конференции по искусственному интеллекту (IJCAI-15) и было подписано Стивеном Хокингом , Илоном Маском , Стивом Возняком , Ноамом Хомским , соучредителем Skype Яаном Таллином и соучредителем Google DeepMind Демисом Хассабисом , среди прочих. [46] [47]

По данным PAX For Peace (одной из организаций-основателей кампании по остановке роботов-убийц), полностью автоматизированное оружие (FAW) снизит порог вступления в войну, поскольку солдаты будут удалены с поля боя, а общественность будет дистанцирована от участия в войне, предоставляя политикам и другим лицам, принимающим решения, больше свободы в принятии решений о том, когда и как вступать в войну. [48] Они предупреждают, что после развертывания FAW затруднит демократический контроль над войной — о чем также предупреждал автор романа Kill Decision на эту тему и специалист по информационным технологиям Дэниел Суарес : ​​по его словам, это может снова централизовать власть в руках очень немногих, требуя, чтобы на войну шло очень мало людей. [48]

Существуют веб-сайты [ требуется разъяснение ], протестующие против разработки LAW, представляя нежелательные последствия, если исследования по применению искусственного интеллекта для обозначения оружия продолжатся. На этих веб-сайтах новости об этических и правовых вопросах постоянно обновляются, чтобы посетители могли ознакомиться с последними новостями о международных встречах и исследовательскими статьями, касающимися LAW. [49]

Святой Престол неоднократно призывал международное сообщество запретить использование LAW. В ноябре 2018 года архиепископ Иван Юркович , постоянный наблюдатель Святого Престола при Организации Объединенных Наций, заявил, что «чтобы предотвратить гонку вооружений и рост неравенства и нестабильности, необходимо действовать быстро: сейчас самое время не допустить, чтобы LAW стали реальностью завтрашней войны». Церковь обеспокоена тем, что эти системы вооружений способны необратимо изменить характер войны, создать отчуждение от человеческого фактора и поставить под вопрос гуманность обществ. [50]

По состоянию на 29 марта 2019 года большинство правительств, представленных на заседании ООН для обсуждения этого вопроса, высказались за запрет LAW. [51] Меньшинство правительств, включая правительства Австралии, Израиля, России, Великобритании и США, выступили против запрета. [51] Соединенные Штаты заявили, что автономное оружие помогло предотвратить убийство мирных жителей. [52]

В декабре 2022 года голосование Совета попечителей Сан-Франциско за разрешение полицейскому департаменту Сан-Франциско использовать ЗАКОНЫ привлекло внимание всей страны и вызвало протесты. [53] [54] Совет отменил это голосование на последующем заседании. [55]

Нет запрета, но есть регулирование

Третий подход фокусируется на регулировании использования автономных систем оружия вместо запрета. [56] Контроль над военным ИИ-вооружением, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях в сочетании с активным мониторингом и неформальной («Track II») дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [57] [58] [59] [60] В 2021 году Министерство обороны США запросило диалог с Народно-освободительной армией Китая по автономному оружию с поддержкой ИИ, но получило отказ. [61]

В 2023 году состоялся саммит 60 стран по ответственному использованию ИИ в военных целях. [ 62 ]

22 декабря 2023 года была принята резолюция Генеральной Ассамблеи Организации Объединенных Наций в поддержку международного обсуждения проблем, связанных с LAW. Голосование было следующим: 152 «за», 4 «против» и 11 воздержавшихся. [63]

Смотрите также

Ссылки

  1. ^ Крутоф, Ребекка (2015). «Роботы-убийцы уже здесь: правовые и политические последствия». Cardozo L. Rev. 36 : 1837 – через heinonline.org.
  2. ^ Аллен, Грегори (6 июня 2022 г.). «DOD Is Updating Its Decade-Old Autonomous Weapons Policy, but Confusion Remains Stay Widespread» (Министерство обороны США обновляет свою десятилетнюю политику в области автономного оружия, но путаница остается широко распространенной). Центр стратегических и международных исследований . Получено 24 июля 2022 г.
  3. ^ Рофф, Хизер (2015). «Смертоносное автономное оружие и пропорциональность Jus Ad Bellum».
  4. ^ Асаро, Питер (2012). «О запрете автономных систем оружия: права человека, автоматизация и дегуманизация принятия смертоносных решений». Красный Крест . 687 : 94.
  5. ^ «Автономия без тайны: где провести черту?». 1.0 Human . 2014-05-09. Архивировано из оригинала 2018-11-16 . Получено 2018-06-08 .
  6. ^ "Беспилотные авиационные системы (JDP 0-30.2)". GOV.UK . Получено 2018-06-08 .
  7. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия. Тейлор и Фрэнсис. doi : 10.4324/9781315591070. ISBN 9781317109129. Получено 2018-06-08 .
  8. ^ «Getting to grips with military robotics». The Economist . 25 января 2018 г. Получено 7 февраля 2018 г.
  9. ^ «США говорят, что Россия «разрабатывает» подводную ядерную торпеду». CNN . 3 февраля 2018 г. Получено 7 февраля 2018 г.
  10. ^ «Россия строит ракету, которая может принимать собственные решения». Newsweek . 20 июля 2017 г.
  11. ^ Литовкин, Николай (2017-05-31). «Цифровое оружие конца света в России: роботы готовятся к войне — Russia Beyond». Russia Beyond .
  12. ^ ««Товарищ по оружию»: Россия разрабатывает свободомыслящую военную машину». 2017-08-09.
  13. ^ «Восстание машин: взгляд на новейших боевых роботов России». 2017-06-06.
  14. ^ "Терминатор вернулся? Русские добились значительных успехов в области искусственного интеллекта". Russia Beyond . 10 февраля 2016 г.
  15. ^ "Виртуальный тренажер для роботов и дронов разработан в России". 15 мая 2017 г. Архивировано из оригинала 11 октября 2017 г. Получено 3 сентября 2017 г.
  16. ^ «Кара: Я не разглашала государственные секреты о роботах». The Jerusalem Post .
  17. ^ Аллен, Грегори. «Понимание стратегии Китая в области искусственного интеллекта». Центр новой американской безопасности . Получено 11 марта 2019 г.
  18. ^ «Экспортирует ли Китай роботов-убийц на Ближний Восток?». Asia Times . 28 ноября 2019 г. Получено 21 декабря 2019 г.
  19. ^ "Британская армия введет в эксплуатацию новых роботов в 2019 году | Март 2019 Глобальная оборона Безопасность армейские новости индустрии | Оборона Безопасность глобальные новости индустрии армия 2019 | Архив новостей года".
  20. ^ «ВМС США планируют построить беспилотный флот Ghost».
  21. ^ Хэмблинг, Дэвид. «Возможно, дроны впервые атаковали людей полностью автономно». New Scientist . Получено 30.05.2021 .
  22. ^ «Дрон-убийца «выследил человеческую цель» без приказа». Fox News . 2021-05-29 . Получено 2021-05-30 .
  23. ^ Хэмблинг, Дэвид. «Израиль применил первый в мире рой боевых беспилотников с искусственным интеллектом при атаках на Газу». New Scientist . Получено 15.01.2023 .
  24. ^ «ЗДЕСЬ РОБОТЫ-УБИЙЦЫ».
  25. ^ «МЕЧТА DARPA О МАЛЕНЬКОЙ АРМИИ РОБОТОВ БЛИЗКА К РЕАЛЬНОСТИ». Декабрь 2020 г.
  26. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения». армия.мил .
  27. ^ Министерство обороны США (2012). «Директива 3000.09, Автономность в системах оружия» (PDF) . стр. 2. Архивировано из оригинала (PDF) 1 декабря 2012 г.
  28. ^ ab Gubrud, Mark (апрель 2015 г.). «Полуавтономные и самостоятельные: роботы-убийцы в пещере Платона». Bulletin of the Atomic Scientists . Архивировано из оригинала 2017-05-09 . Получено 2017-10-30 .
  29. Ламот, Дэн (30 марта 2016 г.). «Пентагон изучает угрозу «роботов-убийц». Boston Globe .
  30. ^ Хаит, Джонатан (2016-10-03). «Барак Обама о 5 днях, которые сформировали его президентство». Daily Intelligencer . Получено 3 января 2017 г.
  31. ^ Деверо, Райан; Эммонс, Алекс (2016-10-03). «Обама беспокоится, что будущие президенты будут вести постоянную скрытую войну беспилотников». The Intercept . Получено 3 января 2017 г.
  32. ^ Стефаник, Элиз М. (22.05.2018). «HR5356 - 115-й Конгресс (2017–2018): Закон Комиссии по национальной безопасности об искусственном интеллекте 2018 года». www.congress.gov . Получено 13.03.2020 .
  33. ^ Баум, Сет (2018-09-30). «Противодействие дезинформации о суперинтеллекте». Информация . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  34. ^ США. Совет по инновациям в сфере обороны. Принципы ИИ: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC  1126650738.
  35. ^ Рассел, Стюарт (27 мая 2015 г.). «Займите позицию по оружию ИИ». Международный еженедельный научный журнал . 521 .
  36. ^ ab Coyne, Christopher; Alshamy, Yahya A. (2021-04-03). «Порочные последствия использования летальных автономных систем оружия». Peace Review . 33 (2): 190–198. doi : 10.1080/10402659.2021.1998747. ISSN  1040-2659. S2CID  233764057.
  37. ^ Шарки, Ноэль Э. (июнь 2012 г.). «Неизбежность войны автономных роботов*». Международный обзор Красного Креста . 94 (886): 787–799. doi :10.1017/S1816383112000732. ISSN  1816-3831. S2CID  145682587.
  38. ^ Мюллер, Винсент С. (2016). Автономные роботы-убийцы, вероятно, являются хорошей новостью. Ashgate. С. 67–81.
  39. ^ Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (01.03.2020). «Будущее войны: может ли смертоносное автономное оружие сделать конфликт более этичным?». AI & Society . 35 (1): 273–282. doi :10.1007/s00146-019-00879-x. hdl : 2318/1699364 . ISSN  1435-5655. S2CID  59606353.
  40. ^ Umbrello, Steven; Wood, Nathan Gabriel (2021-04-20). «Автономные системы вооружения и контекстуальная природа статуса Hors de Combat». Информация . 12 (5): 216. doi : 10.3390/info12050216 . hdl : 1854/LU-8709449 .
  41. ^ Келли М. Сэйлер (8 июня 2021 г.). Defense Primer: Emerging Technologies (PDF) (Отчет). Исследовательская служба Конгресса . Получено 22 июля 2021 г.
  42. ^ Ньягуди, Ньягуди Мусанду (2016-12-09). "Докторская диссертация по военной информатике (OpenPhD #openphd): Летальная автономность оружия разработана и/или рецессивна". Архивировано из оригинала 2017-01-07 . Получено 2017-01-06 .
  43. ^ ВСПАРРРОУ, РОБЕРТ (2007). «Роботы-убийцы». Журнал прикладной философии . 24 (1): 62–77. doi :10.1111/j.1468-5930.2007.00346.x. ISSN  0264-3758. JSTOR  24355087. S2CID  239364893.
  44. ^ Симпсон, Томас В.; Мюллер, Винсент К. (2016). «Справедливая война и убийства роботов». Philosophical Quarterly . 66 (263): 302–22. doi : 10.1093/pq/pqv075 .
  45. ^ Буланин и др., «Ограничения автономности в системах вооружения», SIPRI и МККК (2020): 37.
  46. ^ Закржевски, Кэт (27.07.2015). «Маск, Хокинг предупреждают об оружии искусственного интеллекта». Блоги WSJ — Digits . Получено 28.07.2015 .
  47. ^ Гиббс, Сэмюэл (27 июля 2015 г.). «Маск, Возняк и Хокинг призывают запретить военный ИИ и автономное оружие». The Guardian . Получено 28 июля 2015 г.
  48. ^ ab "Смертельные решения - 8 возражений против роботов-убийц" (PDF) . стр. 10 . Получено 2 декабря 2016 г. .
  49. ^ "Главная страница". Запретить летальное автономное оружие . 2017-11-10 . Получено 2018-06-09 .
  50. ^ «Святой Престол возобновляет призыв к запрету роботов-убийц». Catholic News Agency . 28 ноября 2018 г. Получено 30 ноября 2018 г.
  51. ^ ab Gayle, Damien (29 марта 2019 г.). «Великобритания, США и Россия среди тех, кто выступает против запрета роботов-убийц». The Guardian . Получено 30 марта 2019 г. .
  52. ^ Werkhäuser, Nina (27 августа 2018 г.). «Следует ли запрещать «роботов-убийц»?». Deutsche Welle (DW) . Получено 31 декабря 2021 г.
  53. ^ Сильва, Даниэлла (2 декабря 2022 г.). «Голосование в Сан-Франциско за разрешение полиции использовать смертоносных роботов вызывает беспокойство и возмущение». NBC News . Получено 5 декабря 2022 г.
  54. ^ Холанд, Лена (5 декабря 2022 г.). «Активисты выступают против смертоносных роботов полиции Сан-Франциско на фоне проблем с законностью». KGO-TV . Получено 5 декабря 2022 г.
  55. Моррис, JD (6 декабря 2022 г.). «SF прекращает политику полиции в отношении «роботов-убийц» после огромной негативной реакции — на данный момент». San Francisco Chronicle . Получено 6 декабря 2022 г.
  56. ^ Бенто, Лукас (2017). «No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law». Гарвардский депозитарий стипендий . Получено 14 сентября 2019 г.
  57. Geist, Edward Moore (15.08.2016). «Уже слишком поздно останавливать гонку вооружений ИИ — вместо этого мы должны ею управлять». Bulletin of the Atomic Scientists . 72 (5): 318–321. Bibcode : 2016BuAtS..72e.318G. doi : 10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  58. ^ Маас, Маттейс М. (2019-02-06). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия». Contemporary Security Policy . 40 (3): 285–311. doi :10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  59. ^ Экельхоф, Мерел (2019). «Выход за рамки семантики автономного оружия: осмысленный человеческий контроль в эксплуатации». Глобальная политика . 10 (3): 343–348. doi : 10.1111/1758-5899.12665 . ISSN  1758-5899.
  60. ^ Umbrello, Steven (2021-04-05). «Связывание уровней абстракции в понимании осмысленного человеческого управления автономным оружием: двухуровневый подход». Этика и информационные технологии . 23 (3): 455–464. doi : 10.1007/s10676-021-09588-w . hdl : 2318/1784315 . ISSN  1572-8439.
  61. ^ Аллен, Грегори К. (20 мая 2022 г.). «Один из ключевых вызовов дипломатии в области ИИ: китайские военные не хотят разговаривать». Центр стратегических и международных исследований (CSIS) . Получено 20 мая 2022 г.
  62. ^ Брэндон Вильяроло. «Международный военный саммит по ИИ завершился обещанием 60 государств». www.theregister.com . Получено 17.02.2023 .
  63. ^ Панди, Шашанк (4 января 2024 г.). «HRW призывает к международному договору о запрете «роботов-убийц». Юрист . Получено 8 января 2024 г.

Дальнейшее чтение

  1. ^ Туссен-Стросс, Джош; Ассаф, Али; Пирс, Джозеф; Бакстер, Райан (24.02.2023). «Как роботы-убийцы меняют современную войну – видео». The Guardian . ISSN  0261-3077 . Получено 27.02.2023 .