Гонка вооружений в области военного искусственного интеллекта — это гонка вооружений между двумя или более государствами за разработку и развертывание смертоносных автономных систем вооружения (АСО). С середины 2010-х годов многие аналитики отмечают появление такой гонки вооружений между мировыми сверхдержавами за лучший военный ИИ, [1] [2] вызванную растущей геополитической и военной напряженностью . Гонку вооружений в области искусственного интеллекта иногда рассматривают в контексте « холодной войны» в области искусственного интеллекта между США и Китаем. [3]
Летальные автономные системы вооружения используют искусственный интеллект для идентификации и уничтожения человеческих целей без вмешательства человека. [4] ЗАКОНЫ в просторечии называют « роботами-убийцами » или «роботами-убийцами». В широком смысле любую конкуренцию за лучший ИИ иногда называют «гонкой вооружений». [5] [6] Преимущества военного ИИ совпадают с преимуществами в других секторах, поскольку страны преследуют как экономические, так и военные преимущества. [7]
В 2014 году специалист по искусственному интеллекту Стив Омохундро предупредил, что «гонка вооружений в области автономного вооружения уже происходит». [8] По данным Siemens , мировые военные расходы на робототехнику составили 5,1 миллиарда долларов США в 2010 году и 7,5 миллиарда долларов США в 2015 году. [9] [10]
Китай стал ведущим игроком в исследованиях искусственного интеллекта в 2010-х годах. По данным Financial Times , в 2016 году Китай впервые опубликовал больше статей об искусственном интеллекте, чем весь Евросоюз. При ограничении количества статей по искусственному интеллекту в топ-5% цитируемых статей Китай обогнал США в 2016 году, но отстал от Европейского Союза. [11] 23% исследователей, присутствовавших на конференции Американской ассоциации по развитию искусственного интеллекта (AAAI) в 2017 году, были китайцами. [12] Эрик Шмидт , бывший председатель Alphabet , предсказал, что к 2025 году Китай станет ведущей страной в области искусственного интеллекта. [13]
Один из рисков касается самой гонки ИИ, независимо от того, выиграет ли гонку какая-либо одна группа. У команд разработчиков есть сильные стимулы срезать углы в отношении безопасности системы, что может привести к увеличению алгоритмической предвзятости . [14] [15] Частично это связано с очевидным преимуществом того, что мы первыми разработали передовые технологии искусственного интеллекта. Одна команда, которая оказывается на грани прорыва, может побудить другие команды пойти коротким путем, игнорировать меры предосторожности и развернуть менее готовую систему. Некоторые утверждают, что использование «расовой» терминологии в этом контексте может усугубить этот эффект. [16]
Другая потенциальная опасность гонки вооружений ИИ — это возможность потери контроля над системами ИИ; риск усугубляется в случае гонки за всеобщим искусственным интеллектом, которая может представлять экзистенциальный риск . [16]
Третий риск гонки вооружений ИИ заключается в том, выиграет ли гонку одна группа. Беспокойство вызывает консолидация власти и технологических преимуществ в руках одной группы. [16] В докладе правительства США утверждается, что «возможности искусственного интеллекта могут быть использованы для угрозы критической инфраструктуре, усиления кампаний по дезинформации и ведения войны» [17] :1 , и что «глобальная стабильность и ядерное сдерживание могут быть подорваны». [17] :11
Российский генерал Виктор Бондарев , главнокомандующий ВВС России, заявил, что еще в феврале 2017 года Россия работала над ракетами с искусственным наведением, которые могли бы менять цель в полете. [18] Военно -промышленная комиссия России одобрила планы по получению 30 процентов боевой мощи России за счет дистанционно управляемых роботизированных платформ с поддержкой искусственного интеллекта к 2030 году. [19] Участились сообщения спонсируемых государством российских СМИ о потенциальном использовании искусственного интеллекта в военных целях. в середине 2017 года. [20] В мае 2017 года генеральный директор российской оборонной компании «Группа Кронштадт» заявил, что «уже существуют полностью автономные операционные системы искусственного интеллекта, которые обеспечивают средства для кластеров БПЛА, когда они выполняют задачи автономно, разделяя между собой задачи и взаимодействуя». ", и что однажды "поли дронов" неизбежно пролетят над зонами боевых действий. [21] Россия тестирует несколько автономных и полуавтономных боевых систем, таких как боевой модуль «нейронная сеть» Калашникова с пулеметом, камерой и искусственным интеллектом, который, как утверждают его создатели, может принимать собственные решения о прицеливании без участия противника. вмешательство человека. [22]
В сентябре 2017 года во время обращения к более чем миллиону учащихся в 16 000 российских школах в честь Национального дня знаний президент России Владимир Путин заявил: «Искусственный интеллект — это будущее не только России, но и всего человечества... Кто станет лидером в этой сфере?» станет владыкой мира». Путин также сказал, что было бы лучше не допустить достижения монополии каким-либо отдельным игроком, но что, если Россия станет лидером в области искусственного интеллекта, она поделится своими «технологиями с остальным миром, как мы делаем сейчас с атомными и ядерными технологиями». . [23] [24] [25]
Россия создает ряд организаций, занимающихся разработкой военного ИИ. В марте 2018 года российское правительство опубликовало программу из 10 пунктов в области ИИ, которая предусматривает создание консорциума ИИ и больших данных, Фонда аналитических алгоритмов и программ, государственной программы обучения и образования в области ИИ, специализированной лаборатории ИИ. и Национальный центр искусственного интеллекта, среди других инициатив. [26] Кроме того, Россия недавно создала оборонную исследовательскую организацию, примерно эквивалентную DARPA, занимающуюся автономией и робототехникой, под названием «Фонд перспективных исследований», и инициировала ежегодную конференцию на тему «Роботизация Вооруженных Сил Российской Федерации». [27] [28]
Российские военные исследуют ряд приложений ИИ, уделяя особое внимание полуавтономным и автономным транспортным средствам. В официальном заявлении от 1 ноября 2017 года председатель комитета Совета Федерации по обороне и безопасности Виктор Бондарев заявил, что "искусственный интеллект сможет заменить солдата на поле боя и летчика в кабине самолета", а позже отметил, что «Приближается день, когда транспортные средства получат искусственный интеллект». [29] Бондарев сделал эти замечания в непосредственной близости от успешных испытаний «Нерехты», безэкипажной российской наземной машины, которая, как сообщается, «превзошла существующие боевые машины с экипажем». Россия планирует использовать «Нерехту» в качестве платформы для исследований и разработок искусственного интеллекта и однажды может использовать систему в боевых целях, сборе разведывательной информации или логистике. [30] Сообщается, что Россия также создала боевой модуль для безэкипажной наземной техники, способный автономно идентифицировать цели — и, возможно, поражать цели — и планирует разработать набор автономных систем с поддержкой искусственного интеллекта. [31] [32] [28]
Кроме того, российские военные планируют внедрить ИИ в безэкипажные воздушные, военно-морские и подводные транспортные средства и в настоящее время разрабатывают возможности группирования. [27] Он также изучает инновационное использование искусственного интеллекта для дистанционного зондирования и радиоэлектронной борьбы, включая адаптивное скачкообразное изменение частоты, формы сигналов и меры противодействия. [33] [34] Россия также широко использовала технологии искусственного интеллекта для внутренней пропаганды и наблюдения, а также для информационных операций, направленных против США и их союзников. [35] [36] [28]
Российское правительство решительно отвергло любой запрет на смертоносные автономные системы вооружения, предполагая, что такой международный запрет можно игнорировать. [37] [38]
Китай проводит стратегическую политику военно-гражданского слияния с использованием ИИ для глобального технологического превосходства . [17] [39] Согласно докладу Грегори Аллена из Центра новой американской безопасности за февраль 2019 года , руководство Китая , включая верховного лидера Си Цзиньпина , считает, что быть на переднем крае технологий искусственного интеллекта имеет решающее значение для будущее глобальной военной и экономической конкуренции держав. [7] Китайские военные чиновники заявили, что их цель — внедрить коммерческие технологии искусственного интеллекта, чтобы «сократить разрыв между китайской армией и передовыми мировыми державами». [7] Тесные связи между Кремниевой долиной и Китаем, а также открытость американского исследовательского сообщества сделали самые передовые западные технологии искусственного интеллекта легко доступными для Китая; Кроме того, китайская промышленность имеет множество собственных достижений в области искусственного интеллекта, таких как Baidu , прошедшая в 2015 году заметный тест на способность распознавания речи на китайском языке. 2030 г. [11] До 2013 г. китайские оборонные закупки в основном ограничивались несколькими конгломератами; однако по состоянию на 2017 год Китай часто закупает новые чувствительные технологии, такие как дроны и искусственный интеллект, у частных начинающих компаний. [41] В отчете Центра безопасности и новейших технологий за октябрь 2021 года говорится, что «большинство поставщиков оборудования для искусственного интеллекта [китайских военных] являются не государственными оборонными предприятиями, а частными китайскими технологическими компаниями, основанными после 2010 года». [42] По оценкам отчета, военные расходы Китая на ИИ ежегодно превышают 1,6 миллиарда долларов. [42] В 2018 году газета Japan Times сообщила, что ежегодные частные китайские инвестиции в искусственный интеллект составляют менее 7 миллиардов долларов в год. В 2017 году ИИ-стартапы в Китае получили почти половину общих мировых инвестиций в ИИ-стартапы; Китайцы подали почти в пять раз больше патентов на ИИ, чем американцы. [43]
В 2016 году Китай опубликовал позиционный документ, ставящий под сомнение адекватность существующего международного права для рассмотрения возможности создания полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН , затронувшим этот вопрос. [44] В 2018 году Си Цзиньпин призвал к расширению международного сотрудничества в области фундаментальных исследований в области искусственного интеллекта. [45] Китайские официальные лица выразили обеспокоенность тем, что искусственный интеллект, такой как дроны, может привести к случайной войне, особенно в отсутствие международных норм. [46] В 2019 году бывший министр обороны США Марк Эспер раскритиковал Китай за продажу дронов, способных уносить жизни без контроля со стороны человека. [47]
В 2014 году бывший министр обороны Чак Хейгел сформулировал « Третью стратегию компенсации », согласно которой быстрый прогресс в области искусственного интеллекта определит следующее поколение войн. [48] По данным аналитической компании Govini, Министерство обороны США увеличило инвестиции в искусственный интеллект, большие данные и облачные вычисления с $5,6 млрд в 2011 году до $7,4 млрд в 2016 году. [49] Однако гражданский бюджет NSF на ИИ в 2017 году роста не наблюдалось. [11] Japan Times сообщила в 2018 году, что частные инвестиции в США составляют около 70 миллиардов долларов в год. [43] В «Промежуточном отчете» Комиссии национальной безопасности США по искусственному интеллекту за ноябрь 2019 года подтверждено, что ИИ имеет решающее значение для технологического военного превосходства США. [17]
В США существует множество военных боевых программ искусственного интеллекта, таких как автономный военный корабль Sea Hunter , который предназначен для работы в течение длительных периодов времени в море без единого члена экипажа и даже для самостоятельного входа в порт и выхода из него. [22] С 2017 года временная директива Министерства обороны США требует, чтобы человек-оператор был в курсе событий, когда дело доходит до убийства людей с помощью автономных систем вооружения. [50] 31 октября 2019 года Совет по оборонным инновациям Министерства обороны США опубликовал проект отчета, в котором рекомендуются принципы этического использования искусственного интеллекта Министерством обороны, которые гарантировали бы, что человек-оператор всегда сможет просматривать информацию. в «черный ящик» и понять процесс цепочки убийств . Однако серьезное беспокойство вызывает то, как этот отчет будет реализован. [51]
Project Maven — это проект Пентагона , включающий использование машинного обучения и инженерных талантов для распознавания людей и объектов на видео с дронов, [52] по-видимому, предоставляющий правительству командование и контроль на поле боя в реальном времени, а также возможность отслеживать, маркировать и шпионить за целями без участия человека. участие. Первоначально усилия возглавил Роберт О. Уорк , который был обеспокоен военным использованием Китаем новой технологии. [53] Как сообщается, разработка Пентагона не дотягивает до того, чтобы действовать как система вооружения с искусственным интеллектом, способная стрелять по самостоятельно назначенным целям. [54] Проект был учрежден в записке заместителя министра обороны США от 26 апреля 2017 года. [55] Также известен как Межфункциональная группа по алгоритмической войне [56] , по словам генерал-лейтенанта США . ВВС США Джеком Шанаханом в ноябре 2017 года, проект «задуман как пилотный проект, первопроходец, искра, которая разжигает пламя искусственного интеллекта в остальной части Министерства [обороны]». [57] Его руководитель, полковник Корпуса морской пехоты США Дрю Кьюкор, заявил: «Люди и компьютеры будут работать совместно, чтобы повысить способность систем вооружения обнаруживать объекты». [58] Проект Maven был отмечен союзниками, такими как австралиец Ян Лэнгфорд , за способность идентифицировать противников путем сбора данных с датчиков на БПЛА и спутниках. [59] На втором технологическом саммите Defense One в июле 2017 года Кьюкор также заявил, что инвестиции в «обдуманный рабочий процесс» финансировались Министерством [обороны] через его «органы быстрого приобретения» примерно на «следующие 36 месяцев». ". [60]
Объединенный центр искусственного интеллекта (JAIC) (произносится «Джейк») [61] — американская организация, занимающаяся изучением использования искусственного интеллекта (особенно периферийных вычислений ), сети сетей и связи с использованием искусственного интеллекта для использования в реальных боевых действиях. [62] [63] [64] [65] Это подразделение Вооруженных сил США было создано в июне 2018 года. Заявленная цель организации — «преобразовать Министерство обороны США путем ускорения доставки и внедрения искусственного интеллекта». Цель состоит в том, чтобы использовать ИИ для решения больших и сложных наборов задач, охватывающих несколько боевых систем, а затем обеспечить, чтобы боевые системы и компоненты имели доступ в режиме реального времени к постоянно улучшающимся библиотекам наборов данных и инструментов. " [63]
В 2015 году правительство Великобритании выступило против запрета на смертоносное автономное оружие, заявив, что «международное гуманитарное право уже обеспечивает достаточное регулирование в этой области», но что все оружие, используемое вооруженными силами Великобритании, будет «под надзором и контролем человека». [66]
Израильский противорадиолокационный беспилотник Harpy «выстрелил и забыл» предназначен для запуска наземными войсками и автономного полета над территорией для поиска и уничтожения радара, который соответствует заранее определенным критериям. [67] Ожидается, что применение искусственного интеллекта будет также развиваться в безэкипажных наземных системах и роботизированных транспортных средствах, таких как Guardium MK III и более поздних версиях. [68] Эти роботизированные машины используются при охране границ.
Южнокорейский пулемет Super aEgis II , представленный в 2010 году, используется как в Южной Корее, так и на Ближнем Востоке. Он может идентифицировать, сопровождать и уничтожать движущуюся цель на расстоянии до 4 км. Хотя технология теоретически может работать без вмешательства человека, на практике устанавливаются меры безопасности, требующие ручного ввода. Южнокорейский производитель заявляет: «Наше оружие не спит, как люди. Оно может видеть в темноте, чего не могут люди. Таким образом, наша технология закрывает пробелы в человеческих возможностях», и они хотят «достичь место, где наше программное обеспечение может определить, является ли цель другом, врагом, гражданским лицом или военным». [69]
Европейский парламент придерживается позиции, согласно которой люди должны иметь право надзора и принятия решений в отношении смертоносного автономного оружия. [70] Тем не менее, каждое государство-член Европейского Союза должно определить свою позицию по использованию автономного оружия, и неоднозначные позиции государств-членов, возможно, являются самым большим препятствием для способности Европейского Союза разрабатывать автономное оружие. Некоторые члены, такие как Франция, Германия, Италия и Швеция, разрабатывают смертоносное автономное оружие. Некоторые члены по-прежнему не определились с использованием автономного боевого оружия, а Австрия даже призвала запретить использование такого оружия. [71]
Некоторые государства-члены ЕС разработали и разрабатывают автоматизированное оружие. Германия разработала систему активной защиты , Active Defense System, которая может реагировать на угрозу с полной автономностью менее чем за миллисекунду. [71] [72] Италия планирует включить автономные системы вооружения в свои будущие военные планы. [71]
Международное регулирование автономного оружия является новой проблемой международного права. [73] Контроль над вооружениями с использованием ИИ, скорее всего, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной дипломатией со стороны сообществ экспертов, а также процессом юридической и политической проверки. [1] [2] Еще в 2007 году такие ученые, как профессор искусственного интеллекта Ноэль Шарки , предупреждали о «возникающей гонке вооружений среди высокотехнологичных стран с целью разработки автономных подводных лодок, истребителей, линкоров и танков, которые могут находить свои собственные цели и применять насильственную силу без участия значимых человеческих решений». [74] [75]
Майлз Брандейдж из Оксфордского университета утверждает, что гонку вооружений ИИ можно несколько смягчить с помощью дипломатии: «На примере различных исторических гонок вооружений мы видели, что сотрудничество и диалог могут принести дивиденды». [76] В 2017 году более сотни экспертов подписали открытое письмо, призывающее ООН заняться проблемой смертоносного автономного оружия; [77] [78] Однако на ноябрьской сессии 2017 года Конвенции ООН по конкретным видам обычного оружия (КОО) дипломаты не смогли договориться даже о том, как определять такое оружие. [79] Индийский посол и председатель КНО заявил, что достижение соглашения по правилам остается отдаленной перспективой. [80] По состоянию на 2019 год 26 глав государств и 21 лауреат Нобелевской премии мира поддержали запрет на автономное оружие. [81] Однако по состоянию на 2022 год большинство крупных держав продолжают выступать против запрета на автономное оружие. [82]
Многие эксперты полагают, что попытки полностью запретить роботов-убийц, скорее всего, потерпят неудачу, [83] отчасти потому, что выявление нарушений договора будет чрезвычайно трудным. [84] [85] В докладе Гарвардского Белфер-центра за 2017 год прогнозируется, что ИИ обладает таким же преобразующим потенциалом, как и ядерное оружие. [76] [86] [87] Далее в докладе утверждается, что «предотвратить расширенное военное использование ИИ, скорее всего, невозможно» и что «необходимо преследовать более скромную цель безопасного и эффективного управления технологиями», например, запрет на установку Переход ИИ -мертвеца к ядерному арсеналу. [87]
Открытое письмо Института будущего жизни от 2015 года , призывающее к запрету смертоносных автономных систем вооружения, подписали более 26 000 граждан, в том числе физик Стивен Хокинг , магнат Tesla Илон Маск , Стив Возняк из Apple и соучредитель Twitter Джек Дорси . и более 4600 исследователей искусственного интеллекта, включая Стюарта Рассела , Барта Селмана и Франческу Росси . [88] [79] Институт будущего жизни также выпустил два художественных фильма: «Бойни» (2017) и «Бойни — если человек: kill()» (2021), в которых изображаются угрозы автономного оружия и пропагандируется его запрет. популярный.
Профессор Ноэль Шарки из Университета Шеффилда утверждает, что автономное оружие неизбежно попадет в руки террористических группировок, таких как « Исламское государство» . [89]
Многие западные технологические компании избегают слишком тесного сотрудничества с вооруженными силами США, опасаясь потерять доступ к китайскому рынку. [40] Более того, некоторые исследователи, такие как генеральный директор DeepMind Демис Хассабис , идеологически против участия в военной работе. [90]
Например, в июне 2018 года источники компании в Google сообщили, что топ-менеджер Дайан Грин сообщила сотрудникам, что компания не будет заниматься проектом Maven после истечения текущего контракта в марте 2019 года. [52]
{{cite web}}
: CS1 maint: несколько имен: список авторов ( ссылка )Несколько государств, в том числе США, Россия, Великобритания, Индия и Израиль, выступили против любых юридически обязательных ограничений... Китай поддержал обязательное юридическое соглашение в КНО, но также стремился дать настолько узкое определение автономному оружию, что большая часть военной техники с поддержкой искусственного интеллекта, которую компания сейчас разрабатывает, выйдет за рамки такого запрета.