stringtranslate.com

Регулирование искусственного интеллекта

Регулирование искусственного интеллекта — это разработка политик и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ). Это часть более широкого регулирования алгоритмов . [1] [2] Нормативно-правовой ландшафт для ИИ — это новая проблема в юрисдикциях по всему миру, в том числе для международных организаций без прямых полномочий по обеспечению соблюдения, таких как IEEE или OECD . [3]

С 2016 года было опубликовано множество руководств по этике ИИ с целью поддержания общественного контроля над технологией. [4] Регулирование считается необходимым как для содействия инновациям в области ИИ, так и для управления связанными с ними рисками.

Более того, организации, внедряющие ИИ, играют центральную роль в создании и внедрении надежного ИИ , придерживаясь установленных принципов и принимая на себя ответственность за снижение рисков. [5]

Регулирование ИИ посредством таких механизмов, как наблюдательные советы, также можно рассматривать как социальный способ решения проблемы контроля ИИ . [6] [7]

Фон

По данным Индекса ИИ Стэнфордского университета за 2023 год, ежегодное количество законопроектов, в которых упоминается «искусственный интеллект», принятых в 127 обследованных странах, возросло с одного в 2016 году до 37 в 2022 году. [8] [9]

В 2017 году Илон Маск призвал к регулированию разработки ИИ. [10] По данным NPR , генеральный директор Tesla был «явно не в восторге» от того, что выступал за государственный контроль, который мог бы повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно регулирование устанавливается, когда происходит куча плохих вещей, возникает общественный резонанс, и через много лет создается регулирующее агентство для регулирования этой отрасли. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования цивилизации». [10] В ответ некоторые политики выразили скептицизм относительно целесообразности регулирования технологии, которая все еще находится в стадии разработки. [11] Отвечая как на Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждал, что ИИ находится в зачаточном состоянии и что слишком рано регулировать эту технологию. [12] Многие технологические компании выступают против жесткого регулирования ИИ и «Хотя некоторые компании заявили, что приветствуют правила, касающиеся ИИ, они также выступили против жестких правил, подобных тем, которые создаются в Европе» [13] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предложили разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с некоторой формой гарантии. [14]

В опросе Ipsos 2022 года отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая, но только 35% американцев согласились с тем, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [8] Опрос Reuters /Ipsos 2023 года показал, что 61% американцев согласны, а 22% не согласны, что ИИ представляет опасность для человечества. [15] В опросе Fox News 2023 года 35% американцев считали «очень важным», а еще 41% считали «довольно важным» регулирование ИИ федеральным правительством, по сравнению с 13% ответившими «не очень важно» и 8% ответившими «совсем не важно». [16] [17]

Перспективы

Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. [18] Регулирование в настоящее время обычно считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. [19] [20] [21] Соображения государственного управления и политики, как правило, сосредоточены на технических и экономических последствиях, а также на надежных и ориентированных на человека системах ИИ, [22] хотя регулирование искусственного суперинтеллекта также рассматривается. [23] Основной подход к регулированию фокусируется на рисках и предубеждениях алгоритмов машинного обучения на уровне входных данных, тестирования алгоритмов и модели принятия решений. Он также фокусируется на объяснимости выходных данных. [20]

Были предложения как по жесткому, так и по мягкому праву для регулирования ИИ. [24] Некоторые ученые-юристы отметили, что подходы к регулированию ИИ на основе жесткого права сопряжены с существенными проблемами. [25] [26] Среди проблем — быстрое развитие технологий ИИ, что приводит к «проблеме темпа», когда традиционные законы и правила часто не поспевают за новыми приложениями и связанными с ними рисками и преимуществами. [25] [26] Аналогичным образом, разнообразие приложений ИИ бросает вызов существующим регулирующим органам, которые часто имеют ограниченную юрисдикцию. [25] В качестве альтернативы некоторые ученые-юристы утверждают, что подходы к регулированию ИИ на основе мягкого права являются многообещающими, поскольку мягкие законы можно адаптировать более гибко для удовлетворения потребностей новых и развивающихся технологий ИИ и зарождающихся приложений. [25] [26] Однако подходы на основе мягкого права часто не обладают существенным потенциалом обеспечения соблюдения. [25] [27]

Кейсон Шмит, Меган Доерр и Дженнифер Вагнер предложили создать квазиправительственный регулятор, используя права интеллектуальной собственности (например, лицензирование с копилефтом ) в отношении определенных объектов ИИ (например, моделей ИИ и обучающих наборов данных) и делегируя права принудительного исполнения назначенному органу принудительного исполнения. [28] Они утверждают, что ИИ может лицензироваться на условиях, которые требуют соблюдения определенных этических норм и кодексов поведения (например, принципов мягкого права). [28]

Известные молодежные организации, занимающиеся вопросами ИИ, а именно Encode Justice, также опубликовали комплексные программы, призывающие к более строгим правилам в области ИИ и государственно-частному партнерству . [29] [30]

Регулирование ИИ может вытекать из базовых принципов. Мета-обзор существующих наборов принципов, таких как принципы Асиломара и Пекинские принципы, проведенный Центром Беркмана Кляйна в 2020 году, выявил восемь таких базовых принципов: конфиденциальность, подотчетность, безопасность, прозрачность и объяснимость, справедливость и недискриминация, контроль человека над технологиями, профессиональная ответственность и уважение человеческих ценностей. [31] Законодательство и нормативные акты в области ИИ были разделены на три основные темы, а именно управление автономными системами интеллекта, ответственность и подотчетность для систем, а также вопросы конфиденциальности и безопасности. [19] Подход государственного управления рассматривает связь между законодательством и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замена и трансформация рабочей силы, общественное принятие и доверие к ИИ, а также трансформация взаимодействия человека и машины. [32] Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном [33] и международном уровнях [34] и в различных областях, от управления государственными услугами [35] и подотчетности [36] до правоохранительной деятельности, [34] [37] здравоохранения (особенно концепции человеческой гарантии), [38] [39] [40] [41] [42] финансового сектора, [33] робототехники, [43] [44] автономных транспортных средств, [43] армии [45] и национальной безопасности, [46] и международного права. [47] [48]

Генри Киссинджер , Эрик Шмидт и Дэниел Хаттенлохер опубликовали в ноябре 2021 года совместное заявление под названием «Быть ​​человеком в эпоху ИИ», призывая создать правительственную комиссию для регулирования ИИ. [49]

В ответ на проблему контроля ИИ

Регулирование ИИ можно рассматривать как позитивное социальное средство управления проблемой контроля ИИ (необходимость обеспечения долгосрочного полезного ИИ), при этом другие социальные ответы, такие как бездействие или запрет, рассматриваются как непрактичные, а такие подходы, как расширение человеческих возможностей с помощью методов трансгуманизма , таких как интерфейсы мозг-компьютер, рассматриваются как потенциально дополнительные. [7] [50] Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли наблюдательных советов, от университетского или корпоративного до международного уровня, и на поощрении исследований в области безопасности ИИ , [50] вместе с возможностью дифференциального интеллектуального прогресса (приоритет защитных стратегий над рискованными стратегиями в разработке ИИ) или проведения международного массового наблюдения для осуществления контроля над вооружениями AGI. [7] Например, «Няня AGI» — это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного сверхразума , а также для устранения других серьезных угроз человеческому благополучию, таких как подрыв мировой финансовой системы, до тех пор, пока не будет безопасно создан настоящий сверхразум. Это подразумевает создание более умной, чем человек, но не сверхразумной системы AGI, подключенной к большой сети наблюдения, с целью мониторинга человечества и защиты его от опасности. [7] Регулирование сознательных, этически сознательных AGI фокусируется на том, как интегрировать их в существующее человеческое общество, и может быть разделено на соображения их правового статуса и их моральных прав. [7] Регулирование ИИ рассматривалось как ограничительное, с риском предотвращения развития AGI. [43]

Глобальное руководство

Опрошенные организации в основном согласны с тем, что компании, разрабатывающие базовые модели, будут нести ответственность за сопутствующие риски (а не те, кто их использует), и что для устранения рисков, связанных с генеративным ИИ, необходимо глобальное управление . [51]

Создание глобального совета по управлению для регулирования разработки ИИ было предложено по крайней мере еще в 2017 году. [52] В декабре 2018 года Канада и Франция объявили о планах создания Международной группы по искусственному интеллекту при поддержке G7, созданной по образцу Международной группы по изменению климата , для изучения глобального воздействия ИИ на людей и экономику и для управления разработкой ИИ. [53] В 2019 году Группа была переименована в Глобальное партнерство по ИИ. [54] [55]

Глобальное партнерство по искусственному интеллекту (GPAI) было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к технологии, как указано в Принципах ОЭСР по искусственному интеллекту (2019). [56] 15 членами-основателями Глобального партнерства по искусственному интеллекту являются Австралия, Канада, Европейский союз, Франция, Германия, Индия, Италия, Япония, Республика Корея, Мексика, Новая Зеландия, Сингапур, Словения, США и Великобритания. В 2023 году в GPAI будет 29 членов. [57] Секретариат GPAI размещается в ОЭСР в Париже, Франция. Мандат GPAI охватывает четыре темы, две из которых поддерживаются Международным центром экспертизы в Монреале по развитию искусственного интеллекта, а именно ответственный ИИ и управление данными. Соответствующий центр передового опыта в Париже будет поддерживать две другие темы по будущему работы и по инновациям и коммерциализации. GPAI также исследовала, как можно использовать ИИ для реагирования на пандемию COVID-19. [56]

Принципы ИИ ОЭСР [58] были приняты в мае 2019 года, а Принципы ИИ G20 — в июне 2019 года. [55] [59] [60] В сентябре 2019 года Всемирный экономический форум выпустил десять «Руководящих принципов государственных закупок ИИ». [61] В феврале 2020 года Европейский союз опубликовал проект своего стратегического документа по продвижению и регулированию ИИ. [34]

В Организации Объединенных Наций (ООН) несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, включая Центр ЮНИКРИ по ИИ и робототехнике . [46] В партнерстве с Интерполом Центр ЮНИКРИ опубликовал доклад «ИИ и робототехника для правоохранительных органов» в апреле 2019 года [62] и последующий доклад « На пути к ответственным инновациям в области ИИ» в мае 2020 года. [37] На 40-й научной сессии ЮНЕСКО в ноябре 2019 года организация начала двухлетний процесс по достижению «глобального инструмента установления стандартов в области этики искусственного интеллекта». Для достижения этой цели были проведены форумы и конференции ЮНЕСКО по ИИ для сбора мнений заинтересованных сторон. Проект текста Рекомендации по этике ИИ Специальной экспертной группы ЮНЕСКО был опубликован в сентябре 2020 года и включал призыв к заполнению законодательных пробелов. [63] ЮНЕСКО представила международный инструмент по этике ИИ для принятия на своей Генеральной конференции в ноябре 2021 года; [56] Впоследствии это было принято. [64] Хотя ООН добивается прогресса в глобальном управлении ИИ, ее институциональные и правовые возможности по управлению экзистенциальным риском ИИ более ограничены. [65]

Инициатива Международного союза электросвязи (МСЭ) в партнерстве с 40 родственными агентствами ООН, AI for Good — это глобальная платформа, которая направлена ​​на выявление практических применений ИИ для продвижения Целей устойчивого развития ООН и масштабирования этих решений для глобального воздействия. Это ориентированная на действия, глобальная и инклюзивная платформа Организации Объединенных Наций, способствующая развитию ИИ для положительного влияния на здоровье, климат, гендер, инклюзивное процветание, устойчивую инфраструктуру и другие глобальные приоритеты развития. [66]

Недавние исследования показали, что страны также начнут использовать искусственный интеллект в качестве инструмента национальной киберобороны. ИИ является новым фактором в индустрии кибероружия, поскольку его можно использовать в оборонных целях. Поэтому ученые призывают страны установить правила использования ИИ, аналогичные тем, которые существуют для других военных отраслей. [67]

5 сентября 2024 года Первый международный договор по ИИ, в котором участвуют такие страны, как США, Великобритания и члены Европейского союза, направлен на защиту прав человека и поощрение ответственного использования ИИ, хотя эксперты выразили обеспокоенность по поводу его общих принципов и исключений. [68]

Региональное и национальное регулирование

Хронология стратегий, планов действий и политических документов, определяющих национальные, региональные и международные подходы к ИИ [69]

Нормативно-правовая база и политический ландшафт для ИИ являются новой проблемой в региональных и национальных юрисдикциях по всему миру, например, в Европейском союзе [70] и России. [71] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и политические документы по ИИ. [72] [73] Эти документы охватывают широкий спектр тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура. [22] [74]

Разные страны подошли к этой проблеме по-разному. Что касается трех крупнейших экономик, то было сказано, что «США придерживаются рыночного подхода, Китай продвигает государственный подход, а ЕС придерживается подхода, основанного на правах». [75]

Австралия

В октябре 2023 года Австралийское компьютерное общество , Деловой совет Австралии , Австралийская торгово-промышленная палата , Ai Group (также известная как Австралийская промышленная группа) , Совет организаций малого бизнеса Австралии и Технический совет Австралии совместно опубликовали открытое письмо, призывающее к национальному подходу к стратегии ИИ. [76] В письме поддерживается создание федеральным правительством общеправительственной целевой группы по ИИ. [76]

Бразилия

30 сентября 2021 года Палата депутатов Бразилии одобрила бразильскую правовую основу для искусственного интеллекта, Marco Legal da Inteligência Artificial, в целях регулирования разработки и использования технологий ИИ и дальнейшего стимулирования исследований и инноваций в области решений ИИ, направленных на этику, культуру, справедливость, честность и подотчетность. В этом законопроекте из 10 статей излагаются цели, включая миссии по содействию разработке этических принципов, содействию устойчивым инвестициям в исследования и устранению барьеров для инноваций. В частности, в статье 4 законопроект подчеркивает необходимость избегания дискриминационных решений ИИ, плюрализма и уважения прав человека. Кроме того, в этом акте подчеркивается важность принципа равенства в алгоритмах осознанного принятия решений, особенно для очень разнообразных и многоэтнических обществ, таких как бразильское.

Когда законопроект был впервые обнародован, он подвергся существенной критике, что вызвало тревогу у правительства из-за критических положений. Основная проблема заключается в том, что этот законопроект не в состоянии тщательно и внимательно рассмотреть принципы подотчетности, прозрачности и инклюзивности. Статья VI устанавливает субъективную ответственность, то есть любое лицо, которому система ИИ нанесла ущерб и которое хочет получить компенсацию, должно указать заинтересованную сторону и доказать, что в жизненном цикле машины была допущена ошибка. Ученые подчеркивают, что назначать лицо, ответственное за доказательство алгоритмических ошибок, является противозаконным, учитывая высокую степень автономности, непредсказуемости и сложности систем ИИ. Это также привлекло внимание к текущим проблемам с системами распознавания лиц в Бразилии, которые приводят к несправедливым арестам полицией, что затем будет означать, что после принятия этого законопроекта лицам придется доказывать и оправдывать эти ошибки машины.

Основное противоречие этого законопроекта было направлено на три предлагаемых принципа. Во-первых, принцип недискриминации предполагает, что ИИ должен разрабатываться и использоваться таким образом, чтобы просто смягчать возможность злоупотреблений и дискриминационных практик. Во-вторых, стремление к принципу нейтралитета перечисляет рекомендации для заинтересованных сторон по смягчению предвзятости; однако без обязательства достижения этой цели. Наконец, принцип прозрачности гласит, что прозрачность системы необходима только тогда, когда существует высокий риск нарушения основных прав. Как легко заметить, в бразильской правовой базе искусственного интеллекта отсутствуют обязательные положения, и она скорее наполнена смягченными рекомендациями. Фактически, эксперты подчеркивают, что этот законопроект может даже затруднить достижение ответственности за дискриминационные предвзятости ИИ. По сравнению с предложением ЕС об обширных правилах, основанных на рисках, бразильский законопроект содержит 10 статей, предлагающих расплывчатые и общие рекомендации.

По сравнению с подходом к многостороннему участию, который применялся ранее в 2000-х годах при разработке бразильского Билля о правах в Интернете, Marco Civil da Internet, бразильский законопроект оценивается как существенно лишенный перспективы. Многостороннее участие, чаще называемое многосторонним управлением, определяется как практика привлечения нескольких заинтересованных сторон к участию в диалоге, принятии решений и реализации ответов на совместно воспринимаемые проблемы. В контексте регулирования ИИ эта многосторонняя перспектива охватывает компромиссы и различные точки зрения различных заинтересованных сторон с определенными интересами, что помогает поддерживать прозрачность и более широкую эффективность. Напротив, законодательное предложение по регулированию ИИ не следовало аналогичному многостороннему подходу.

Будущие шаги могут включать расширение перспективы многостороннего участия. Растет обеспокоенность по поводу неприменимости рамок законопроекта, который подчеркивает, что универсальное решение может не подходить для регулирования ИИ и призывает к субъективным и адаптивным положениям.

Канада

Панканадская стратегия искусственного интеллекта (2017) поддерживается федеральным финансированием в размере 125 миллионов канадских долларов с целями увеличения числа выдающихся исследователей ИИ и квалифицированных выпускников в Канаде, создания узлов научного превосходства в трех основных центрах ИИ, развития «глобального лидерства мысли» по экономическим, этическим, политическим и правовым последствиям достижений ИИ и поддержки национального исследовательского сообщества, работающего над ИИ. [56] Канадская программа председателей CIFAR AI является краеугольным камнем стратегии. Она получает финансирование в размере 86,5 миллионов канадских долларов в течение пяти лет для привлечения и удержания всемирно известных исследователей ИИ. [56] Федеральное правительство назначило Консультативный совет по ИИ в мае 2019 года с акцентом на изучение того, как использовать сильные стороны Канады, чтобы гарантировать, что достижения ИИ отражают канадские ценности, такие как права человека, прозрачность и открытость. Консультативный совет по ИИ создал рабочую группу по извлечению коммерческой ценности из ИИ и аналитики данных, принадлежащих Канаде. [56] В 2020 году федеральное правительство и правительство Квебека объявили об открытии Международного центра экспертизы в Монреале по развитию искусственного интеллекта, который будет продвигать дело ответственной разработки ИИ. [56] В июне 2022 года правительство Канады начало вторую фазу Панканадской стратегии искусственного интеллекта. [77] В ноябре 2022 года Канада представила Закон о внедрении Цифровой хартии (законопроект C-27), который предлагает три акта, которые были описаны как целостный пакет законодательства о доверии и конфиденциальности: Закон о защите конфиденциальности потребителей, Закон о трибунале по защите личной информации и данных и Закон об искусственном интеллекте и данных (AIDA). [78] [79]

Марокко

В Марокко коалиция политических партий в парламенте выдвинула новое законодательное предложение о создании Национального агентства по искусственному интеллекту (ИИ). Это агентство призвано регулировать технологии ИИ, расширять сотрудничество с международными организациями в этой области и повышать осведомленность общественности как о возможностях, так и о рисках, связанных с ИИ. [80]

Китай

Регулирование ИИ в Китае в основном регулируется «Планом развития искусственного интеллекта следующего поколения» Государственного совета Китайской Народной Республики от 8 июля 2017 года (Документ Госсовета № 35), в котором Центральный комитет Коммунистической партии Китая и Государственный совет КНР настоятельно призвали руководящие органы Китая содействовать развитию ИИ до 2030 года. Регулирование вопросов этической и правовой поддержки развития ИИ ускоряется, а политика обеспечивает государственный контроль над китайскими компаниями и над ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных стандартов Китайской Народной Республики для ИИ, в том числе над большими данными, облачными вычислениями и промышленным программным обеспечением. [81] [82] [83] В 2021 году Китай опубликовал этические руководящие принципы использования ИИ в Китае, в которых говорится, что исследователи должны гарантировать, что ИИ соблюдает общие человеческие ценности, всегда находится под контролем человека и не представляет угрозы общественной безопасности. [84] В 2023 году Китай ввел временные меры по управлению услугами генеративного ИИ . [85]

Совет Европы

Совет Европы (СЕ) — международная организация, которая продвигает права человека, демократию и верховенство закона. В ее состав входят 46 государств-членов, включая все 29 стран, подписавших Декларацию Европейского союза о сотрудничестве в области искусственного интеллекта 2018 года. СЕ создал общее правовое пространство, в котором члены имеют юридическое обязательство гарантировать права, изложенные в Европейской конвенции о правах человека . В частности, в отношении ИИ, «целью Совета Европы является выявление пересекающихся областей между ИИ и нашими стандартами в области прав человека, демократии и верховенства закона, а также разработка соответствующих решений по установлению стандартов или наращиванию потенциала». Большое количество соответствующих документов, определенных СЕ, включают руководящие принципы, уставы, статьи, отчеты и стратегии. [86] Авторские органы этих документов по регулированию ИИ не ограничиваются одним сектором общества и включают организации, компании, органы и национальные государства. [63]

В 2019 году Совет Европы инициировал процесс оценки необходимости юридически обязательного регулирования ИИ, уделяя особое внимание его последствиям для прав человека и демократических ценностей. Переговоры по договору начались в сентябре 2022 года с участием 46 государств-членов Совета Европы, а также Аргентины, Австралии, Канады, Коста-Рики, Святого Престола, Израиля, Японии, Мексики, Перу, Соединенных Штатов Америки и Уругвая, а также Европейского союза. 17 мая 2024 года была принята « Рамочная конвенция об искусственном интеллекте и правах человека, демократии и верховенстве права ». Она была открыта для подписания 5 сентября 2024 года. Хотя договор был разработан европейской организацией, он открыт для присоединения государств из других частей света. Первыми десятью подписавшими странами стали: Андорра, Грузия, Исландия, Норвегия, Молдова, Сан-Марино, Соединенное Королевство, Израиль, Соединенные Штаты и Европейский союз. [87] [88]

Евросоюз

ЕС является одной из крупнейших юрисдикций в мире и играет активную роль в глобальном регулировании цифровых технологий посредством GDPR , [89] Закона о цифровых услугах , Закона о цифровых рынках . [90] [91] В частности, для ИИ Закон об искусственном интеллекте рассматривается в 2023 году как наиболее масштабное регулирование ИИ во всем мире. [92] [93]

Большинство стран Европейского союза (ЕС) имеют собственные национальные стратегии регулирования ИИ, но они в значительной степени совпадают. [63] Европейский союз руководствуется Европейской стратегией по искусственному интеллекту, [94] поддерживаемой Группой экспертов высокого уровня по искусственному интеллекту. [95] [96] В апреле 2019 года Европейская комиссия опубликовала свои Руководящие принципы этики для надежного искусственного интеллекта (ИИ) , [97] после чего в июне 2019 года опубликовала свои рекомендации по политике и инвестициям для надежного искусственного интеллекта . [98] Группа экспертов высокого уровня Комиссии ЕС по искусственному интеллекту проводит работу по надежному ИИ, и Комиссия опубликовала отчеты по аспектам безопасности и ответственности ИИ и по этике автоматизированных транспортных средств. В 2020 году Комиссия ЕС запросила мнения по предложению о специальном законодательстве по ИИ, и этот процесс продолжается. [63]

2 февраля 2020 года Европейская комиссия опубликовала свою Белую книгу об искусственном интеллекте — европейский подход к совершенству и доверию . [99] [100] Белая книга состоит из двух основных строительных блоков: «экосистемы совершенства» и «экосистемы доверия». «Экосистема доверия» описывает подход ЕС к нормативной базе для ИИ. В своем предлагаемом подходе Комиссия различает приложения ИИ на основе того, являются ли они «высокорискованными» или нет. Только высокорискованные приложения ИИ должны быть в сфере действия будущей нормативной базы ЕС. Приложение ИИ считается высокорискованным, если оно работает в рискованном секторе (например, здравоохранение, транспорт или энергетика) и «используется таким образом, что может возникнуть значительный риск». Для высокорисковых приложений ИИ требования в основном касаются: «данных для обучения», «данных и ведения учета», «предоставляемой информации», «надежности и точности» и «человеческого надзора». Существуют также требования, характерные для определенных видов использования, таких как удаленная биометрическая идентификация. Приложения ИИ, которые не квалифицируются как «высокорисковые», могут регулироваться добровольной схемой маркировки. Что касается соответствия и обеспечения соблюдения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и/или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в форме рамок для сотрудничества национальных компетентных органов могла бы способствовать внедрению нормативной базы. [101]

Проект от января 2021 года просочился в сеть 14 апреля 2021 года [102] до того, как Комиссия представила свое официальное «Предложение о Регламенте, устанавливающем гармонизированные правила в отношении искусственного интеллекта» неделю спустя. [103] Вскоре после этого на этой основе был официально предложен Закон об искусственном интеллекте (также известный как Закон об ИИ). [104] Это предложение включает в себя уточнение подхода, основанного на риске 2020 года, на этот раз с 4 категориями риска: «минимальный», «ограниченный», «высокий» и «неприемлемый». [105] Предложение подверглось резкой критике в ходе публичных дебатов. Ученые выразили обеспокоенность по поводу различных неясных элементов в предложении, таких как широкое определение того, что представляет собой ИИ, и опасались непреднамеренных правовых последствий, особенно для уязвимых групп, таких как пациенты и мигранты. [106] [107] Категория риска «ИИ общего назначения» была добавлена ​​в Закон об ИИ для учета универсальных моделей, таких как ChatGPT , которые не соответствовали структуре регулирования на основе приложений. [108] В отличие от других категорий риска, модели ИИ общего назначения могут регулироваться на основе их возможностей, а не только их использования. Более слабые модели ИИ общего назначения подлежат требованиям прозрачности, в то время как те, которые считаются представляющими «системные риски» (в частности, те, которые обучаются с использованием вычислительных возможностей, превышающих 10 25 FLOPS ), также должны проходить тщательную процедуру оценки. [109] Последующая версия Закона об ИИ была окончательно принята в мае 2024 года. [110] Закон об ИИ будет постепенно применяться. [111] Распознавание эмоций и удаленная биометрическая идентификация в реальном времени будут запрещены, с некоторыми исключениями, например, для правоохранительных органов. [112]

Наблюдатели выразили обеспокоенность по поводу увеличения числа законодательных предложений в рамках Комиссии фон дер Ляйен . Скорость законодательных инициатив частично обусловлена ​​политическими амбициями ЕС и может поставить под угрозу цифровые права европейских граждан, включая права на неприкосновенность частной жизни, [113] особенно в условиях неопределенных гарантий защиты данных посредством кибербезопасности. [96] Среди заявленных руководящих принципов в различных законодательных предложениях в области ИИ в рамках Комиссии фон дер Ляйен есть цели стратегической автономии [114] и концепция цифрового суверенитета. [115] 29 мая 2024 года Европейская счетная палата опубликовала отчет, в котором говорилось, что меры ЕС не были хорошо скоординированы с мерами стран ЕС; что мониторинг инвестиций не был систематическим; и что необходимо более сильное управление. [116]

Германия

В ноябре 2020 года [117] DIN , DKE и Федеральное министерство экономики и энергетики Германии опубликовали первое издание «Немецкой дорожной карты стандартизации для искусственного интеллекта» (NRM KI) и представили его общественности на Цифровом саммите Федерального правительства Германии. [118] NRM KI описывает требования к будущим правилам и стандартам в контексте ИИ. Реализация рекомендаций по действиям призвана помочь укрепить немецкую экономику и науку в международной конкуренции в области искусственного интеллекта и создать благоприятные для инноваций условия для этой новой технологии . Первое издание представляет собой документ объемом 200 страниц, написанный 300 экспертами. Второе издание NRM KI было опубликовано одновременно с Цифровым саммитом правительства Германии 9 декабря 2022 года. [119] DIN координировал более 570 участвующих экспертов из самых разных областей науки, промышленности, гражданского общества и государственного сектора. Второе издание представляет собой документ объемом 450 страниц.

С одной стороны, NRM KI охватывает основные темы с точки зрения приложений (например, медицина, мобильность, энергетика и окружающая среда, финансовые услуги, промышленная автоматизация) и фундаментальных вопросов (например, классификация ИИ, безопасность, сертифицируемость, социально-технические системы, этика). [119] С другой стороны, он дает обзор основных терминов в области ИИ и его среды в широком диапазоне групп интересов и источников информации. В общей сложности документ охватывает 116 потребностей в стандартизации и дает шесть основных рекомендаций для действий. [120]

G7

30 октября 2023 года члены G7 подпишут одиннадцать руководящих принципов проектирования, производства и внедрения современных систем искусственного интеллекта, а также добровольный Кодекс поведения для разработчиков искусственного интеллекта в контексте Хиросимского процесса. [121]

Соглашение получило одобрение Урсулы фон дер Ляйен , которая увидела в нем принципы Директивы по искусственному интеллекту, которая в настоящее время находится на стадии завершения.

Израиль

30 октября 2022 года в соответствии с постановлением правительства 212 от августа 2021 года Министерство инноваций, науки и технологий Израиля опубликовало для общественного обсуждения свой официальный документ «Принципы политики, регулирования и этики в области ИИ». [122] К декабрю 2023 года Министерство инноваций и Министерство юстиции опубликовали совместный документ о политике регулирования и этики ИИ, в котором изложены несколько этических принципов ИИ и набор рекомендаций, включая выбор секторального регулирования, подход, основанный на оценке рисков, предпочтение «мягких» инструментов регулирования и поддержание согласованности с существующими глобальными подходами к регулированию ИИ. [123]

Италия

В октябре 2023 года итальянский орган по защите конфиденциальности утвердил положение, которое устанавливает три принципа для терапевтических решений, принимаемых автоматизированными системами: прозрачность процессов принятия решений, человеческий надзор за автоматизированными решениями и алгоритмическая недискриминация. [124]

Новая Зеландия

По состоянию на июль 2023 года не существует специального законодательства об ИИ, но использование ИИ регулируется существующими законами, включая Закон о конфиденциальности , Закон о правах человека , Закон о добросовестной торговле и Закон о вредоносных цифровых коммуникациях . [125]

В 2020 году правительство Новой Зеландии спонсировало пилотный проект Всемирного экономического форума под названием «Переосмысление регулирования для эпохи ИИ», направленный на создание нормативно-правовой базы вокруг ИИ. [126] В том же году Закон о конфиденциальности был обновлен для регулирования использования личной информации новозеландцев в ИИ. [127] В 2023 году Комиссар по вопросам конфиденциальности выпустил руководство по использованию ИИ в соответствии с принципами конфиденциальности информации. [128] В феврале 2024 года Генеральный прокурор и министр технологий объявили о формировании парламентской межпартийной фракции по ИИ и о разработке рамок для использования ИИ правительством. Она также объявила, что на данном этапе не планируется никакого дополнительного регулирования. [129]

Филиппины

В 2023 году в Палату представителей Филиппин был подан законопроект , в котором предлагалось создать Управление по развитию искусственного интеллекта (AIDA), которое будет контролировать разработку и исследование искусственного интеллекта. AIDA также предлагалось сделать сторожевым псом против преступлений с использованием ИИ. [130]

Комиссия по выборам также рассмотрела в 2024 году запрет на использование ИИ и deepfake для агитации. Они стремятся внедрить правила, которые будут применяться уже на всеобщих выборах 2025 года. [131]

Испания

В 2018 году Министерство науки, инноваций и университетов Испании одобрило стратегию НИОКР в области искусственного интеллекта. [132]

С формированием второго правительства Педро Санчеса в январе 2020 года были усилены направления, связанные с новыми технологиями , которые с 2018 года находились в ведении Министерства экономики . Так, в 2020 году был создан Государственный секретариат по цифровизации и искусственному интеллекту (SEDIA). [133] Из этого высшего органа, следуя рекомендациям, данным в Стратегии НИОКР по искусственному интеллекту 2018 года, [134] была разработана Национальная стратегия искусственного интеллекта (2020), которая уже предусматривала действия, касающиеся управления искусственным интеллектом и этических стандартов, которые должны регулировать его использование. Этот проект также был включен в План восстановления, трансформации и устойчивости (2021).

В 2021 году [133] правительство объявило, что эти идеи будут разрабатываться посредством нового государственного агентства, а в Общем государственном бюджете на 2022 год было одобрено его создание и выделено пять миллионов евро на его разработку. [135]

Совет министров на своем заседании 13 сентября 2022 года начал процесс выборов в штаб-квартиру AESIA. [136] [137] 16 испанских провинций представили свои кандидатуры, при этом правительство остановило свой выбор на Ла-Корунье , которая предложила здание La Terraza. [138]

22 августа 2023 года правительство утвердило внутренние правила Агентства. [139] Таким образом, Испания стала первой европейской страной, в которой создано агентство, занимающееся надзором за ИИ, что предвосхищает вступление в силу будущего Европейского регламента об искусственном интеллекте, [140] который устанавливает необходимость наличия у государств-членов надзорного органа в этом вопросе.

Великобритания

Великобритания поддержала применение и развитие ИИ в бизнесе посредством Стратегии цифровой экономики 2015–2018 [141], представленной в начале 2015 года Innovate UK в рамках Цифровой стратегии Великобритании. [141] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта консультировал по вопросам этики данных, а Институт Алана Тьюринга предоставлял руководство по ответственному проектированию и внедрению систем ИИ. [142] [143] Что касается кибербезопасности, в 2020 году Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности». [46] [144] В следующем году Великобритания опубликовала свою 10-летнюю Национальную стратегию ИИ, [145] в которой описаны действия по оценке долгосрочных рисков ИИ, включая катастрофические риски, связанные с ИИ. [146]

В марте 2023 года Великобритания выпустила белую книгу «Проинновационный подход к регулированию ИИ» . [147] В этой белой книге представлены общие принципы ИИ, но существующим регулирующим органам предоставляется значительная гибкость в том, как они адаптируют эти принципы к конкретным областям, таким как транспорт или финансовые рынки. [148] В ноябре 2023 года в Великобритании прошел первый саммит по безопасности ИИ , на котором премьер-министр Риши Сунак поставил перед собой цель позиционировать Великобританию как лидера в регулировании безопасности ИИ . [149] [150] Во время саммита Великобритания создала Институт безопасности ИИ как эволюцию целевой группы Frontier AI во главе с Яном Хогартом . На институт была возложена особая ответственность за продвижение оценок безопасности самых передовых в мире моделей ИИ, также называемых frontier AI models . [151]

Правительство Великобритании заявило о своем нежелании принимать законы на раннем этапе, утверждая, что это может привести к снижению роста сектора и что законы могут устареть из-за дальнейшего технологического прогресса. [152]

Соединенные Штаты

Обсуждения регулирования ИИ в Соединенных Штатах включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, включая то, какое агентство должно руководить, регулирующие и руководящие полномочия этого агентства и как обновлять правила в условиях быстро меняющихся технологий, а также роли правительств штатов и судов. [153]

2016–2017

Еще в 2016 году администрация Обамы начала уделять внимание рискам и регулированию искусственного интеллекта. В отчете под названием « Подготовка к будущему искусственного интеллекта» [154] Национальный совет по науке и технологиям создал прецедент, позволяющий исследователям продолжать разрабатывать новые технологии ИИ с небольшими ограничениями. В отчете говорится, что «подход к регулированию продуктов с поддержкой ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска...». [155] Эти риски были бы основной причиной создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии ИИ.

2018–2019

Первым основным отчетом был Национальный стратегический план исследований и разработок в области искусственного интеллекта. [156] 13 августа 2018 года раздел 1051 Закона о национальной обороне имени Джона С. Маккейна на 2019 финансовый год (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту «для рассмотрения методов и средств, необходимых для продвижения разработки искусственного интеллекта, машинного обучения и связанных с ними технологий для всестороннего удовлетворения потребностей национальной безопасности и обороны Соединенных Штатов». [157] Руководство по регулированию ИИ, связанного с безопасностью, осуществляется Комиссией национальной безопасности по искусственному интеллекту. [158] Закон об инициативе в области искусственного интеллекта (S.1558) — это предлагаемый законопроект, который учредит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ, в частности , для экономической и национальной безопасности Соединенных Штатов. [159] [160]

7 января 2019 года, после Указа президента о сохранении лидерства Америки в области искусственного интеллекта, [161] Управление по научно-технической политике Белого дома опубликовало проект Руководства по регулированию приложений искусственного интеллекта , [162] который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. [163] В ответ на это Национальный институт стандартов и технологий опубликовал позиционный документ, [164] а Совет по инновациям в сфере обороны выпустил рекомендации по этическому использованию ИИ. [45] Год спустя администрация призвала прокомментировать регулирование в другом проекте своего Руководства по регулированию приложений искусственного интеллекта. [165]

Другие специальные агентства, работающие над регулированием ИИ, включают Управление по контролю за продуктами и лекарствами [39] , которое разработало пути регулирования внедрения ИИ в медицинскую визуализацию. [38] Национальный совет по науке и технологиям также опубликовал Национальный стратегический план исследований и разработок в области искусственного интеллекта [166] , который получил общественное внимание и рекомендации по его дальнейшему совершенствованию в целях обеспечения надежного ИИ. [167]

2021–2022

В марте 2021 года Комиссия по национальной безопасности по искусственному интеллекту опубликовала свой окончательный отчет. [168] В отчете они заявили, что «Достижения в области ИИ, включая освоение более общих возможностей ИИ по одному или нескольким измерениям, вероятно, предоставят новые возможности и приложения. Некоторые из этих достижений могут привести к переломным моментам или скачкам в возможностях. Такие достижения могут также привести к новым проблемам и рискам, а также к необходимости в новой политике, рекомендациях и технических достижениях для обеспечения соответствия систем целям и ценностям, включая безопасность, надежность и надежность. США должны следить за достижениями в области ИИ и делать необходимые инвестиции в технологии, а также уделять внимание политике, чтобы гарантировать, что системы ИИ и их использование соответствуют нашим целям и ценностям».

В июне 2022 года сенаторы Роб Портман и Гэри Питерс представили Закон о смягчении глобального катастрофического риска. Двухпартийный законопроект «также поможет противостоять риску искусственного интеллекта... от злоупотреблений способами, которые могут представлять катастрофический риск». [169] [170] 4 октября 2022 года президент Джо Байден представил новый Билль о правах ИИ, [171] в котором изложены пять мер защиты, которые должны быть у американцев в эпоху ИИ: 1. Безопасные и эффективные системы, 2. Защита от алгоритмической дискриминации, 3. Конфиденциальность данных, 4. Уведомление и объяснение и 5. Человеческие альтернативы, рассмотрение и откат. Законопроект был представлен в октябре 2021 года Управлением по политике в области науки и технологий (OSTP), правительственным департаментом США, который консультирует президента по вопросам науки и технологий. [172]

2023

В январе 2023 года Закон о предвзятом аудите города Нью-Йорка (Местный закон 144 [173] ) был принят Советом Нью-Йорка в ноябре 2021 года. Первоначально он должен был вступить в силу 1 января 2023 года, но дата вступления в силу Местного закона 144 была перенесена из-за большого количества комментариев, полученных в ходе публичных слушаний по предложенным Департаментом защиты прав потребителей и работников (DCWP) правилам для уточнения требований законодательства. В конечном итоге он вступил в силу 5 июля 2023 года. [174] С этой даты компаниям, работающим и нанимающим сотрудников в Нью-Йорке, запрещено использовать автоматизированные инструменты для найма кандидатов или продвижения сотрудников, если только инструменты не прошли независимую проверку на предвзятость.

Президент Байден встречается с сенаторами в Овальном кабинете по вопросам искусственного интеллекта (ИИ) в 2023 году.

В июле 2023 года администрация Байдена-Харриса заручилась добровольными обязательствами семи компаний — Amazon , Anthropic , Google , Inflection , Meta , Microsoft и OpenAI — по управлению рисками, связанными с ИИ. Компании обязались обеспечить, чтобы продукты ИИ проходили как внутреннее, так и внешнее тестирование безопасности перед публичным выпуском; делиться информацией об управлении рисками ИИ с отраслью, правительствами, гражданским обществом и академическими кругами; отдавать приоритет кибербезопасности и защищать фирменные компоненты систем ИИ; разрабатывать механизмы информирования пользователей о том, когда контент генерируется ИИ, такие как водяные знаки; публично сообщать о возможностях, ограничениях и областях использования своих систем ИИ; отдавать приоритет исследованиям социальных рисков, создаваемых ИИ, включая предвзятость, дискриминацию и проблемы конфиденциальности; и разрабатывать системы ИИ для решения социальных проблем, начиная от профилактики рака и заканчивая смягчением последствий изменения климата . В сентябре 2023 года еще восемь компаний — Adobe , Cohere , IBM , Nvidia , Palantir , Salesforce , Scale AI и Stability AI — подписались под этими добровольными обязательствами. [175] [176]

Администрация Байдена в октябре 2023 года дала понять, что выпустит указ, использующий покупательную способность федерального правительства для формирования правил ИИ, намекая на проактивную позицию правительства в регулировании технологий ИИ. [177] 30 октября 2023 года президент Байден выпустил этот указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте . В указе рассматривается ряд вопросов, таких как сосредоточение внимания на стандартах для критической инфраструктуры, кибербезопасности с использованием ИИ и финансируемых из федерального бюджета проектов биологического синтеза. [178]

Указ президента предоставляет полномочия различным агентствам и департаментам правительства США, включая министерства энергетики и обороны, применять существующие законы о защите прав потребителей к разработке ИИ. [179]

Указ президента основывается на предыдущих соглашениях администрации с компаниями, занимающимися разработкой ИИ, о введении новых инициатив по «контролю рисков» или стресс-тестированию моделей двойного назначения ИИ, особенно тех, которые потенциально могут представлять угрозу безопасности, с предоставлением данных и результатов федеральному правительству.

В указе также признаются социальные проблемы ИИ, и компаниям, создающим модели фундамента двойного назначения ИИ, следует быть осторожнее с этими социальными проблемами. Например, в указе говорится, что ИИ не должен «ухудшать качество работы» и не должен «вызывать перебои в работе рабочей силы». Кроме того, указ Байдена предписывает, что ИИ должен «продвигать равенство и гражданские права» и не может ставить в невыгодное положение маргинализированные группы. [180] Он также призвал к тому, чтобы модели фундамента включали «водяные знаки», чтобы помочь общественности различать контент, созданный человеком и ИИ, что вызвало споры и критику со стороны исследователей обнаружения дипфейков. [181]

2024

В феврале 2024 года сенатор Скотт Винер представил Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта в законодательное собрание Калифорнии. Законопроект во многом опирался на указ Байдена . [182] Его цель заключалась в снижении катастрофических рисков путем обязательного проведения испытаний безопасности для самых мощных моделей ИИ. В случае принятия законопроект также создал бы в Калифорнии финансируемый государством кластер облачных вычислений. [183] ​​29 сентября губернатор Гэвин Ньюсом наложил вето на законопроект. Маловероятно, что законодательный орган отменит вето губернатора двумя третями голосов обеих палат. [184]

21 марта 2024 года штат Теннесси принял закон под названием « Закон об Элвисе» , направленный конкретно на аудиоподделки и клонирование голоса. [185] Этот закон стал первым принятым в стране законодательством, направленным на регулирование имитации изображения, голоса и образа с помощью искусственного интеллекта. [186] Законопроект был единогласно принят Палатой представителей и Сенатом Теннесси . [187] Сторонники надеялись, что успех этого закона вдохновит на аналогичные действия в других штатах, что будет способствовать единому подходу к авторскому праву и конфиденциальности в цифровую эпоху и усилит важность защиты прав художников от несанкционированного использования их голосов и образов. [188] [189]

13 марта 2024 года губернатор Юты Спенсер Кокс подписал законопроект SB 149 «О политике в области искусственного интеллекта». Этот законопроект вступает в силу 1 мая 2024 года. Он устанавливает ответственность, в частности, для компаний, которые не раскрывают информацию об использовании генеративного ИИ, когда этого требуют законы штата о защите прав потребителей, или когда пользователи совершают уголовные преступления с использованием генеративного ИИ. Он также создает Управление политики в области искусственного интеллекта и Программу лаборатории обучения искусственному интеллекту . [190] [191]

Регулирование полностью автономного оружия

Правовые вопросы, связанные со смертоносными автономными системами оружия (LAWS), в частности, соблюдение законов вооруженного конфликта , обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенции о конкретных видах обычного оружия . [192] В частности, неофициальные встречи экспертов состоялись в 2014, 2015 и 2016 годах, а в 2016 году была назначена Группа правительственных экспертов (GGE) для дальнейшего обсуждения этого вопроса. В 2018 году был принят набор руководящих принципов по LAWS, утвержденных GGE по LAWS. [193]

В 2016 году Китай опубликовал позиционный документ, в котором подверг сомнению адекватность существующего международного права для решения вопроса о возможности появления полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН , поднявшим этот вопрос [47] , что привело к предложениям по глобальному регулированию. [194] Возможность моратория или упреждающего запрета на разработку и использование LAWS также неоднократно поднималась другими национальными делегациями Конвенции о некоторых видах обычного оружия и решительно отстаивается Кампанией по остановке роботов-убийц — коалицией неправительственных организаций. [195] Правительство США утверждает, что действующее международное гуманитарное право способно регулировать разработку или использование LAWS. [196] Исследовательская служба Конгресса указала в 2023 году, что в арсенале США нет LAWS, но что их политика не запрещает их разработку и применение. [197]

Смотрите также

Ссылки

  1. ^ Кэт, Коринн (2018). «Управление искусственным интеллектом: этические, правовые и технические возможности и проблемы». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 376 (2133): 20180080. Bibcode : 2018RSPTA.37680080C. doi : 10.1098 /rsta.2018.0080 . PMC  6191666. PMID  30322996.
  2. ^ Эрдейи, Оливия Дж.; Голдсмит, Джуди (2020). «Регулирование искусственного интеллекта: предложение глобального решения». arXiv : 2005.11072 [cs.CY].
  3. ^ Таллберг, Йонас; Эрман, Ева; Фюрендаль, Маркус; Гейт, Йоханнес; Кламберг, Марк; Лундгрен, Магнус (2023). «Глобальное управление искусственным интеллектом: следующие шаги для эмпирических и нормативных исследований». Обзор международных исследований . 25 (3). arXiv : 2305.11528 . doi : 10.1093/isr/viad040 .
  4. ^ Хедер, М (2020). «Критика этических принципов ИИ». Информация о Тарсадале . 20 (4): 57–73. дои : 10.22503/inftars.XX.2020.4.5 . S2CID  233252939.
  5. ^ Кертис, Кейтлин; Джиллеспи, Николь; Локки, Стивен (24.05.2022). «Организации, внедряющие ИИ, играют ключевую роль в решении проблемы «идеального шторма» рисков ИИ». AI and Ethics . 3 (1): 145–153. doi :10.1007/s43681-022-00163-7. ISSN  2730-5961. PMC 9127285. PMID 35634256.  Архивировано из оригинала 15.03.2023 . Получено 30.05.2022 . 
  6. ^ "Этический подход к ИИ — абсолютный императив, Андреас Каплан". Архивировано из оригинала 17 декабря 2019 г. Получено 26 апреля 2021 г.
  7. ^ abcde Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S. дои : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  8. ^ ab Vincent, James (3 апреля 2023 г.). «ИИ вступает в эпоху корпоративного контроля». The Verge . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
  9. ^ "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (PDF) . AI Index. 2023. Архивировано (PDF) из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
  10. ^ ab "Илон Маск предупреждает губернаторов: искусственный интеллект представляет собой "экзистенциальный риск"". NPR.org . Архивировано из оригинала 23 апреля 2020 г. Получено 27 ноября 2017 г.
  11. ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ, чтобы бороться с «экзистенциальной угрозой», пока не стало слишком поздно». The Guardian . Архивировано из оригинала 6 июня 2020 г. Получено 27 ноября 2017 г.
  12. ^ Kharpal, Arjun (7 ноября 2017 г.). «Искусственный интеллект находится в «младенчестве», и его еще рано регулировать, говорит генеральный директор Intel Брайан Кржанич». CNBC . Архивировано из оригинала 22 марта 2020 г. Получено 27 ноября 2017 г.
  13. ^ Чемберлен, Йоханна (март 2023 г.). «Подход, основанный на рисках, к предлагаемому регулированию искусственного интеллекта Европейского союза: некоторые комментарии с точки зрения деликтного права». Европейский журнал регулирования рисков . 14 (1): 1–13. doi :10.1017/err.2022.38. ISSN  1867-299X. Архивировано из оригинала 12.03.2024 . Получено 12.03.2024 .
  14. ^ Каплан, Андреас; Хенлейн, Михаэль (2019). «Siri, Siri, в моей руке: кто прекраснее всех на свете? Об интерпретациях, иллюстрациях и последствиях искусственного интеллекта». Business Horizons . 62 : 15–25. doi : 10.1016/j.bushor.2018.08.004. S2CID  158433736.
  15. ^ Эдвардс, Бендж (17 мая 2023 г.). «Опрос: ИИ представляет опасность для человечества, по мнению большинства американцев». Ars Technica . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
  16. ^ Касперович, Питер (1 мая 2023 г.). «Регулировать ИИ? Республиканская партия гораздо более скептически, чем демократы, относится к тому, что правительство может сделать это правильно: опрос». Fox News . Архивировано из оригинала 19 июня 2023 г. Получено 19 июня 2023 г.
  17. ^ "Fox News Poll" (PDF) . Fox News. 2023. Архивировано (PDF) из оригинала 12 мая 2023 года . Получено 19 июня 2023 года .
  18. ^ Барфилд, Вудроу; Пагалло, Уго (2018). Справочник по исследованию права искусственного интеллекта . Челтнем, Великобритания: Edward Elgar Publishing. ISBN 978-1-78643-904-8. OCLC  1039480085.
  19. ^ ab Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018-07-24). «Искусственный интеллект и государственный сектор — приложения и проблемы». International Journal of Public Administration . 42 (7): 596–615. doi :10.1080/01900692.2018.1498103. ISSN  0190-0692. S2CID  158829602. Архивировано из оригинала 2020-08-18 . Получено 2020-08-17 .
  20. ^ ab Buiten, Miriam C. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта». Европейский журнал регулирования рисков . 10 (1): 41–59. doi : 10.1017/err.2019.8 .
  21. ^ Мантелеро, Алессандро; Эспозито, Мария Саманта (2021). «Доказательная методология оценки воздействия на права человека (HRIA) при разработке систем искусственного интеллекта с интенсивным использованием данных». Computer Law & Security Review . 41 : 105561. arXiv : 2407.20951 . doi : 10.1016/j.clsr.2021.105561 . ISSN  0267-3649. S2CID  237588123.
  22. ^ ab Искусственный интеллект в обществе . Париж: Организация экономического сотрудничества и развития. 11 июня 2019 г. ISBN 978-92-64-54519-9. OCLC  1105926611.
  23. ^ Камышанский, Владимир П.; Руденко, Евгения Ю.; Коломиец, Евгений А.; Крипакова, Дина Р. (2020), «Возвращаясь к месту искусственного интеллекта в обществе и государстве», Искусственный интеллект: антропогенная природа против социального происхождения , Достижения в области интеллектуальных систем и вычислений, т. 1100, Cham: Springer International Publishing, стр. 359–364, doi : 10.1007/978-3-030-39319-9_41, ISBN 978-3-030-39318-2, S2CID  213070224
  24. ^ "Специальный выпуск по мягкому правовому управлению искусственным интеллектом: информация о публикации журнала IEEE Technology and Society Magazine". Журнал IEEE Technology and Society . 40 (4): C2. Декабрь 2021 г. doi : 10.1109/MTS.2021.3126194 .
  25. ^ abcde Марчант, Гэри. "Управление ИИ на основе "мягкого права"" (PDF) . AI Pulse . Документы AI PULSE. Архивировано (PDF) из оригинала 21 марта 2023 г. . Получено 28 февраля 2023 г. .
  26. ^ abc Джонсон, Уолтер Г.; Боуман, Диана М. (декабрь 2021 г.). «Обзор инструментов и институтов, доступных для глобального управления искусственным интеллектом». Журнал IEEE Technology and Society . 40 (4): 68–76. doi :10.1109/MTS.2021.3123745. S2CID  245053179.
  27. ^ Сатклифф, Хиллари Р.; Браун, Саманта (декабрь 2021 г.). «Доверие и мягкое право для ИИ». Журнал IEEE Technology and Society . 40 (4): 14–24. doi :10.1109/MTS.2021.3123741. S2CID  244955938.
  28. ^ ab Schmit, CD; Doerr, MJ; Wagner, JK (17 февраля 2023 г.). «Использование интеллектуальной собственности для управления ИИ». Science . 379 (6633): 646–648. Bibcode :2023Sci...379..646S. doi :10.1126/science.add2202. PMID  36795826. S2CID  256901479.
  29. ^ Лима-Стронг, Кристиано (16 мая 2024 г.). «Молодёжные активисты призывают мировых лидеров установить меры безопасности в отношении ИИ к 2030 году». Washington Post . Получено 24 июня 2024 г.
  30. ^ Халдейн, Мэтт (21 мая 2024 г.). «Студенты-активисты ИИ в Encode Justice выпускают 22 цели на 2030 год в преддверии глобального саммита в Сеуле». Архивировано из оригинала 25 сентября 2024 г. Получено 24 июня 2024 г.
  31. ^ Фьельд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадху (15.01.2020). Принципиальный искусственный интеллект: отображение консенсуса в этических и основанных на правах подходах к принципам для ИИ (отчет). Berkman Klein Center for Internet & Society. Архивировано из оригинала 16.07.2021 . Получено 04.07.2021 .
  32. ^ Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (2020-04-15). «Темные стороны искусственного интеллекта: интегрированная структура управления ИИ для государственного управления». Международный журнал государственного управления . 43 (9): 818–829. doi : 10.1080/01900692.2020.1749851. ISSN  0190-0692. S2CID  218807452.
  33. ^ ab Bredt, Stephan (2019-10-04). «Искусственный интеллект (ИИ) в финансовом секторе — потенциал и государственные стратегии». Frontiers in Artificial Intelligence . 2 : 16. doi : 10.3389/frai.2019.00016 . ISSN  2624-8212. PMC 7861258. PMID 33733105  . 
  34. ^ Белая книга abc : Об искусственном интеллекте — Европейский подход к совершенству и доверию (PDF) . Брюссель: Европейская комиссия. 2020. С. 1.
  35. ^ Wirtz, Bernd W.; Müller, Wilhelm M. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Public Management Review . 21 (7): 1076–1100. doi :10.1080/14719037.2018.1549268. ISSN  1471-9037. S2CID  158267709.
  36. ^ Рейсман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа для подотчетности государственных органов (PDF) . Нью-Йорк: Институт AI Now. Архивировано из оригинала (PDF) 14.06.2020 . Получено 28.04.2020 .
  37. ^ ab "Towards Responsible Artificial Intelligence Innovation". UNICRI . Июль 2020. Архивировано из оригинала 2022-07-05 . Получено 2022-07-18 .
  38. ^ ab Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019). «Концепции регулирования искусственного интеллекта для медицинской визуализации Управлением по контролю за продуктами и лекарствами США». American Journal of Roentgenology . 213 (4): 886–888. doi :10.2214/ajr.18.20410. ISSN  0361-803X. PMID  31166758. S2CID  174813195. Архивировано из оригинала 25.09.2024 . Получено 27.03.2021 .
  39. ^ ab Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (2019-12-17). «Регулирование жизненного цикла устройств на основе искусственного интеллекта и машинного обучения в медицине». JAMA . 322 (23): 2285–2286. doi :10.1001/jama.2019.16842. ISSN  0098-7484. PMID  31755907. S2CID  208230202. Архивировано из оригинала 25.09.2024 . Получено 27.03.2021 .
  40. ^ Шарма, Кавита; Манчиканти, Падмавати (2020-10-01). «Регулирование искусственного интеллекта в разработке лекарств и здравоохранении». Biotechnology Law Report . 39 (5): 371–380. doi :10.1089/blr.2020.29183.ks. ISSN  0730-031X. S2CID  225540889. Архивировано из оригинала 2024-09-25 . Получено 2021-03-27 .
  41. ^ Петкус, Гарольдас; Хугеверф, Ян; Уайетт, Джереми С. (2020). «Что думают старшие врачи об ИИ и системах поддержки принятия клинических решений: количественный и качественный анализ данных из специализированных обществ». Клиническая медицина . 20 (3): 324–328. doi :10.7861/clinmed.2019-0317. ISSN  1470-2118. PMC 7354034. PMID 32414724  . 
  42. ^ Ченг, Джером Ю.; Абель, Джейкоб Т.; Балис, Улисс Дж. Дж.; МакКлинток, Дэвид С.; Пантановиц, Лирон (2021). «Проблемы разработки, внедрения и регулирования искусственного интеллекта в анатомической патологии». Американский журнал патологии . 191 (10): 1684–1692. doi : 10.1016/j.ajpath.2020.10.018 . ISSN  0002-9440. PMID  33245914. S2CID  227191875.
  43. ^ abc Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). «Удушение искусственного интеллекта: человеческие опасности». Computer Law & Security Review . 32 (5): 749–758. doi :10.1016/j.clsr.2016.05.003. ISSN  0267-3649.
  44. ^ Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Contemporary Social Science . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  45. ^ ab Принципы ИИ: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны (PDF) . Вашингтон, округ Колумбия: Совет по инновациям в области обороны США. 2019. OCLC  1126650738. Архивировано (PDF) из оригинала 14.01.2020 . Получено 28.03.2020 .
  46. ^ abc Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF) . Лондон: Королевский объединенный институт оборонных исследований. Архивировано из оригинала (PDF) 2020-05-02 . Получено 2020-04-28 .
  47. ^ ab "Роботы с оружием: расцвет автономных систем вооружения". Snopes.com . 21 апреля 2017 г. Архивировано из оригинала 25 сентября 2024 г. Получено 24 декабря 2017 г.
  48. ^ Бенто, Лукас (2017). «No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law». Гарвардский депозитарий стипендий . Архивировано из оригинала 2020-03-23 . Получено 2019-09-14 .
  49. ^ Киссинджер, Генри (1 ноября 2021 г.). «Проблема бытия человеком в эпоху ИИ». The Wall Street Journal . Архивировано из оригинала 4 ноября 2021 г. Получено 4 ноября 2021 г.
  50. ^ ab Барретт, Энтони М.; Баум, Сет Д. (2016-05-23). ​​«Модель путей к катастрофе искусственного суперинтеллекта для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . doi :10.1080/0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  51. ^ "Отчет об индексе ИИ 2024 г. - глава 3: Ответственный ИИ" (PDF) . aiindex.stanford.edu . Апрель 2024 г. Архивировано (PDF) из оригинала 24.05.2024 . Получено 07.06.2024 .
  52. ^ Бойд, Мэтью; Уилсон, Ник (01.11.2017). «Быстрые разработки в области искусственного интеллекта: как может отреагировать правительство Новой Зеландии?». Policy Quarterly . 13 (4). doi : 10.26686/pq.v13i4.4619 . ISSN  2324-1101.
  53. ^ Инновации, наука и экономическое развитие Канады (2019-05-16). "Декларация Международной группы экспертов по искусственному интеллекту". gcnws . Архивировано из оригинала 2020-03-29 . Получено 2020-03-29 .
  54. ^ Саймонит, Том (2020-01-08). «У мира есть план по обузданию ИИ, но США он не нравится». Wired . Архивировано из оригинала 2020-04-18 . Получено 2020-03-29 .
  55. ^ ab "Регулирование ИИ: пришло ли время?". InformationWeek . 24 февраля 2020 г. Архивировано из оригинала 23-05-2020 . Получено 29-03-2020 .
  56. ^ abcdefg Доклад ЮНЕСКО по науке: гонка со временем за более разумное развитие. Париж: ЮНЕСКО. 11 июня 2021 г. ISBN 978-92-3-100450-6. Архивировано из оригинала 18 июня 2022 . Получено 18 сентября 2021 .
  57. ^ "Сообщество". GPAI . Архивировано из оригинала 30 марта 2023 г.
  58. ^ "Обзор принципов ИИ". OECD.AI. Архивировано из оригинала 2023-10-23 . Получено 2023-10-20 .
  59. ^ Заявление министров G20 по торговле и цифровой экономике (PDF) . Цукуба, Япония: G20. 2019.
  60. ^ "Международная этическая комиссия ИИ должна быть независимой". Nature . 572 (7770): 415. 2019-08-21. Bibcode :2019Natur.572R.415.. doi : 10.1038/d41586-019-02491-x . PMID  31435065.
  61. ^ Руководство по закупкам ИИ (PDF) . Колоньи/Женева: Всемирный экономический форум. 2019. Архивировано (PDF) из оригинала 2020-07-17 . Получено 2020-04-28 .
  62. ^ "High-Level Event: Artificial Intelligence and Robotics – Reshaping the Future of Crime, Terrorism and Security". UNICRI . Архивировано из оригинала 2022-07-18 . Получено 2022-07-18 .
  63. ^ abcd NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Assessing the Appetite for Trustworthiness and the Regulation of Artificial Intelligence in Europe (PDF) . Дублин: Технологический университет Дублина, Школа компьютерных наук, Дублин. стр. 1–12. Архивировано (PDF) из оригинала 2021-01-15 . Получено 2021-03-27 . В эту статью включен текст, доступный по лицензии CC BY 4.0. (Лицензия CC BY 4.0 означает, что каждый имеет право повторно использовать текст, который здесь цитируется, или другие части исходной статьи, при условии указания авторов. Дополнительная информация: лицензия Creative Commons ) Были внесены следующие изменения: удалены цитаты и внесены незначительные грамматические поправки.
  64. ^ «Рекомендация по этике искусственного интеллекта». ЮНЕСКО . 2020-02-27. Архивировано из оригинала 2022-07-18 . Получено 2022-07-18 .
  65. ^ Nindler, Reinmar (2019-03-11). «Возможности Организации Объединенных Наций управлять экзистенциальными рисками с упором на искусственный интеллект». International Community Law Review . 21 (1): 5–34. doi : 10.1163/18719732-12341388. ISSN  1871-9740. S2CID  150911357. Архивировано из оригинала 2022-08-30 . Получено 2022-08-30 .
  66. ^ "About". AI for Good . Архивировано из оригинала 2019-04-27 . Получено 2023-04-06 .
  67. ^ Таддео, Мариаросария; Флориди, Лучано (апрель 2018 г.). «Регулировать искусственный интеллект, чтобы предотвратить гонку кибервооружений». Nature . 556 (7701): 296–298. Bibcode :2018Natur.556..296T. doi : 10.1038/d41586-018-04602-6 . PMID  29662138.
  68. ^ Джайсвал, Ришаб (5 сентября 2024 г.). «США, Великобритания и ЕС подпишут первый международный договор об ИИ». Reuters . Получено 7 сентября 2024 г.
  69. ^ "Искусственный интеллект и робототехника". UNICRI . Архивировано из оригинала 2020-10-19 . Получено 2020-08-08 .
  70. ^ Юридическая библиотека Конгресса (США). Глобальное управление правовых исследований, издательский орган. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN  2019668143. OCLC  1110727808.
  71. ^ Попова, Анна В.; Горохова, Светлана С.; Абрамова, Марианна Г.; Балашкина, Ирина В. (2021), Система права и искусственный интеллект в современной России: цели и инструменты цифровой модернизации, Исследования в области систем, принятия решений и управления, т. 314, Cham: Springer International Publishing, стр. 89–96, doi :10.1007/978-3-030-56433-9_11, ISBN 978-3-030-56432-2, S2CID  234309883, заархивировано из оригинала 2024-09-25 , извлечено 2021-03-27
  72. ^ "OECD Observatory of Public Sector Innovation – Ai Strategies and Public Sector Components". Архивировано из оригинала 2024-09-25 . Получено 2020-05-04 .
  73. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF) . Париж: Обсерватория инноваций в государственном секторе ОЭСР. Архивировано (PDF) из оригинала 20.12.2019 . Получено 05.05.2020 .
  74. ^ Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF) . Evergreen, CO: FutureGrasp, LLC. Архивировано из оригинала (PDF) 31 марта 2020 г.
  75. ^ Брэдфорд, Ану (27.06.2023). «Гонка за регулирование искусственного интеллекта». Foreign Affairs . ISSN  0015-7120. Архивировано из оригинала 11.08.2023 . Получено 11.08.2023 .
  76. ^ ab "Австралии нужен национальный подход к стратегии ИИ". Information Age . Получено 2023-11-08 .
  77. ^ Инновации, наука и экономическое развитие Канады (2022-06-22). "Правительство Канады запускает вторую фазу Панканадской стратегии искусственного интеллекта". www.canada.ca . Архивировано из оригинала 2023-10-26 . Получено 2023-10-24 .
  78. ^ Правительство Канады (18.08.2022). "Bill C-27 summary: Digital Charter Implementation Act, 2022". ised-isde.canada.ca . Архивировано из оригинала 20.12.2023 . Получено 24.10.2023 .
  79. ^ «Правительственный законопроект (Палата общин) C-27 (44–1) – Первое чтение – Закон о реализации Цифровой хартии, 2022 – Парламент Канады». www.parl.ca . Получено 2022-07-12 .
  80. ^ The Moroccan Times (2024-04-24). «Марокко предлагает законодательство для Национального агентства по искусственному интеллекту». The Moroccan Times . Архивировано из оригинала 2024-04-25 . Получено 2024-04-25 .
  81. ^ Государственный совет Китая. «План развития искусственного интеллекта нового поколения». www.unodc.org . Архивировано из оригинала 7 июня 2023 г. . Получено 18 июля 2022 г.
  82. ^ Департамент международного сотрудничества Министерства науки и технологий (сентябрь 2017 г.). «План развития искусственного интеллекта следующего поколения, выпущенный Государственным советом» (PDF) . China Science & Technology Newsletter (17): 2–12. Архивировано из оригинала (PDF) 21 января 2022 г. – через Министерство иностранных дел Китая .
  83. ^ Ву, Фей; Лу, Севу; Чжу, Минцзе; Чен, Хао; Чжу, Цзюнь; Ю, Кай; Ли, Лей; Ли, Мин; Чен, Цяньфэн; Ли, Си; Цао, Сюдун (2020). «На пути к новому поколению искусственного интеллекта в Китае». Природный машинный интеллект . 2 (6): 312–316. дои : 10.1038/s42256-020-0183-4. ISSN  2522-5839. S2CID  220507829. Архивировано из оригинала 18 июля 2022 г. Проверено 18 июля 2022 г.
  84. ^ "Опубликованы этические нормы для искусственного интеллекта нового поколения". Центр безопасности и новых технологий . Архивировано из оригинала 2023-02-10 . Получено 2022-07-18 .
  85. ^ "Китай только что дал миру план по господству в генеративном ИИ" Fortune . Архивировано из оригинала 2023-07-24 . Получено 2023-07-24 .
  86. ^ "Совет Европы и искусственный интеллект". Искусственный интеллект . Архивировано из оригинала 2024-01-19 . Получено 2021-07-29 .
  87. ^ "Рамочная конвенция об искусственном интеллекте". Совет Европы . Архивировано из оригинала 2024-09-05 . Получено 2024-09-05 .
  88. ^ "Совет Европы открывает первый в истории глобальный договор об ИИ для подписания". Совет Европы . 5 сентября 2024 г. Архивировано из оригинала 2024-09-17 . Получено 2024-09-17 .
  89. ^ Пойкерт, Кристиан; Бехтольд, Стефан; Кречмер, Тобиас; Батикас, Михаил (30.09.2020). «Регулятивный экспорт и перетоки: как GDPR влияет на мировые рынки данных». CEPR . Архивировано из оригинала 26.10.2023 . Получено 26.10.2023 .
  90. ^ Коултер, Мартин (2023-08-24). "Big Tech braces for EU Digital Services Act Regulations". Reuters . Архивировано из оригинала 2023-10-26 . Получено 2023-10-26 .
  91. ^ "Новая роль Европы в цифровом регулировании". Le Monde.fr . 2023-08-28. Архивировано из оригинала 2023-10-26 . Получено 2023-10-26 .
  92. ^ Сатариано, Адам (14.06.2023). «Европейцы делают важный шаг к регулированию ИИ» The New York Times . ISSN  0362-4331. Архивировано из оригинала 26.10.2023 . Получено 25.10.2023 .
  93. ^ Браун, Райан (2023-06-14). «Законодатели ЕС принимают знаковое положение об искусственном интеллекте». CNBC . Архивировано из оригинала 2023-10-26 . Получено 2023-10-25 .
  94. ^ Аноним (2018-04-25). «Коммуникационный искусственный интеллект для Европы». Формирование цифрового будущего Европы – Европейская комиссия . Архивировано из оригинала 2020-05-13 . Получено 2020-05-05 .
  95. ^ smuhana (2018-06-14). "Высокоуровневая экспертная группа по искусственному интеллекту". Формирование цифрового будущего Европы – Европейская комиссия . Архивировано из оригинала 2019-10-24 . Получено 2020-05-05 .
  96. ^ ab Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2021-01-02). «Регулятивные пересечения между искусственным интеллектом, защитой данных и кибербезопасностью: вызовы и возможности для правовой базы ЕС». AI & Society . 36 (2): 623–636. doi :10.1007/s00146-020-01125-5. ISSN  0951-5666. S2CID  230109912. Архивировано из оригинала 25.09.2024 . Получено 27.03.2021 .
  97. ^ «Руководящие принципы этики для надежного ИИ». Европейская комиссия . 2019. Архивировано из оригинала 29.03.2023 . Получено 30.05.2022 .
  98. ^ «Рекомендации по политике и инвестициям для надежного искусственного интеллекта». Формирование цифрового будущего Европы – Европейская комиссия . 2019-06-26 . Получено 2020-05-05 .
  99. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию». Европейская комиссия . 19 февраля 2020 г. Архивировано из оригинала 2024-01-05 . Получено 2021-06-07 .
  100. ^ Бродбент, Мередит (17 марта 2021 г.). «Что ждет кооперативную повестку дня по регулированию искусственного интеллекта?». www.csis.org . Архивировано из оригинала 7 июня 2021 г. . Получено 07.06.2021 .
  101. ^ Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию . OCLC  1141850140.
  102. ^ Хейккиля, Мелисса (14.04.2021). «POLITICO AI: Расшифровка: правила ЕС по искусственному интеллекту — Финляндия разговаривает с машинами — проект Facebook по обеспечению справедливости» (информационный бюллетень). POLITICO . Получено 14.05.2021.
  103. ^ Европейская комиссия (21.04.2021). Европа в цифровом веке: Комиссия предлагает новые правила и действия для достижения совершенства и доверия к искусственному интеллекту. Архивировано 14.05.2021 в Wayback Machine (пресс-релиз). Получено 14.05.2021.
  104. ^ Пери, Эндрю (2021-10-06). «Надежный искусственный интеллект и интеллектуальный анализ процессов: проблемы и возможности». DeepAI . Архивировано из оригинала 2022-02-18 . Получено 2022-02-27 .
  105. ^ Браун, Райан (15.05.2023). «Европа нацелилась на ChatGPT с помощью того, что вскоре может стать первым законом об искусственном интеллекте на Западе. Вот что это значит». CNBC . Получено 25.10.2023 .
  106. ^ Veale, Michael; Borgesius, Frederik Zuiderveen (01.08.2021). «Demystifying the Draft EU Artificial Intelligence Act — Analysing the good, the bad, and the unreliable elements of the proposed approach» (Разоблачение проекта закона ЕС об искусственном интеллекте — анализ хороших, плохих и неясных элементов предлагаемого подхода). Computer Law Review International . 22 (4): 97–112. arXiv : 2107.03721 . doi : 10.9785/cri-2021-220402. ISSN  2194-4164. S2CID  235765823. Архивировано из оригинала 26.03.2023 . Получено 12.01.2023 .
  107. ^ van Kolfschooten, Hannah (январь 2022 г.). «Регулирование искусственного интеллекта в ЕС: проблемы прав пациентов». Common Market Law Review . 59 (1): 81–112. doi : 10.54648/COLA2022005. S2CID  248591427. Архивировано из оригинала 25.09.2024 . Получено 10.12.2023 .
  108. ^ Coulter, Martin (7 декабря 2023 г.). «Что такое Закон ЕС об искусственном интеллекте и когда его регулирование вступит в силу?». Reuters . Архивировано из оригинала 2023-12-10 . Получено 2024-06-01 .
  109. ^ Бертуцци, Лука (7 декабря 2023 г.). «Закон об ИИ: политики ЕС устанавливают правила для моделей ИИ, спорят о правоприменении». euractiv . Архивировано из оригинала 8 января 2024 г. . Получено 1 июня 2024 г. .
  110. ^ Браун, Райан (21.05.2024). «Первый в мире крупный закон об искусственном интеллекте получает окончательный зеленый свет ЕС». CNBC . Архивировано из оригинала 21.05.2024 . Получено 01.06.2024 .
  111. ^ «Закон об искусственном интеллекте: депутаты Европарламента приняли знаковый закон». Европейский парламент . 2024-03-13. Архивировано из оригинала 2024-03-15 . Получено 2024-06-01 .
  112. ^ «Эксперты реагируют: ЕС заключил соглашение по правилам ИИ. Но смогут ли регуляторы двигаться со скоростью технологий?». Atlantic Council . 11 декабря 2023 г.
  113. ^ Натале, Лара (февраль 2022 г.). «Цифровые амбиции ЕС сопряжены со стратегическим диссонансом». Encompass . Получено 25 февраля 2022 г.
  114. ^ Бертуцци, Лука; Киллин, Молли (17 сентября 2021 г.). «Digital Brief powered by Google: make it or break it, Chips Act, показывая путь». Euractiv . Получено 25 февраля 2022 г.
  115. ^ Пропп, Кеннет (7 февраля 2022 г.). «Новая мантра Франции: свобода, равенство, цифровой суверенитет». Atlantic Council . Архивировано из оригинала 25 февраля 2022 г. Получено 25 февраля 2022 г.
  116. ^ «Искусственный интеллект: ЕС должен набрать темп». Европейская счетная палата . 29 мая 2024 г. Архивировано из оригинала 25 сентября 2024 г. Получено 29 мая 2024 г.
  117. ^ Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. «KI – Made in Germany» etablieren». www.bmwk.de (на немецком языке). Архивировано из оригинала 12 июня 2023 года . Проверено 12 июня 2023 г.
  118. ^ "DIN, DKE и BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz" . полностью электроника (на немецком языке) . Проверено 12 июня 2023 г.
  119. ^ аб Рунзе, Герхард; Хаймерл, Мартин; Хауэр, Марк; Голояд, Тарас; Оберт, Отто; Пёлс, Генрих; Тагиев, Рустам; Зин, Йенс (2023). «Ein Werkzeug für eine gemeinsame KI-Terminologie – Das AI-Glossary als Weg aus Babylon». Java Spektrum (на немецком языке) (3): 42–46. Архивировано из оригинала 27 апреля 2024 г. Проверено 12 июня 2023 г.
  120. ^ "Normungsroadmap Künstliche Intelligenz" . www.dke.de (на немецком языке) . Проверено 12 июня 2023 г.
  121. ^ "Hiroshima Process International Guiding Principles for Advanced AI system | Shaping Europe's digital future". digital-strategy.ec.europa.eu . 2023-10-30. Архивировано из оригинала 2023-11-01 . Получено 2023-11-01 .
  122. ^ Кахане, Амир (13 ноября 2022 г.). «Белая книга по регулированию и политике в области ИИ в Израиле: первый взгляд». Блог RAILS .
  123. Министерство инноваций, науки и технологий и Министерство юстиции (12 декабря 2023 г.). «Политика Израиля в области регулирования и этики искусственного интеллекта».
  124. ^ Марцио Бартолони (11 октября 2023 г.). «Лекарства и искусственный интеллект: конфиденциальность и риск алгоритма, который различает».
  125. ^ Ребекка (2023-07-13). «Почему регулирование ИИ — такая сложная задача?». Главный научный советник премьер-министра . Архивировано из оригинала 2024-09-25 . Получено 2024-08-20 .
  126. ^ «Переосмысление регулирования в эпоху ИИ: пилотный проект Новой Зеландии». Всемирный экономический форум . 2020-06-29.
  127. ^ Канн, Джераден (2023-05-25). "Комиссия по конфиденциальности выпускает предупреждение компаниям и организациям, использующим ИИ". Материалы . Архивировано из оригинала 2024-09-25 . Получено 2024-08-20 .
  128. ^ "Искусственный интеллект и IPPs". www.privacy.org.nz . 2023-09-21. Архивировано из оригинала 2024-08-20 . Получено 2024-08-20 .
  129. ^ «Опрос показал, что большинство новозеландцев напуганы вредоносным ИИ — отвечает министр». NZ Herald . 21.02.2024. Архивировано из оригинала 20.08.2024 . Получено 20.08.2024 .
  130. ^ Араса, Дейл (13 марта 2023 г.). «Филиппинский законопроект об искусственном интеллекте предлагает Агентство по искусственному интеллекту». Philippine Daily Inquirer . Архивировано из оригинала 25 сентября 2024 г. Получено 29 мая 2024 г.
  131. ^ Абарка, Чари (29 мая 2024 г.). «Comelec хочет запретить ИИ в агитационных материалах перед выборами 2025 года». Philippine Daily Inquirer . Архивировано из оригинала 29 мая 2024 г. Получено 29 мая 2024 г.
  132. ^ Министерство науки Испании (2018). "Испанская стратегия НИОКР в области искусственного интеллекта" (PDF) . www.knowledge4policy.ec.europa.eu . Архивировано (PDF) из оригинала 18 июля 2023 г. . Получено 9 декабря 2023 г. .
  133. ^ ab "Связывание чат-ботов: Испания приближается к принятию закона об искусственном интеллекте". POLITICO . 2023-06-22 . Получено 2023-09-03 .
  134. ^ Министерство науки Испании (2018). «Испанская стратегия НИОКР в области искусственного интеллекта» (PDF) . www.knowledge4policy.ec.europa.eu . Получено 9 декабря 2023 г. .
  135. ^ Кастильо, Карлос дель (28 декабря 2021 г.). «Испания наблюдает за искусственными продуктами Inteligencia как лос-фармакос или лос-алиментос». elDiario.es (на испанском языке) . Проверено 03 сентября 2023 г.
  136. ^ "Испания comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA" . El Español (на испанском языке). 13 сентября 2022 г. Проверено 03 сентября 2023 г.
  137. ^ Маркос, Хосе (12 сентября 2022 г.). «El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid». Эль Паис (на испанском языке) . Проверено 03 сентября 2023 г.
  138. ^ "Испанское агентство искусственного интеллекта в Корунье" . Европа Пресс. 05.12.2022 . Проверено 03 сентября 2023 г.
  139. ^ "El Gobierno aprueba el statuto de la Agencia Española de Supervisión de la Inteligencia Artificial" . Европа Пресс. 22 августа 2023 г. Проверено 3 сентября 2023 г.
  140. ^ Геррини, Федерико. «Европейские страны соревнуются за темпы регулирования ИИ». Forbes . Получено 04.09.2023 .
  141. ^ ab "Стратегия цифровой экономики 2015-2018". www.ukri.org . 16 февраля 2015 г. Архивировано из оригинала 2022-09-01 . Получено 2022-07-18 .
  142. ^ "Data thesec and AI guide landscape". GOV.UK. Архивировано из оригинала 2023-10-26 . Получено 2023-10-26 .
  143. ^ Лесли, Дэвид (2019-06-11). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем ИИ в государственном секторе». Zenodo . arXiv : 1906.05684 . doi :10.5281/zenodo.3240529. S2CID  189762499. Архивировано из оригинала 2020-04-16 . Получено 2020-04-28 .
  144. ^ "Интеллектуальные инструменты безопасности". www.ncsc.gov.uk . Архивировано из оригинала 2020-04-06 . Получено 2020-04-28 .
  145. ^ Ричардсон, Тим. "Великобритания публикует Национальную стратегию искусственного интеллекта". www.theregister.com . Архивировано из оригинала 2023-02-10 . Получено 2022-01-01 .
  146. ^ Национальная стратегия Великобритании в области ИИ. Архивировано 10 февраля 2023 г. на Wayback Machine , 2021 г. (действия 9 и 10 раздела «Столп 3 – Эффективное управление ИИ»)
  147. ^ "Проинновационный подход к регулированию ИИ". GOV.UK. Архивировано из оригинала 2023-10-27 . Получено 2023-10-27 .
  148. ^ Gikay, Asress Adimi (2023-06-08). "Как Великобритания получает правильное регулирование ИИ". The Conversation . Архивировано из оригинала 2023-10-27 . Получено 2023-10-27 .
  149. ^ Браун, Райан (12.06.2023). «Премьер-министр Великобритании Риши Сунак предлагает Великобританию как родину регулирования безопасности ИИ, поскольку Лондон претендует на то, чтобы стать следующей Кремниевой долиной». CNBC . Архивировано из оригинала 27.07.2023 . Получено 27.10.2023 .
  150. ^ "AI Safety Summit: introduction (HTML)". GOV.UK . Архивировано из оригинала 2023-10-26 . Получено 2023-10-27 .
  151. ^ "Представляем Институт безопасности ИИ". GOV.UK. Архивировано из оригинала 2024-07-07 . Получено 2024-07-08 .
  152. ^ Хеншолл, Уилл (2024-04-01). "США, Великобритания будут сотрудничать в тестировании ИИ безопасности". TIME . Архивировано из оригинала 2024-07-07 . Получено 2024-07-08 .
  153. ^ Уивер, Джон Фрэнк (2018-12-28). «Регулирование искусственного интеллекта в Соединенных Штатах». Справочник по исследованию права искусственного интеллекта : 155–212. doi : 10.4337/9781786439055.00018. ISBN 9781786439055. Архивировано из оригинала 2020-06-30 . Получено 2020-06-29 .
  154. ^ «Отчет администрации о будущем искусственного интеллекта». whitehouse.gov . 2016-10-12. Архивировано из оригинала 2023-10-04 . Получено 2023-11-01 .
  155. ^ Комитет по технологиям Национального совета по науке и технологиям (октябрь 2016 г.). «Подготовка к будущему искусственного интеллекта». whitehouse.gov – через Национальный архив .
  156. ^ "Национальный стратегический план исследований и разработок в области искусственного интеллекта" (PDF) . Национальный совет по науке и технологиям . Октябрь 2016 г.
  157. ^ "О". Национальная комиссия безопасности по искусственному интеллекту . Получено 29.06.2020 .
  158. ^ Стефаник, Элиз М. (2018-05-22). «HR5356 – 115-й Конгресс (2017–2018): Закон Комиссии по национальной безопасности об искусственном интеллекте 2018 года». www.congress.gov . Архивировано из оригинала 2020-03-23 ​​. Получено 2020-03-13 .
  159. ^ Генрих, Мартин (21.05.2019). «Текст – S.1558 – 116-й Конгресс (2019–2020): Закон об инициативе в области искусственного интеллекта». www.congress.gov . Архивировано из оригинала 29.03.2020 . Получено 29.03.2020 .
  160. ^ Шерер, Мэтью У. (2015). «Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и стратегии». Серия рабочих документов SSRN . doi :10.2139/ssrn.2609777. ISSN  1556-5068.
  161. ^ «Указ о сохранении лидерства Америки в области искусственного интеллекта – Белый дом». trumpwhitehouse.archives.gov . Архивировано из оригинала 2021-01-20 . Получено 01.11.2023 .
  162. ^ Vought, Russell T. «МЕМОРАНДУМ ДЛЯ ГЛАВ ИСПОЛНИТЕЛЬНЫХ ДЕПАРТАМЕНТОВ И АГЕНТСТВ – Руководство по регулированию приложений искусственного интеллекта» (PDF) . Белый дом . Архивировано (PDF) из оригинала 2020-03-18 . Получено 2020-03-28 .
  163. ^ "Обновление ИИ: Белый дом выпускает 10 принципов регулирования искусственного интеллекта". Inside Tech Media . 2020-01-14. Архивировано из оригинала 2020-03-25 . Получено 2020-03-25 .
  164. ^ Лидерство США в области ИИ: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019. Архивировано (PDF) из оригинала 25.03.2020 . Получено 28.03.2020 .
  165. ^ «Запрос комментариев по проекту меморандума для глав исполнительных департаментов и агентств «Руководство по регулированию приложений искусственного интеллекта»». Федеральный реестр . 2020-01-13. Архивировано из оригинала 2020-11-25 . Получено 2020-11-28 .
  166. ^ Национальный совет по науке и технологиям (21 июня 2019 г.). «Национальный стратегический план исследований и разработок в области искусственного интеллекта: обновление 2019 г.» (PDF) . Архивировано (PDF) из оригинала 25 августа 2023 г. . Получено 8 августа 2023 г. .
  167. ^ Гурсой, Фуркан; Какадиарис, Иоаннис А. (2023). «Стратегия исследований искусственного интеллекта в Соединенных Штатах: критическая оценка и рекомендации по политике». Frontiers in Big Data . 6. doi : 10.3389/fdata.2023.1206139 . ISSN  2624-909X. PMC 10440374. PMID  37609602 . 
  168. ^ Заключительный отчет NSCAI (PDF) . Вашингтон, округ Колумбия: Комиссия национальной безопасности по искусственному интеллекту. 2021. Архивировано (PDF) из оригинала 2023-02-15 . Получено 2021-05-27 .
  169. ^ Homeland Newswire (2022-06-25). «Портман, Питерс представили двухпартийный законопроект, гарантирующий готовность федерального правительства к катастрофическим рискам для национальной безопасности». HomelandNewswire. Архивировано из оригинала 25 июня 2022 г. Получено 2022-07-04 .
  170. ^ "Текст – S.4488 – 117-й Конгресс (2021–2022): законопроект о создании межведомственного комитета по глобальному катастрофическому риску и для других целей". Congress.gov . Библиотека Конгресса. 2022-06-23. Архивировано из оригинала 2022-07-05 . Получено 2022-07-04 .
  171. ^ "Blueprint for an AI Bill of Rights | OSTP". Белый дом . Архивировано из оригинала 2023-10-31 . Получено 2023-11-01 .
  172. ^ "Белый дом только что представил новый Билль о правах искусственного интеллекта". MIT Technology Review . Архивировано из оригинала 2023-10-26 . Получено 2023-10-24 .
  173. ^ "Местный закон о внесении поправок в административный кодекс города Нью-Йорка в отношении автоматизированных инструментов принятия решений о трудоустройстве". Городской совет Нью-Йорка . Архивировано из оригинала 2023-10-18 . Получено 2023-11-01 .
  174. ^ Кестенбаум, Джонатан (5 июля 2023 г.). «Новый закон Нью-Йорка о предвзятости в отношении ИИ широко влияет на найм и требует аудита». Bloomberg Law . Архивировано из оригинала 01.11.2023 . Получено 24.10.2023 .
  175. ^ Дом, Белый (2023-07-21). "ИНФОРМАЦИОННЫЙ ЛИСТОК: Администрация Байдена–Харрис обеспечивает добровольные обязательства ведущих компаний, занимающихся искусственным интеллектом, по управлению рисками, создаваемыми ИИ". Белый дом . Архивировано из оригинала 2023-09-25 . Получено 2023-09-25 .
  176. ^ Дом, Белый (2023-09-12). "ИНФОРМАЦИОННЫЙ ЛИСТОК: Администрация Байдена–Харриса обеспечивает добровольные обязательства от восьми дополнительных компаний, занимающихся искусственным интеллектом, по управлению рисками, создаваемыми ИИ". Белый дом . Архивировано из оригинала 2023-09-24 . Получено 2023-09-25 .
  177. ^ Чаттерджи, Мохар (12.10.2023). «Искусственный интеллект Белого дома распорядился смягчить федеральную покупательную способность». POLITICO . Получено 27.10.2023 .
  178. ^ Дом, Белый (2023-10-30). "ИНФОРМАЦИОННЫЙ ЛИСТОК: Президент Байден издает указ о безопасном, надежном и заслуживающем доверия искусственном интеллекте". Белый дом . Архивировано из оригинала 2024-01-30 . Получено 2023-12-05 .
  179. ^ Льюис, Джеймс Эндрю; Бенсон, Эмили; Фрэнк, Майкл (2023-10-31). «Указ администрации Байдена об искусственном интеллекте». Архивировано из оригинала 2023-12-05 . Получено 2023-12-05 .
  180. House, The White (2023-10-30). «Исполнительный указ о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта». The White House . Архивировано из оригинала 2023-12-05 . Получено 2023-12-05 .
  181. ^ Ланум, Николас (2023-11-07). «Указ президента Байдена об искусственном интеллекте имеет «опасные ограничения», — говорит генеральный директор компании по обнаружению дипфейков». FOXBusiness . Архивировано из оригинала 2023-12-05 . Получено 2023-12-05 .
  182. ^ Myrow, Rachael (2024-02-16). «Законодатели Калифорнии берутся за регулирование ИИ с помощью множества законопроектов». KQED . Архивировано из оригинала 2024-07-11 . Получено 2024-07-07 .
  183. ^ Де Винк, Геррит (2024-02-08). «На заднем дворе Big Tech законодатель Калифорнии представляет знаменательный законопроект об ИИ». The Washington Post .
  184. ^ Ли, Венди (29.09.2024). «Губернатор Гэвин Ньюсом накладывает вето на законопроект о безопасности ИИ, против которого выступает Кремниевая долина». Los Angeles Times . Получено 29.09.2024 .
  185. ^ Кристин Робинсон (2024). «Теннесси принимает закон Элвиса, защищающий голоса артистов от подражания искусственному интеллекту». The New York Times . Архивировано из оригинала 25 марта 2024 года . Получено 26 марта 2024 года .
  186. ^ Эшли Кинг (2024). «Закон Элвиса официально вступил в силу — первый в США закон об искусственном интеллекте на государственном уровне». Digital Music News . Получено 26 марта 2024 г.
  187. ^ Tennessee House (2024). "House Floor Session – 44th Legislative Day" (видео) . Tennessee House . Архивировано из оригинала 25 сентября 2024 года . Получено 26 марта 2024 года .
  188. ^ Одри Гиббс (2024). «Губернатор Теннесси Ли подписывает закон об Элвисе в хонки-тонке, защищает музыкантов от злоупотреблений со стороны искусственного интеллекта». The Tennessean . Архивировано из оригинала 25 сентября 2024 г. Получено 26 марта 2024 г.
  189. ^ Алекс Грин (2024). "The ELVIS Act". Memphis Flyer . Архивировано из оригинала 25 сентября 2024 года . Получено 26 марта 2024 года .
  190. ^ Водеки, Бен (27 марта 2024 г.). «Юта принимает законодательство, регулирующее использование искусственного интеллекта». AI Business . Архивировано из оригинала 25 апреля 2024 г. Получено 25 апреля 2024 г.
  191. ^ "SB0149". le.utah.gov . Архивировано из оригинала 2024-04-29 . Получено 2024-04-25 .
  192. ^ "Background on Lethal Autonomous Weapons Systems in the CCW". Организация Объединенных Наций, Женева. Архивировано из оригинала 2020-04-27 . Получено 2020-05-05 .
  193. ^ "Руководящие принципы, утвержденные Группой правительственных экспертов по новым технологиям в области летальных автономных систем оружия" (PDF) . Организация Объединенных Наций, Женева. Архивировано из оригинала (PDF) 2020-12-01 . Получено 2020-05-05 .
  194. ^ Баум, Сет (2018-09-30). «Противодействие дезинформации о суперинтеллекте». Информация . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  195. ^ "Мнения стран о роботах-убийцах" (PDF) . Кампания по остановке роботов-убийц. Архивировано (PDF) из оригинала 2019-12-22 . Получено 2020-05-05 .
  196. ^ Sayler, Kelley (2020). Искусственный интеллект и национальная безопасность: обновлено 10 ноября 2020 г. (PDF) . Вашингтон, округ Колумбия: Исследовательская служба Конгресса. Архивировано (PDF) из оригинала 8 мая 2020 г. . Получено 27 мая 2021 г. .
  197. ^ «Defense Primer: US Policy on Lethal Autonomous Weapon Systems». Исследовательская служба Конгресса . 15 мая 2023 г. Архивировано из оригинала 1 ноября 2023 г. Получено 18 октября 2023 г.