Регулирование искусственного интеллекта — это разработка политик и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ). Это часть более широкого регулирования алгоритмов . [1] [2] Нормативно-правовой ландшафт для ИИ — это новая проблема в юрисдикциях по всему миру, в том числе для международных организаций без прямых полномочий по обеспечению соблюдения, таких как IEEE или OECD . [3]
С 2016 года было опубликовано множество руководств по этике ИИ с целью поддержания общественного контроля над технологией. [4] Регулирование считается необходимым как для содействия инновациям в области ИИ, так и для управления связанными с ними рисками.
Более того, организации, внедряющие ИИ, играют центральную роль в создании и внедрении надежного ИИ , придерживаясь установленных принципов и принимая на себя ответственность за снижение рисков. [5]
Регулирование ИИ посредством таких механизмов, как наблюдательные советы, также можно рассматривать как социальный способ решения проблемы контроля ИИ . [6] [7]
По данным Индекса ИИ Стэнфордского университета за 2023 год, ежегодное количество законопроектов, в которых упоминается «искусственный интеллект», принятых в 127 обследованных странах, возросло с одного в 2016 году до 37 в 2022 году. [8] [9]
В 2017 году Илон Маск призвал к регулированию разработки ИИ. [10] По данным NPR , генеральный директор Tesla был «явно не в восторге» от того, что выступал за государственный контроль, который мог бы повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно регулирование устанавливается, когда происходит куча плохих вещей, возникает общественный резонанс, и через много лет создается регулирующее агентство для регулирования этой отрасли. Это занимает вечность. В прошлом это было плохо, но не представляло фундаментального риска для существования цивилизации». [10] В ответ некоторые политики выразили скептицизм относительно целесообразности регулирования технологии, которая все еще находится в стадии разработки. [11] Отвечая как на Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич утверждал, что ИИ находится в зачаточном состоянии и что слишком рано регулировать эту технологию. [12] Многие технологические компании выступают против жесткого регулирования ИИ и «Хотя некоторые компании заявили, что приветствуют правила, касающиеся ИИ, они также выступили против жестких правил, подобных тем, которые создаются в Европе» [13] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предложили разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с некоторой формой гарантии. [14]
В опросе Ipsos 2022 года отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая, но только 35% американцев согласились с тем, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [8] Опрос Reuters /Ipsos 2023 года показал, что 61% американцев согласны, а 22% не согласны, что ИИ представляет опасность для человечества. [15] В опросе Fox News 2023 года 35% американцев считали «очень важным», а еще 41% считали «довольно важным» регулирование ИИ федеральным правительством, по сравнению с 13% ответившими «не очень важно» и 8% ответившими «совсем не важно». [16] [17]
Регулирование искусственного интеллекта — это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. [18] Регулирование в настоящее время обычно считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. [19] [20] [21] Соображения государственного управления и политики, как правило, сосредоточены на технических и экономических последствиях, а также на надежных и ориентированных на человека системах ИИ, [22] хотя регулирование искусственного суперинтеллекта также рассматривается. [23] Основной подход к регулированию фокусируется на рисках и предубеждениях алгоритмов машинного обучения на уровне входных данных, тестирования алгоритмов и модели принятия решений. Он также фокусируется на объяснимости выходных данных. [20]
Были предложения как по жесткому, так и по мягкому праву для регулирования ИИ. [24] Некоторые ученые-юристы отметили, что подходы к регулированию ИИ на основе жесткого права сопряжены с существенными проблемами. [25] [26] Среди проблем — быстрое развитие технологий ИИ, что приводит к «проблеме темпа», когда традиционные законы и правила часто не поспевают за новыми приложениями и связанными с ними рисками и преимуществами. [25] [26] Аналогичным образом, разнообразие приложений ИИ бросает вызов существующим регулирующим органам, которые часто имеют ограниченную юрисдикцию. [25] В качестве альтернативы некоторые ученые-юристы утверждают, что подходы к регулированию ИИ на основе мягкого права являются многообещающими, поскольку мягкие законы можно адаптировать более гибко для удовлетворения потребностей новых и развивающихся технологий ИИ и зарождающихся приложений. [25] [26] Однако подходы на основе мягкого права часто не обладают существенным потенциалом обеспечения соблюдения. [25] [27]
Кейсон Шмит, Меган Доерр и Дженнифер Вагнер предложили создать квазиправительственный регулятор, используя права интеллектуальной собственности (например, лицензирование с копилефтом ) в отношении определенных объектов ИИ (например, моделей ИИ и обучающих наборов данных) и делегируя права принудительного исполнения назначенному органу принудительного исполнения. [28] Они утверждают, что ИИ может лицензироваться на условиях, которые требуют соблюдения определенных этических норм и кодексов поведения (например, принципов мягкого права). [28]
Известные молодежные организации, занимающиеся вопросами ИИ, а именно Encode Justice, также опубликовали комплексные программы, призывающие к более строгим правилам в области ИИ и государственно-частному партнерству . [29] [30]
Регулирование ИИ может вытекать из базовых принципов. Мета-обзор существующих наборов принципов, таких как принципы Асиломара и Пекинские принципы, проведенный Центром Беркмана Кляйна в 2020 году, выявил восемь таких базовых принципов: конфиденциальность, подотчетность, безопасность, прозрачность и объяснимость, справедливость и недискриминация, контроль человека над технологиями, профессиональная ответственность и уважение человеческих ценностей. [31] Законодательство и нормативные акты в области ИИ были разделены на три основные темы, а именно управление автономными системами интеллекта, ответственность и подотчетность для систем, а также вопросы конфиденциальности и безопасности. [19] Подход государственного управления рассматривает связь между законодательством и регулированием ИИ, этикой ИИ и «обществом ИИ», определяемым как замена и трансформация рабочей силы, общественное принятие и доверие к ИИ, а также трансформация взаимодействия человека и машины. [32] Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном [33] и международном уровнях [34] и в различных областях, от управления государственными услугами [35] и подотчетности [36] до правоохранительной деятельности, [34] [37] здравоохранения (особенно концепции человеческой гарантии), [38] [39] [40] [41] [42] финансового сектора, [33] робототехники, [43] [44] автономных транспортных средств, [43] армии [45] и национальной безопасности, [46] и международного права. [47] [48]
Генри Киссинджер , Эрик Шмидт и Дэниел Хаттенлохер опубликовали в ноябре 2021 года совместное заявление под названием «Быть человеком в эпоху ИИ», призывая создать правительственную комиссию для регулирования ИИ. [49]
Регулирование ИИ можно рассматривать как позитивное социальное средство управления проблемой контроля ИИ (необходимость обеспечения долгосрочного полезного ИИ), при этом другие социальные ответы, такие как бездействие или запрет, рассматриваются как непрактичные, а такие подходы, как расширение человеческих возможностей с помощью методов трансгуманизма , таких как интерфейсы мозг-компьютер, рассматриваются как потенциально дополнительные. [7] [50] Регулирование исследований в области общего искусственного интеллекта (AGI) фокусируется на роли наблюдательных советов, от университетского или корпоративного до международного уровня, и на поощрении исследований в области безопасности ИИ , [50] вместе с возможностью дифференциального интеллектуального прогресса (приоритет защитных стратегий над рискованными стратегиями в разработке ИИ) или проведения международного массового наблюдения для осуществления контроля над вооружениями AGI. [7] Например, «Няня AGI» — это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного сверхразума , а также для устранения других серьезных угроз человеческому благополучию, таких как подрыв мировой финансовой системы, до тех пор, пока не будет безопасно создан настоящий сверхразум. Это подразумевает создание более умной, чем человек, но не сверхразумной системы AGI, подключенной к большой сети наблюдения, с целью мониторинга человечества и защиты его от опасности. [7] Регулирование сознательных, этически сознательных AGI фокусируется на том, как интегрировать их в существующее человеческое общество, и может быть разделено на соображения их правового статуса и их моральных прав. [7] Регулирование ИИ рассматривалось как ограничительное, с риском предотвращения развития AGI. [43]
Создание глобального совета по управлению для регулирования разработки ИИ было предложено по крайней мере еще в 2017 году. [52] В декабре 2018 года Канада и Франция объявили о планах создания Международной группы по искусственному интеллекту при поддержке G7, созданной по образцу Международной группы по изменению климата , для изучения глобального воздействия ИИ на людей и экономику и для управления разработкой ИИ. [53] В 2019 году Группа была переименована в Глобальное партнерство по ИИ. [54] [55]
Глобальное партнерство по искусственному интеллекту (GPAI) было запущено в июне 2020 года, заявив о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями, чтобы обеспечить общественное доверие к технологии, как указано в Принципах ОЭСР по искусственному интеллекту (2019). [56] 15 членами-основателями Глобального партнерства по искусственному интеллекту являются Австралия, Канада, Европейский союз, Франция, Германия, Индия, Италия, Япония, Республика Корея, Мексика, Новая Зеландия, Сингапур, Словения, США и Великобритания. В 2023 году в GPAI будет 29 членов. [57] Секретариат GPAI размещается в ОЭСР в Париже, Франция. Мандат GPAI охватывает четыре темы, две из которых поддерживаются Международным центром экспертизы в Монреале по развитию искусственного интеллекта, а именно ответственный ИИ и управление данными. Соответствующий центр передового опыта в Париже будет поддерживать две другие темы по будущему работы и по инновациям и коммерциализации. GPAI также исследовала, как можно использовать ИИ для реагирования на пандемию COVID-19. [56]
Принципы ИИ ОЭСР [58] были приняты в мае 2019 года, а Принципы ИИ G20 — в июне 2019 года. [55] [59] [60] В сентябре 2019 года Всемирный экономический форум выпустил десять «Руководящих принципов государственных закупок ИИ». [61] В феврале 2020 года Европейский союз опубликовал проект своего стратегического документа по продвижению и регулированию ИИ. [34]
В Организации Объединенных Наций (ООН) несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, включая Центр ЮНИКРИ по ИИ и робототехнике . [46] В партнерстве с Интерполом Центр ЮНИКРИ опубликовал доклад «ИИ и робототехника для правоохранительных органов» в апреле 2019 года [62] и последующий доклад « На пути к ответственным инновациям в области ИИ» в мае 2020 года. [37] На 40-й научной сессии ЮНЕСКО в ноябре 2019 года организация начала двухлетний процесс по достижению «глобального инструмента установления стандартов в области этики искусственного интеллекта». Для достижения этой цели были проведены форумы и конференции ЮНЕСКО по ИИ для сбора мнений заинтересованных сторон. Проект текста Рекомендации по этике ИИ Специальной экспертной группы ЮНЕСКО был опубликован в сентябре 2020 года и включал призыв к заполнению законодательных пробелов. [63] ЮНЕСКО представила международный инструмент по этике ИИ для принятия на своей Генеральной конференции в ноябре 2021 года; [56] Впоследствии это было принято. [64] Хотя ООН добивается прогресса в глобальном управлении ИИ, ее институциональные и правовые возможности по управлению экзистенциальным риском ИИ более ограничены. [65]
Инициатива Международного союза электросвязи (МСЭ) в партнерстве с 40 родственными агентствами ООН, AI for Good — это глобальная платформа, которая направлена на выявление практических применений ИИ для продвижения Целей устойчивого развития ООН и масштабирования этих решений для глобального воздействия. Это ориентированная на действия, глобальная и инклюзивная платформа Организации Объединенных Наций, способствующая развитию ИИ для положительного влияния на здоровье, климат, гендер, инклюзивное процветание, устойчивую инфраструктуру и другие глобальные приоритеты развития. [66]
Недавние исследования показали, что страны также начнут использовать искусственный интеллект в качестве инструмента национальной киберобороны. ИИ является новым фактором в индустрии кибероружия, поскольку его можно использовать в оборонных целях. Поэтому ученые призывают страны установить правила использования ИИ, аналогичные тем, которые существуют для других военных отраслей. [67]
5 сентября 2024 года Первый международный договор по ИИ, в котором участвуют такие страны, как США, Великобритания и члены Европейского союза, направлен на защиту прав человека и поощрение ответственного использования ИИ, хотя эксперты выразили обеспокоенность по поводу его общих принципов и исключений. [68]
Нормативно-правовая база и политический ландшафт для ИИ являются новой проблемой в региональных и национальных юрисдикциях по всему миру, например, в Европейском союзе [70] и России. [71] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и политические документы по ИИ. [72] [73] Эти документы охватывают широкий спектр тем, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура. [22] [74]
Разные страны подошли к этой проблеме по-разному. Что касается трех крупнейших экономик, то было сказано, что «США придерживаются рыночного подхода, Китай продвигает государственный подход, а ЕС придерживается подхода, основанного на правах». [75]
В октябре 2023 года Австралийское компьютерное общество , Деловой совет Австралии , Австралийская торгово-промышленная палата , Ai Group (также известная как Австралийская промышленная группа) , Совет организаций малого бизнеса Австралии и Технический совет Австралии совместно опубликовали открытое письмо, призывающее к национальному подходу к стратегии ИИ. [76] В письме поддерживается создание федеральным правительством общеправительственной целевой группы по ИИ. [76]
30 сентября 2021 года Палата депутатов Бразилии одобрила бразильскую правовую основу для искусственного интеллекта, Marco Legal da Inteligência Artificial, в целях регулирования разработки и использования технологий ИИ и дальнейшего стимулирования исследований и инноваций в области решений ИИ, направленных на этику, культуру, справедливость, честность и подотчетность. В этом законопроекте из 10 статей излагаются цели, включая миссии по содействию разработке этических принципов, содействию устойчивым инвестициям в исследования и устранению барьеров для инноваций. В частности, в статье 4 законопроект подчеркивает необходимость избегания дискриминационных решений ИИ, плюрализма и уважения прав человека. Кроме того, в этом акте подчеркивается важность принципа равенства в алгоритмах осознанного принятия решений, особенно для очень разнообразных и многоэтнических обществ, таких как бразильское.
Когда законопроект был впервые обнародован, он подвергся существенной критике, что вызвало тревогу у правительства из-за критических положений. Основная проблема заключается в том, что этот законопроект не в состоянии тщательно и внимательно рассмотреть принципы подотчетности, прозрачности и инклюзивности. Статья VI устанавливает субъективную ответственность, то есть любое лицо, которому система ИИ нанесла ущерб и которое хочет получить компенсацию, должно указать заинтересованную сторону и доказать, что в жизненном цикле машины была допущена ошибка. Ученые подчеркивают, что назначать лицо, ответственное за доказательство алгоритмических ошибок, является противозаконным, учитывая высокую степень автономности, непредсказуемости и сложности систем ИИ. Это также привлекло внимание к текущим проблемам с системами распознавания лиц в Бразилии, которые приводят к несправедливым арестам полицией, что затем будет означать, что после принятия этого законопроекта лицам придется доказывать и оправдывать эти ошибки машины.
Основное противоречие этого законопроекта было направлено на три предлагаемых принципа. Во-первых, принцип недискриминации предполагает, что ИИ должен разрабатываться и использоваться таким образом, чтобы просто смягчать возможность злоупотреблений и дискриминационных практик. Во-вторых, стремление к принципу нейтралитета перечисляет рекомендации для заинтересованных сторон по смягчению предвзятости; однако без обязательства достижения этой цели. Наконец, принцип прозрачности гласит, что прозрачность системы необходима только тогда, когда существует высокий риск нарушения основных прав. Как легко заметить, в бразильской правовой базе искусственного интеллекта отсутствуют обязательные положения, и она скорее наполнена смягченными рекомендациями. Фактически, эксперты подчеркивают, что этот законопроект может даже затруднить достижение ответственности за дискриминационные предвзятости ИИ. По сравнению с предложением ЕС об обширных правилах, основанных на рисках, бразильский законопроект содержит 10 статей, предлагающих расплывчатые и общие рекомендации.
По сравнению с подходом к многостороннему участию, который применялся ранее в 2000-х годах при разработке бразильского Билля о правах в Интернете, Marco Civil da Internet, бразильский законопроект оценивается как существенно лишенный перспективы. Многостороннее участие, чаще называемое многосторонним управлением, определяется как практика привлечения нескольких заинтересованных сторон к участию в диалоге, принятии решений и реализации ответов на совместно воспринимаемые проблемы. В контексте регулирования ИИ эта многосторонняя перспектива охватывает компромиссы и различные точки зрения различных заинтересованных сторон с определенными интересами, что помогает поддерживать прозрачность и более широкую эффективность. Напротив, законодательное предложение по регулированию ИИ не следовало аналогичному многостороннему подходу.
Будущие шаги могут включать расширение перспективы многостороннего участия. Растет обеспокоенность по поводу неприменимости рамок законопроекта, который подчеркивает, что универсальное решение может не подходить для регулирования ИИ и призывает к субъективным и адаптивным положениям.
Панканадская стратегия искусственного интеллекта (2017) поддерживается федеральным финансированием в размере 125 миллионов канадских долларов с целями увеличения числа выдающихся исследователей ИИ и квалифицированных выпускников в Канаде, создания узлов научного превосходства в трех основных центрах ИИ, развития «глобального лидерства мысли» по экономическим, этическим, политическим и правовым последствиям достижений ИИ и поддержки национального исследовательского сообщества, работающего над ИИ. [56] Канадская программа председателей CIFAR AI является краеугольным камнем стратегии. Она получает финансирование в размере 86,5 миллионов канадских долларов в течение пяти лет для привлечения и удержания всемирно известных исследователей ИИ. [56] Федеральное правительство назначило Консультативный совет по ИИ в мае 2019 года с акцентом на изучение того, как использовать сильные стороны Канады, чтобы гарантировать, что достижения ИИ отражают канадские ценности, такие как права человека, прозрачность и открытость. Консультативный совет по ИИ создал рабочую группу по извлечению коммерческой ценности из ИИ и аналитики данных, принадлежащих Канаде. [56] В 2020 году федеральное правительство и правительство Квебека объявили об открытии Международного центра экспертизы в Монреале по развитию искусственного интеллекта, который будет продвигать дело ответственной разработки ИИ. [56] В июне 2022 года правительство Канады начало вторую фазу Панканадской стратегии искусственного интеллекта. [77] В ноябре 2022 года Канада представила Закон о внедрении Цифровой хартии (законопроект C-27), который предлагает три акта, которые были описаны как целостный пакет законодательства о доверии и конфиденциальности: Закон о защите конфиденциальности потребителей, Закон о трибунале по защите личной информации и данных и Закон об искусственном интеллекте и данных (AIDA). [78] [79]
В Марокко коалиция политических партий в парламенте выдвинула новое законодательное предложение о создании Национального агентства по искусственному интеллекту (ИИ). Это агентство призвано регулировать технологии ИИ, расширять сотрудничество с международными организациями в этой области и повышать осведомленность общественности как о возможностях, так и о рисках, связанных с ИИ. [80]
Регулирование ИИ в Китае в основном регулируется «Планом развития искусственного интеллекта следующего поколения» Государственного совета Китайской Народной Республики от 8 июля 2017 года (Документ Госсовета № 35), в котором Центральный комитет Коммунистической партии Китая и Государственный совет КНР настоятельно призвали руководящие органы Китая содействовать развитию ИИ до 2030 года. Регулирование вопросов этической и правовой поддержки развития ИИ ускоряется, а политика обеспечивает государственный контроль над китайскими компаниями и над ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных стандартов Китайской Народной Республики для ИИ, в том числе над большими данными, облачными вычислениями и промышленным программным обеспечением. [81] [82] [83] В 2021 году Китай опубликовал этические руководящие принципы использования ИИ в Китае, в которых говорится, что исследователи должны гарантировать, что ИИ соблюдает общие человеческие ценности, всегда находится под контролем человека и не представляет угрозы общественной безопасности. [84] В 2023 году Китай ввел временные меры по управлению услугами генеративного ИИ . [85]
Совет Европы (СЕ) — международная организация, которая продвигает права человека, демократию и верховенство закона. В ее состав входят 46 государств-членов, включая все 29 стран, подписавших Декларацию Европейского союза о сотрудничестве в области искусственного интеллекта 2018 года. СЕ создал общее правовое пространство, в котором члены имеют юридическое обязательство гарантировать права, изложенные в Европейской конвенции о правах человека . В частности, в отношении ИИ, «целью Совета Европы является выявление пересекающихся областей между ИИ и нашими стандартами в области прав человека, демократии и верховенства закона, а также разработка соответствующих решений по установлению стандартов или наращиванию потенциала». Большое количество соответствующих документов, определенных СЕ, включают руководящие принципы, уставы, статьи, отчеты и стратегии. [86] Авторские органы этих документов по регулированию ИИ не ограничиваются одним сектором общества и включают организации, компании, органы и национальные государства. [63]
В 2019 году Совет Европы инициировал процесс оценки необходимости юридически обязательного регулирования ИИ, уделяя особое внимание его последствиям для прав человека и демократических ценностей. Переговоры по договору начались в сентябре 2022 года с участием 46 государств-членов Совета Европы, а также Аргентины, Австралии, Канады, Коста-Рики, Святого Престола, Израиля, Японии, Мексики, Перу, Соединенных Штатов Америки и Уругвая, а также Европейского союза. 17 мая 2024 года была принята « Рамочная конвенция об искусственном интеллекте и правах человека, демократии и верховенстве права ». Она была открыта для подписания 5 сентября 2024 года. Хотя договор был разработан европейской организацией, он открыт для присоединения государств из других частей света. Первыми десятью подписавшими странами стали: Андорра, Грузия, Исландия, Норвегия, Молдова, Сан-Марино, Соединенное Королевство, Израиль, Соединенные Штаты и Европейский союз. [87] [88]
ЕС является одной из крупнейших юрисдикций в мире и играет активную роль в глобальном регулировании цифровых технологий посредством GDPR , [89] Закона о цифровых услугах , Закона о цифровых рынках . [90] [91] В частности, для ИИ Закон об искусственном интеллекте рассматривается в 2023 году как наиболее масштабное регулирование ИИ во всем мире. [92] [93]
Большинство стран Европейского союза (ЕС) имеют собственные национальные стратегии регулирования ИИ, но они в значительной степени совпадают. [63] Европейский союз руководствуется Европейской стратегией по искусственному интеллекту, [94] поддерживаемой Группой экспертов высокого уровня по искусственному интеллекту. [95] [96] В апреле 2019 года Европейская комиссия опубликовала свои Руководящие принципы этики для надежного искусственного интеллекта (ИИ) , [97] после чего в июне 2019 года опубликовала свои рекомендации по политике и инвестициям для надежного искусственного интеллекта . [98] Группа экспертов высокого уровня Комиссии ЕС по искусственному интеллекту проводит работу по надежному ИИ, и Комиссия опубликовала отчеты по аспектам безопасности и ответственности ИИ и по этике автоматизированных транспортных средств. В 2020 году Комиссия ЕС запросила мнения по предложению о специальном законодательстве по ИИ, и этот процесс продолжается. [63]
2 февраля 2020 года Европейская комиссия опубликовала свою Белую книгу об искусственном интеллекте — европейский подход к совершенству и доверию . [99] [100] Белая книга состоит из двух основных строительных блоков: «экосистемы совершенства» и «экосистемы доверия». «Экосистема доверия» описывает подход ЕС к нормативной базе для ИИ. В своем предлагаемом подходе Комиссия различает приложения ИИ на основе того, являются ли они «высокорискованными» или нет. Только высокорискованные приложения ИИ должны быть в сфере действия будущей нормативной базы ЕС. Приложение ИИ считается высокорискованным, если оно работает в рискованном секторе (например, здравоохранение, транспорт или энергетика) и «используется таким образом, что может возникнуть значительный риск». Для высокорисковых приложений ИИ требования в основном касаются: «данных для обучения», «данных и ведения учета», «предоставляемой информации», «надежности и точности» и «человеческого надзора». Существуют также требования, характерные для определенных видов использования, таких как удаленная биометрическая идентификация. Приложения ИИ, которые не квалифицируются как «высокорисковые», могут регулироваться добровольной схемой маркировки. Что касается соответствия и обеспечения соблюдения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и/или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в форме рамок для сотрудничества национальных компетентных органов могла бы способствовать внедрению нормативной базы. [101]
Проект от января 2021 года просочился в сеть 14 апреля 2021 года [102] до того, как Комиссия представила свое официальное «Предложение о Регламенте, устанавливающем гармонизированные правила в отношении искусственного интеллекта» неделю спустя. [103] Вскоре после этого на этой основе был официально предложен Закон об искусственном интеллекте (также известный как Закон об ИИ). [104] Это предложение включает в себя уточнение подхода, основанного на риске 2020 года, на этот раз с 4 категориями риска: «минимальный», «ограниченный», «высокий» и «неприемлемый». [105] Предложение подверглось резкой критике в ходе публичных дебатов. Ученые выразили обеспокоенность по поводу различных неясных элементов в предложении, таких как широкое определение того, что представляет собой ИИ, и опасались непреднамеренных правовых последствий, особенно для уязвимых групп, таких как пациенты и мигранты. [106] [107] Категория риска «ИИ общего назначения» была добавлена в Закон об ИИ для учета универсальных моделей, таких как ChatGPT , которые не соответствовали структуре регулирования на основе приложений. [108] В отличие от других категорий риска, модели ИИ общего назначения могут регулироваться на основе их возможностей, а не только их использования. Более слабые модели ИИ общего назначения подлежат требованиям прозрачности, в то время как те, которые считаются представляющими «системные риски» (в частности, те, которые обучаются с использованием вычислительных возможностей, превышающих 10 25 FLOPS ), также должны проходить тщательную процедуру оценки. [109] Последующая версия Закона об ИИ была окончательно принята в мае 2024 года. [110] Закон об ИИ будет постепенно применяться. [111] Распознавание эмоций и удаленная биометрическая идентификация в реальном времени будут запрещены, с некоторыми исключениями, например, для правоохранительных органов. [112]
Наблюдатели выразили обеспокоенность по поводу увеличения числа законодательных предложений в рамках Комиссии фон дер Ляйен . Скорость законодательных инициатив частично обусловлена политическими амбициями ЕС и может поставить под угрозу цифровые права европейских граждан, включая права на неприкосновенность частной жизни, [113] особенно в условиях неопределенных гарантий защиты данных посредством кибербезопасности. [96] Среди заявленных руководящих принципов в различных законодательных предложениях в области ИИ в рамках Комиссии фон дер Ляйен есть цели стратегической автономии [114] и концепция цифрового суверенитета. [115] 29 мая 2024 года Европейская счетная палата опубликовала отчет, в котором говорилось, что меры ЕС не были хорошо скоординированы с мерами стран ЕС; что мониторинг инвестиций не был систематическим; и что необходимо более сильное управление. [116]
В ноябре 2020 года [117] DIN , DKE и Федеральное министерство экономики и энергетики Германии опубликовали первое издание «Немецкой дорожной карты стандартизации для искусственного интеллекта» (NRM KI) и представили его общественности на Цифровом саммите Федерального правительства Германии. [118] NRM KI описывает требования к будущим правилам и стандартам в контексте ИИ. Реализация рекомендаций по действиям призвана помочь укрепить немецкую экономику и науку в международной конкуренции в области искусственного интеллекта и создать благоприятные для инноваций условия для этой новой технологии . Первое издание представляет собой документ объемом 200 страниц, написанный 300 экспертами. Второе издание NRM KI было опубликовано одновременно с Цифровым саммитом правительства Германии 9 декабря 2022 года. [119] DIN координировал более 570 участвующих экспертов из самых разных областей науки, промышленности, гражданского общества и государственного сектора. Второе издание представляет собой документ объемом 450 страниц.
С одной стороны, NRM KI охватывает основные темы с точки зрения приложений (например, медицина, мобильность, энергетика и окружающая среда, финансовые услуги, промышленная автоматизация) и фундаментальных вопросов (например, классификация ИИ, безопасность, сертифицируемость, социально-технические системы, этика). [119] С другой стороны, он дает обзор основных терминов в области ИИ и его среды в широком диапазоне групп интересов и источников информации. В общей сложности документ охватывает 116 потребностей в стандартизации и дает шесть основных рекомендаций для действий. [120]
30 октября 2023 года члены G7 подпишут одиннадцать руководящих принципов проектирования, производства и внедрения современных систем искусственного интеллекта, а также добровольный Кодекс поведения для разработчиков искусственного интеллекта в контексте Хиросимского процесса. [121]
Соглашение получило одобрение Урсулы фон дер Ляйен , которая увидела в нем принципы Директивы по искусственному интеллекту, которая в настоящее время находится на стадии завершения.
30 октября 2022 года в соответствии с постановлением правительства 212 от августа 2021 года Министерство инноваций, науки и технологий Израиля опубликовало для общественного обсуждения свой официальный документ «Принципы политики, регулирования и этики в области ИИ». [122] К декабрю 2023 года Министерство инноваций и Министерство юстиции опубликовали совместный документ о политике регулирования и этики ИИ, в котором изложены несколько этических принципов ИИ и набор рекомендаций, включая выбор секторального регулирования, подход, основанный на оценке рисков, предпочтение «мягких» инструментов регулирования и поддержание согласованности с существующими глобальными подходами к регулированию ИИ. [123]
В октябре 2023 года итальянский орган по защите конфиденциальности утвердил положение, которое устанавливает три принципа для терапевтических решений, принимаемых автоматизированными системами: прозрачность процессов принятия решений, человеческий надзор за автоматизированными решениями и алгоритмическая недискриминация. [124]
По состоянию на июль 2023 года [обновлять]не существует специального законодательства об ИИ, но использование ИИ регулируется существующими законами, включая Закон о конфиденциальности , Закон о правах человека , Закон о добросовестной торговле и Закон о вредоносных цифровых коммуникациях . [125]
В 2020 году правительство Новой Зеландии спонсировало пилотный проект Всемирного экономического форума под названием «Переосмысление регулирования для эпохи ИИ», направленный на создание нормативно-правовой базы вокруг ИИ. [126] В том же году Закон о конфиденциальности был обновлен для регулирования использования личной информации новозеландцев в ИИ. [127] В 2023 году Комиссар по вопросам конфиденциальности выпустил руководство по использованию ИИ в соответствии с принципами конфиденциальности информации. [128] В феврале 2024 года Генеральный прокурор и министр технологий объявили о формировании парламентской межпартийной фракции по ИИ и о разработке рамок для использования ИИ правительством. Она также объявила, что на данном этапе не планируется никакого дополнительного регулирования. [129]
В 2023 году в Палату представителей Филиппин был подан законопроект , в котором предлагалось создать Управление по развитию искусственного интеллекта (AIDA), которое будет контролировать разработку и исследование искусственного интеллекта. AIDA также предлагалось сделать сторожевым псом против преступлений с использованием ИИ. [130]
Комиссия по выборам также рассмотрела в 2024 году запрет на использование ИИ и deepfake для агитации. Они стремятся внедрить правила, которые будут применяться уже на всеобщих выборах 2025 года. [131]
В 2018 году Министерство науки, инноваций и университетов Испании одобрило стратегию НИОКР в области искусственного интеллекта. [132]
С формированием второго правительства Педро Санчеса в январе 2020 года были усилены направления, связанные с новыми технологиями , которые с 2018 года находились в ведении Министерства экономики . Так, в 2020 году был создан Государственный секретариат по цифровизации и искусственному интеллекту (SEDIA). [133] Из этого высшего органа, следуя рекомендациям, данным в Стратегии НИОКР по искусственному интеллекту 2018 года, [134] была разработана Национальная стратегия искусственного интеллекта (2020), которая уже предусматривала действия, касающиеся управления искусственным интеллектом и этических стандартов, которые должны регулировать его использование. Этот проект также был включен в План восстановления, трансформации и устойчивости (2021).
В 2021 году [133] правительство объявило, что эти идеи будут разрабатываться посредством нового государственного агентства, а в Общем государственном бюджете на 2022 год было одобрено его создание и выделено пять миллионов евро на его разработку. [135]
Совет министров на своем заседании 13 сентября 2022 года начал процесс выборов в штаб-квартиру AESIA. [136] [137] 16 испанских провинций представили свои кандидатуры, при этом правительство остановило свой выбор на Ла-Корунье , которая предложила здание La Terraza. [138]
22 августа 2023 года правительство утвердило внутренние правила Агентства. [139] Таким образом, Испания стала первой европейской страной, в которой создано агентство, занимающееся надзором за ИИ, что предвосхищает вступление в силу будущего Европейского регламента об искусственном интеллекте, [140] который устанавливает необходимость наличия у государств-членов надзорного органа в этом вопросе.Великобритания поддержала применение и развитие ИИ в бизнесе посредством Стратегии цифровой экономики 2015–2018 [141], представленной в начале 2015 года Innovate UK в рамках Цифровой стратегии Великобритании. [141] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта консультировал по вопросам этики данных, а Институт Алана Тьюринга предоставлял руководство по ответственному проектированию и внедрению систем ИИ. [142] [143] Что касается кибербезопасности, в 2020 году Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности». [46] [144] В следующем году Великобритания опубликовала свою 10-летнюю Национальную стратегию ИИ, [145] в которой описаны действия по оценке долгосрочных рисков ИИ, включая катастрофические риски, связанные с ИИ. [146]
В марте 2023 года Великобритания выпустила белую книгу «Проинновационный подход к регулированию ИИ» . [147] В этой белой книге представлены общие принципы ИИ, но существующим регулирующим органам предоставляется значительная гибкость в том, как они адаптируют эти принципы к конкретным областям, таким как транспорт или финансовые рынки. [148] В ноябре 2023 года в Великобритании прошел первый саммит по безопасности ИИ , на котором премьер-министр Риши Сунак поставил перед собой цель позиционировать Великобританию как лидера в регулировании безопасности ИИ . [149] [150] Во время саммита Великобритания создала Институт безопасности ИИ как эволюцию целевой группы Frontier AI во главе с Яном Хогартом . На институт была возложена особая ответственность за продвижение оценок безопасности самых передовых в мире моделей ИИ, также называемых frontier AI models . [151]
Правительство Великобритании заявило о своем нежелании принимать законы на раннем этапе, утверждая, что это может привести к снижению роста сектора и что законы могут устареть из-за дальнейшего технологического прогресса. [152]
Обсуждения регулирования ИИ в Соединенных Штатах включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, включая то, какое агентство должно руководить, регулирующие и руководящие полномочия этого агентства и как обновлять правила в условиях быстро меняющихся технологий, а также роли правительств штатов и судов. [153]
Еще в 2016 году администрация Обамы начала уделять внимание рискам и регулированию искусственного интеллекта. В отчете под названием « Подготовка к будущему искусственного интеллекта» [154] Национальный совет по науке и технологиям создал прецедент, позволяющий исследователям продолжать разрабатывать новые технологии ИИ с небольшими ограничениями. В отчете говорится, что «подход к регулированию продуктов с поддержкой ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска...». [155] Эти риски были бы основной причиной создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии ИИ.
Первым основным отчетом был Национальный стратегический план исследований и разработок в области искусственного интеллекта. [156] 13 августа 2018 года раздел 1051 Закона о национальной обороне имени Джона С. Маккейна на 2019 финансовый год (PL 115-232) учредил Комиссию национальной безопасности по искусственному интеллекту «для рассмотрения методов и средств, необходимых для продвижения разработки искусственного интеллекта, машинного обучения и связанных с ними технологий для всестороннего удовлетворения потребностей национальной безопасности и обороны Соединенных Штатов». [157] Руководство по регулированию ИИ, связанного с безопасностью, осуществляется Комиссией национальной безопасности по искусственному интеллекту. [158] Закон об инициативе в области искусственного интеллекта (S.1558) — это предлагаемый законопроект, который учредит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ, в частности , для экономической и национальной безопасности Соединенных Штатов. [159] [160]
7 января 2019 года, после Указа президента о сохранении лидерства Америки в области искусственного интеллекта, [161] Управление по научно-технической политике Белого дома опубликовало проект Руководства по регулированию приложений искусственного интеллекта , [162] который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. [163] В ответ на это Национальный институт стандартов и технологий опубликовал позиционный документ, [164] а Совет по инновациям в сфере обороны выпустил рекомендации по этическому использованию ИИ. [45] Год спустя администрация призвала прокомментировать регулирование в другом проекте своего Руководства по регулированию приложений искусственного интеллекта. [165]
Другие специальные агентства, работающие над регулированием ИИ, включают Управление по контролю за продуктами и лекарствами [39] , которое разработало пути регулирования внедрения ИИ в медицинскую визуализацию. [38] Национальный совет по науке и технологиям также опубликовал Национальный стратегический план исследований и разработок в области искусственного интеллекта [166] , который получил общественное внимание и рекомендации по его дальнейшему совершенствованию в целях обеспечения надежного ИИ. [167]
В марте 2021 года Комиссия по национальной безопасности по искусственному интеллекту опубликовала свой окончательный отчет. [168] В отчете они заявили, что «Достижения в области ИИ, включая освоение более общих возможностей ИИ по одному или нескольким измерениям, вероятно, предоставят новые возможности и приложения. Некоторые из этих достижений могут привести к переломным моментам или скачкам в возможностях. Такие достижения могут также привести к новым проблемам и рискам, а также к необходимости в новой политике, рекомендациях и технических достижениях для обеспечения соответствия систем целям и ценностям, включая безопасность, надежность и надежность. США должны следить за достижениями в области ИИ и делать необходимые инвестиции в технологии, а также уделять внимание политике, чтобы гарантировать, что системы ИИ и их использование соответствуют нашим целям и ценностям».
В июне 2022 года сенаторы Роб Портман и Гэри Питерс представили Закон о смягчении глобального катастрофического риска. Двухпартийный законопроект «также поможет противостоять риску искусственного интеллекта... от злоупотреблений способами, которые могут представлять катастрофический риск». [169] [170] 4 октября 2022 года президент Джо Байден представил новый Билль о правах ИИ, [171] в котором изложены пять мер защиты, которые должны быть у американцев в эпоху ИИ: 1. Безопасные и эффективные системы, 2. Защита от алгоритмической дискриминации, 3. Конфиденциальность данных, 4. Уведомление и объяснение и 5. Человеческие альтернативы, рассмотрение и откат. Законопроект был представлен в октябре 2021 года Управлением по политике в области науки и технологий (OSTP), правительственным департаментом США, который консультирует президента по вопросам науки и технологий. [172]
В январе 2023 года Закон о предвзятом аудите города Нью-Йорка (Местный закон 144 [173] ) был принят Советом Нью-Йорка в ноябре 2021 года. Первоначально он должен был вступить в силу 1 января 2023 года, но дата вступления в силу Местного закона 144 была перенесена из-за большого количества комментариев, полученных в ходе публичных слушаний по предложенным Департаментом защиты прав потребителей и работников (DCWP) правилам для уточнения требований законодательства. В конечном итоге он вступил в силу 5 июля 2023 года. [174] С этой даты компаниям, работающим и нанимающим сотрудников в Нью-Йорке, запрещено использовать автоматизированные инструменты для найма кандидатов или продвижения сотрудников, если только инструменты не прошли независимую проверку на предвзятость.
В июле 2023 года администрация Байдена-Харриса заручилась добровольными обязательствами семи компаний — Amazon , Anthropic , Google , Inflection , Meta , Microsoft и OpenAI — по управлению рисками, связанными с ИИ. Компании обязались обеспечить, чтобы продукты ИИ проходили как внутреннее, так и внешнее тестирование безопасности перед публичным выпуском; делиться информацией об управлении рисками ИИ с отраслью, правительствами, гражданским обществом и академическими кругами; отдавать приоритет кибербезопасности и защищать фирменные компоненты систем ИИ; разрабатывать механизмы информирования пользователей о том, когда контент генерируется ИИ, такие как водяные знаки; публично сообщать о возможностях, ограничениях и областях использования своих систем ИИ; отдавать приоритет исследованиям социальных рисков, создаваемых ИИ, включая предвзятость, дискриминацию и проблемы конфиденциальности; и разрабатывать системы ИИ для решения социальных проблем, начиная от профилактики рака и заканчивая смягчением последствий изменения климата . В сентябре 2023 года еще восемь компаний — Adobe , Cohere , IBM , Nvidia , Palantir , Salesforce , Scale AI и Stability AI — подписались под этими добровольными обязательствами. [175] [176]
Администрация Байдена в октябре 2023 года дала понять, что выпустит указ, использующий покупательную способность федерального правительства для формирования правил ИИ, намекая на проактивную позицию правительства в регулировании технологий ИИ. [177] 30 октября 2023 года президент Байден выпустил этот указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте . В указе рассматривается ряд вопросов, таких как сосредоточение внимания на стандартах для критической инфраструктуры, кибербезопасности с использованием ИИ и финансируемых из федерального бюджета проектов биологического синтеза. [178]
Указ президента предоставляет полномочия различным агентствам и департаментам правительства США, включая министерства энергетики и обороны, применять существующие законы о защите прав потребителей к разработке ИИ. [179]
Указ президента основывается на предыдущих соглашениях администрации с компаниями, занимающимися разработкой ИИ, о введении новых инициатив по «контролю рисков» или стресс-тестированию моделей двойного назначения ИИ, особенно тех, которые потенциально могут представлять угрозу безопасности, с предоставлением данных и результатов федеральному правительству.
В указе также признаются социальные проблемы ИИ, и компаниям, создающим модели фундамента двойного назначения ИИ, следует быть осторожнее с этими социальными проблемами. Например, в указе говорится, что ИИ не должен «ухудшать качество работы» и не должен «вызывать перебои в работе рабочей силы». Кроме того, указ Байдена предписывает, что ИИ должен «продвигать равенство и гражданские права» и не может ставить в невыгодное положение маргинализированные группы. [180] Он также призвал к тому, чтобы модели фундамента включали «водяные знаки», чтобы помочь общественности различать контент, созданный человеком и ИИ, что вызвало споры и критику со стороны исследователей обнаружения дипфейков. [181]
В феврале 2024 года сенатор Скотт Винер представил Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта в законодательное собрание Калифорнии. Законопроект во многом опирался на указ Байдена . [182] Его цель заключалась в снижении катастрофических рисков путем обязательного проведения испытаний безопасности для самых мощных моделей ИИ. В случае принятия законопроект также создал бы в Калифорнии финансируемый государством кластер облачных вычислений. [183] 29 сентября губернатор Гэвин Ньюсом наложил вето на законопроект. Маловероятно, что законодательный орган отменит вето губернатора двумя третями голосов обеих палат. [184]
21 марта 2024 года штат Теннесси принял закон под названием « Закон об Элвисе» , направленный конкретно на аудиоподделки и клонирование голоса. [185] Этот закон стал первым принятым в стране законодательством, направленным на регулирование имитации изображения, голоса и образа с помощью искусственного интеллекта. [186] Законопроект был единогласно принят Палатой представителей и Сенатом Теннесси . [187] Сторонники надеялись, что успех этого закона вдохновит на аналогичные действия в других штатах, что будет способствовать единому подходу к авторскому праву и конфиденциальности в цифровую эпоху и усилит важность защиты прав художников от несанкционированного использования их голосов и образов. [188] [189]
13 марта 2024 года губернатор Юты Спенсер Кокс подписал законопроект SB 149 «О политике в области искусственного интеллекта». Этот законопроект вступает в силу 1 мая 2024 года. Он устанавливает ответственность, в частности, для компаний, которые не раскрывают информацию об использовании генеративного ИИ, когда этого требуют законы штата о защите прав потребителей, или когда пользователи совершают уголовные преступления с использованием генеративного ИИ. Он также создает Управление политики в области искусственного интеллекта и Программу лаборатории обучения искусственному интеллекту . [190] [191]
Правовые вопросы, связанные со смертоносными автономными системами оружия (LAWS), в частности, соблюдение законов вооруженного конфликта , обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенции о конкретных видах обычного оружия . [192] В частности, неофициальные встречи экспертов состоялись в 2014, 2015 и 2016 годах, а в 2016 году была назначена Группа правительственных экспертов (GGE) для дальнейшего обсуждения этого вопроса. В 2018 году был принят набор руководящих принципов по LAWS, утвержденных GGE по LAWS. [193]
В 2016 году Китай опубликовал позиционный документ, в котором подверг сомнению адекватность существующего международного права для решения вопроса о возможности появления полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН , поднявшим этот вопрос [47] , что привело к предложениям по глобальному регулированию. [194] Возможность моратория или упреждающего запрета на разработку и использование LAWS также неоднократно поднималась другими национальными делегациями Конвенции о некоторых видах обычного оружия и решительно отстаивается Кампанией по остановке роботов-убийц — коалицией неправительственных организаций. [195] Правительство США утверждает, что действующее международное гуманитарное право способно регулировать разработку или использование LAWS. [196] Исследовательская служба Конгресса указала в 2023 году, что в арсенале США нет LAWS, но что их политика не запрещает их разработку и применение. [197]