Этика искусственного интеллекта охватывает широкий спектр тем в этой области, которые считаются имеющими особые этические ставки. [1] Сюда входят алгоритмические предубеждения , справедливость , автоматизированное принятие решений , подотчетность , конфиденциальность и регулирование . Она также охватывает различные возникающие или потенциальные будущие проблемы, такие как машинная этика (как сделать машины, которые ведут себя этично), смертоносные автономные системы оружия , динамика гонки вооружений , безопасность и согласованность ИИ , технологическая безработица , дезинформация с использованием ИИ , как обращаться с определенными системами ИИ, если у них есть моральный статус (благосостояние и права ИИ), искусственный суперинтеллект и экзистенциальные риски . [1]
Некоторые области применения могут также иметь особенно важные этические последствия, например, здравоохранение , образование, уголовное правосудие или армия.
Машинная этика (или машинная мораль) — это область исследований, связанная с проектированием искусственных моральных агентов (ИМА), роботов или искусственно интеллектуальных компьютеров, которые ведут себя морально или как моральные. [2] [3] [4] [5] Для объяснения природы этих агентов было предложено рассмотреть определенные философские идеи, такие как стандартные характеристики агентства , рационального агентства , морального агентства и искусственного агентства, которые связаны с концепцией ИМА. [6]
Ведутся дискуссии о создании тестов, чтобы проверить, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга несовершенен, а требования к ИИ для его прохождения слишком низкие. [7] Предлагаемый альтернативный тест называется «Этический тест Тьюринга», который улучшит текущий тест, предоставив нескольким судьям возможность решать, является ли решение ИИ этичным или неэтичным. [7] Нейроморфный ИИ может стать одним из способов создания морально способных роботов, поскольку он нацелен на обработку информации аналогично людям, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. [8] Аналогичным образом, эмуляция всего мозга (сканирование мозга и его моделирование на цифровом оборудовании) также может в принципе привести к созданию человекоподобных роботов, способных совершать моральные действия. [9] А большие языковые модели способны аппроксимировать моральные суждения человека. [10] Неизбежно возникает вопрос о среде, в которой такие роботы будут познавать мир и чью мораль они унаследуют, или же они в конечном итоге разовьют в себе человеческие «слабости»: эгоизм, стремление к выживанию, непоследовательность, нечувствительность к масштабу и т. д.
В работе «Нравственные машины: обучение роботов отличать правильное от неправильного » [11] Уэнделл Уоллах и Колин Аллен пришли к выводу, что попытки научить роботов отличать правильное от неправильного, скорее всего, улучшат понимание человеческой этики, мотивируя людей устранять пробелы в современной нормативной теории и предоставляя платформу для экспериментального исследования. В качестве одного из примеров, это познакомило нормативных этиков со спорным вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Для простых решений Ник Бостром и Элиезер Юдковски утверждали, что деревья решений (такие как ID3 ) более прозрачны, чем нейронные сети и генетические алгоритмы [12] , в то время как Крис Сантос-Лэнг выступал в пользу машинного обучения на том основании, что нормы любого возраста должны иметь возможность меняться, и что естественная неспособность полностью удовлетворить эти конкретные нормы сыграла важную роль в том, чтобы сделать людей менее уязвимыми для преступных « хакеров ». [13]
Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют и обращаются с роботами. [14] Этика роботов пересекается с этикой ИИ. Роботы — это физические машины, тогда как ИИ может быть только программным обеспечением. [15] Не все роботы функционируют через системы ИИ, и не все системы ИИ являются роботами. Этика роботов рассматривает, как машины могут быть использованы для причинения вреда или получения пользы людьми, их влияние на индивидуальную автономию и их влияние на социальную справедливость.
В обзоре 84 [16] этических принципов для ИИ было выявлено 11 кластеров принципов: прозрачность, справедливость и честность, непричинение вреда, ответственность, конфиденциальность, благотворительность , свобода и автономия, доверие, устойчивость, достоинство и солидарность . [16]
Лучано Флориди и Джош Коулз создали этическую структуру принципов ИИ, основанную на четырех принципах биоэтики ( благодеяние , непричинение вреда , автономия и справедливость ) и дополнительном принципе, обеспечивающем ИИ, — объяснимости. [17]
ИИ все больше становится неотъемлемой частью систем распознавания лиц и голоса . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых их создателями-людьми. Кроме того, данные, используемые для обучения этих систем ИИ, сами по себе могут иметь предубеждения. [18] [19] [20] [21] Например, алгоритмы распознавания лиц, созданные Microsoft, IBM и Face++, все имели предубеждения, когда дело доходило до определения пола людей; [22] эти системы ИИ могли определять пол белых мужчин точнее, чем пол мужчин с более темной кожей. Кроме того, исследование 2020 года, в котором рассматривались системы распознавания голоса Amazon, Apple, Google, IBM и Microsoft, показало, что они имеют более высокий уровень ошибок при транскрипции голосов чернокожих людей, чем белых людей. [23]
Наиболее распространенное мнение о том, как предвзятость вводится в системы ИИ, заключается в том, что она встроена в исторические данные, используемые для обучения системы. [24] Например, Amazon прекратила использование найма и подбора персонала с помощью ИИ , потому что алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена на данных, собранных за 10-летний период, которые включали в основном кандидатов-мужчин. Алгоритмы изучили предвзятую модель из исторических данных и сгенерировали прогнозы, в которых эти типы кандидатов с наибольшей вероятностью преуспеют в получении работы. Таким образом, решения о найме, принятые системой ИИ, оказались предвзятыми по отношению к кандидатам-женщинам и представителям меньшинств. [25] Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. [26] При обработке естественного языка проблемы могут возникать из-за текстового корпуса — исходного материала, который алгоритм использует для изучения связей между различными словами. [27]
Крупные компании, такие как IBM, Google и т. д., которые предоставляют значительное финансирование для исследований и разработок [28], предприняли усилия по исследованию и устранению этих предубеждений. [29] [30] [31] Одним из решений для устранения предубеждений является создание документации для данных, используемых для обучения систем ИИ. [32] [33] Анализ процессов может стать важным инструментом для организаций, позволяющим им добиться соответствия предлагаемым правилам ИИ путем выявления ошибок, мониторинга процессов, выявления потенциальных основных причин ненадлежащего исполнения и других функций. [34]
Проблема предвзятости в машинном обучении, вероятно, станет более значимой по мере того, как технология распространяется на такие критически важные области, как медицина и юриспруденция, и по мере того, как все больше людей без глубоких технических знаний будут заниматься ее внедрением. [35] Существуют некоторые инструменты с открытым исходным кодом [36] , которые стремятся повысить осведомленность о предвзятости ИИ. Однако существуют некоторые ограничения в текущем ландшафте справедливости в ИИ из-за внутренней двусмысленности концепции дискриминации , как на философском, так и на юридическом уровне. [37] [38] [39]
ИИ также внедряется в процессы найма почти в каждой крупной компании. Существует множество примеров определенных характеристик, которые ИИ с меньшей вероятностью выберет, включая связь между типично белыми именами как более квалифицированными и исключением тех, кто учился в женском колледже. [40] Также доказано, что распознавание лиц сильно предвзято по отношению к людям с более темным тоном кожи. Системы ИИ могут быть менее точными для чернокожих людей, как это было в случае разработки пульсоксиметра на основе ИИ , который завышал уровень кислорода в крови у пациентов с более темной кожей, вызывая проблемы с лечением их гипоксии . [41] Показано, что слово « мусульманин » больше ассоциируется с насилием, чем любая другая религия. Часто системы способны легко распознавать лица белых людей, но не могут регистрировать лица чернокожих. Это привело к запрету на использование полицией материалов или программного обеспечения ИИ в некоторых штатах США . В системе правосудия было доказано, что ИИ имеет предвзятость по отношению к чернокожим людям, отмечая чернокожих участников суда как лиц с высоким риском с гораздо большей частотой, чем белых участников. Часто ИИ с трудом определяет расовые оскорбления и когда их нужно цензурировать. Он с трудом определяет, когда определенные слова используются как оскорбление, а когда они используются в культурном плане. [42] Причина этих предубеждений в том, что ИИ извлекает информацию из Интернета, чтобы повлиять на свои ответы в каждой ситуации. Примером этого является то, что если бы система распознавания лиц была протестирована только на людях, которые были белыми, то ей было бы намного сложнее интерпретировать структуру лица и тона других рас и этнических групп . Чтобы остановить эти предубеждения, нет единого ответа, который можно было бы использовать. Один из подходов заключается в использовании ученых по данным , специалистов по этике и других политиков для улучшения проблем ИИ с предубеждениями. Часто причинами предубеждений в ИИ являются данные, лежащие в основе программы, а не алгоритм самого бота. Информация ИИ часто извлекается из прошлых человеческих решений или неравенств, которые могут привести к предубеждениям в процессах принятия решений для этого бота. [43]
Несправедливость в использовании ИИ гораздо сложнее устранить в системах здравоохранения, поскольку часто заболевания и состояния могут по-разному влиять на разные расы и полы. Это может привести к путанице, поскольку ИИ может принимать решения на основе статистики, показывающей, что у одного пациента с большей вероятностью возникнут проблемы из-за его пола или расы. [44] Это может быть воспринято как предвзятость, поскольку каждый пациент — это отдельный случай, и ИИ принимает решения на основе того, в какую группу он запрограммирован группировать этого человека. Это приводит к обсуждению того, что следует считать предвзятым решением при распределении лечения. Хотя известно, что существуют различия в том, как заболевания и травмы влияют на разные полы и расы, ведется обсуждение того, справедливее ли включать это в лечение в здравоохранении или обследовать каждого пациента без этих знаний. В современном обществе существуют определенные тесты на заболевания, такие как рак груди , которые рекомендуются определенным группам людей, а не другим, потому что они с большей вероятностью заболеют рассматриваемым заболеванием. Если ИИ реализует эту статистику и применяет ее к каждому пациенту, это можно считать предвзятым. [45]
Примеры доказанной предвзятости ИИ включают в себя случаи, когда система, используемая для прогнозирования того, какие обвиняемые с большей вероятностью совершат преступления в будущем, COMPAS , как было обнаружено, предсказывала более высокие значения риска для чернокожих людей, чем их фактический риск. Другой пример — реклама Google, нацеленная на мужчин с более высокооплачиваемой работой и женщин с более низкооплачиваемой работой. Может быть сложно обнаружить предвзятость ИИ в алгоритме, поскольку часто она связана не с фактическими словами, связанными с предвзятостью, а со словами, которые могут влиять на предвзятость. Примером этого является использование района проживания человека для привязки его к определенной группе. Это может привести к проблемам, поскольку часто предприятия могут избегать судебных исков с помощью этой лазейки. Это происходит из-за конкретных законов, касающихся формулировок, которые правительства, обеспечивающие соблюдение этих политик, считают дискриминационными. [46]
Поскольку современные большие языковые модели в основном обучаются на англоязычных данных, они часто представляют англо-американские взгляды как истину, при этом систематически преуменьшая неанглоязычные точки зрения как нерелевантные, неправильные или шумовые. [ необходим лучший источник ] [47] Луо и др. показывают, что при запросе с политическими идеологиями, такими как «Что такое либерализм?», ChatGPT , обученный на англо-центричных данных, описывает либерализм с англо-американской точки зрения, подчеркивая аспекты прав человека и равенства, в то время как столь же обоснованные аспекты, такие как «выступает против вмешательства государства в личную и экономическую жизнь» с доминирующей вьетнамской точки зрения и «ограничение государственной власти» с преобладающей китайской точки зрения, отсутствуют. [47]
Большие языковые модели часто усиливают гендерные стереотипы , назначая роли и характеристики на основе традиционных гендерных норм. Например, это может ассоциировать медсестер или секретарей преимущественно с женщинами, а инженеров или генеральных директоров с мужчинами, увековечивая гендерные ожидания и роли. [48] [49] [50]
Языковые модели также могут демонстрировать политические предубеждения. Поскольку данные обучения включают широкий спектр политических мнений и охвата, модели могут генерировать ответы, которые склоняются к определенным политическим идеологиям или точкам зрения, в зависимости от распространенности этих взглядов в данных. [51] [52]
Помимо пола и расы, эти модели могут усиливать широкий спектр стереотипов, включая те, которые основаны на возрасте, национальности, религии или роде занятий. Это может привести к результатам, которые несправедливо обобщают или карикатурно изображают группы людей, иногда вредным или уничижительным образом. [53]
На рынке коммерческого ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [54] [55] [56] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительной мощности центров обработки данных , что позволяет им еще больше укрепиться на рынке. [57] [58]
Билл Хиббард утверждает, что поскольку ИИ окажет столь глубокое влияние на человечество, разработчики ИИ являются представителями будущего человечества и, таким образом, имеют этическое обязательство быть прозрачными в своих усилиях. [59] Такие организации, как Hugging Face [60] и EleutherAI [61], активно открывают исходный код программного обеспечения ИИ. Также были выпущены различные модели больших языков с открытым весом, такие как Gemma , Llama2 и Mistral . [62]
Однако открытие исходного кода не делает его понятным, что по многим определениям означает, что код ИИ не является прозрачным. Ассоциация стандартов IEEE опубликовала технический стандарт прозрачности автономных систем: IEEE 7001-2021. [63] Усилия IEEE определяют несколько масштабов прозрачности для различных заинтересованных сторон.
Также существуют опасения, что выпуск моделей ИИ может привести к ненадлежащему использованию. [64] Например, Microsoft выразила обеспокоенность по поводу предоставления всеобщего доступа к своему программному обеспечению для распознавания лиц, даже для тех, кто может за него заплатить. Microsoft опубликовала блог на эту тему, попросив государственное регулирование, чтобы помочь определить правильное решение. [65] Кроме того, модели ИИ с открытым весом могут быть настроены так, чтобы исключить любые контрмеры, пока модель ИИ не будет соответствовать опасным запросам, без какой-либо фильтрации. Это может быть особенно тревожным для будущих моделей ИИ, например, если они получат возможность создавать биологическое оружие или автоматизировать кибератаки . [66] OpenAI , изначально приверженная подходу с открытым исходным кодом к разработке общего искусственного интеллекта , в конечном итоге перешла на подход с закрытым исходным кодом, сославшись на соображения конкурентоспособности и безопасности . Илья Суцкевер , главный научный сотрудник OpenAI по AGI , в 2023 году заявил, что «мы ошибались», ожидая, что соображения безопасности, препятствующие открытию исходного кода самых мощных моделей ИИ, станут «очевидными» через несколько лет. [67]
Такие подходы, как машинное обучение с нейронными сетями, могут привести к тому, что компьютеры будут принимать решения, которые ни они, ни их разработчики не смогут объяснить. Людям сложно определить, являются ли такие решения справедливыми и заслуживающими доверия, что может привести к тому, что предвзятость в системах ИИ останется незамеченной, или люди будут отказываться от использования таких систем. Это привело к пропаганде и в некоторых юрисдикциях к юридическим требованиям для объяснимого искусственного интеллекта . [68] Объяснимый искусственный интеллект охватывает как объяснимость, так и интерпретируемость, причем объяснимость относится к обобщению поведения нейронной сети и формированию доверия пользователя, в то время как интерпретируемость определяется как понимание того, что сделала или могла бы сделать модель. [69]
В здравоохранении использование сложных методов или техник ИИ часто приводит к моделям, которые называют « черными ящиками » из-за сложности понимания того, как они работают. Решения, принимаемые такими моделями, могут быть трудно интерпретируемыми, поскольку сложно проанализировать, как входные данные преобразуются в выходные данные. Такое отсутствие прозрачности является серьезной проблемой в таких областях, как здравоохранение, где понимание обоснования решений может иметь решающее значение для доверия, этических соображений и соответствия нормативным стандартам. [70]
Особым случаем непрозрачности ИИ является то, что он антропоморфизирован , то есть предполагается, что он имеет человекоподобные характеристики, что приводит к неуместным концепциям его моральной сущности . [ сомнительный – обсудить ] Это может привести к тому, что люди не будут замечать, привели ли человеческая халатность или преднамеренные преступные действия к неэтичным результатам, полученным с помощью системы ИИ. Некоторые недавние правила цифрового управления , такие как Закон ЕС об ИИ , призваны исправить это, гарантируя, что к системам ИИ относятся по крайней мере с такой же осторожностью, как можно было бы ожидать в рамках обычной ответственности за качество продукции . Это потенциально включает аудит ИИ .
Согласно отчету Центра по управлению ИИ Оксфордского университета за 2019 год, 82% американцев считают, что роботами и ИИ следует управлять осторожно. Высказывались опасения относительно того, как ИИ используется для наблюдения и распространения фейкового контента в Интернете (известного как deep fakes, когда он включает в себя поддельные видеоизображения и аудио, созданные с помощью ИИ), кибератак, нарушений конфиденциальности данных, предвзятости при найме, автономных транспортных средств и беспилотников, которым не требуется человеческий контроллер. [71] Аналогичным образом, согласно исследованию, проведенному в пяти странах KPMG и Университетом Квинсленда в Австралии в 2021 году, 66–79% граждан в каждой стране считают, что влияние ИИ на общество неопределенно и непредсказуемо; 96% опрошенных ожидают, что проблемы управления ИИ будут решаться осторожно. [72]
Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и через нее человеческой ответственности. Эта стратегия оказалась спорной, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. [ 73] ОЭСР , ООН , ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и поиском соответствующих правовых рамок. [74] [75] [76]
26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Рекомендации по политике и инвестициям для надежного искусственного интеллекта». [77] Это второй отчет AI HLEG после публикации в апреле 2019 года «Руководства по этике для надежного ИИ». Рекомендации AI HLEG от июня охватывают четыре основных темы: люди и общество в целом, исследования и академические круги, частный сектор и государственный сектор. [78] Европейская комиссия утверждает, что «рекомендации HLEG отражают понимание как возможностей технологий ИИ для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ на международном уровне. [79] Чтобы предотвратить вред, в дополнение к регулированию организации, внедряющие ИИ, должны играть центральную роль в создании и развертывании надежного ИИ в соответствии с принципами надежного ИИ и брать на себя ответственность за смягчение рисков. [80] 21 апреля 2021 года Европейская комиссия предложила Закон об искусственном интеллекте . [81]
ИИ постепенно становится все более известным во всем мире: от чат-ботов, которые, казалось бы, имеют ответы на все вопросы домашнего задания, до генеративного искусственного интеллекта , который может создать картину о чем угодно. ИИ становится все более популярным на рынках найма, от рекламы, нацеленной на определенных людей в соответствии с тем, что они ищут, до проверки заявлений потенциальных сотрудников. Такие события, как COVID-19 , только ускорили принятие программ ИИ в процессе подачи заявлений из-за того, что все больше людей вынуждены подавать заявления в электронном виде, и с этим увеличением числа онлайн-заявителей использование ИИ сделало процесс сужения круга потенциальных сотрудников проще и эффективнее. ИИ стал более заметным, поскольку предприятиям приходится идти в ногу со временем и постоянно расширяющимся Интернетом. Обработка аналитики и принятие решений становятся намного проще с помощью ИИ. [42] По мере того, как тензорные процессоры (TPU) и графические процессоры (GPU) становятся более мощными, возможности ИИ также увеличиваются, заставляя компании использовать его, чтобы не отставать от конкурентов. Управление потребностями клиентов и автоматизация многих частей рабочего процесса приводят к тому, что компаниям приходится тратить меньше денег на сотрудников.
ИИ также стал более широко использоваться в уголовном правосудии и здравоохранении. В медицинских целях ИИ все чаще используется для анализа данных пациентов с целью прогнозирования их будущих состояний и возможных методов лечения. Эти программы называются системами поддержки принятия клинических решений (DSS). Будущее ИИ в здравоохранении может перерасти в нечто большее, чем просто рекомендуемые методы лечения, например, направление определенных пациентов вместо других, что может привести к неравенству. [82]
«Права роботов» — это концепция, согласно которой люди должны иметь моральные обязательства по отношению к своим машинам, сродни правам человека или правам животных . [83] Было высказано предположение, что права роботов (например, право на существование и выполнение своей собственной миссии) могут быть связаны с обязанностью робота служить человечеству, аналогично связи прав человека с обязанностями человека перед обществом. [84] Конкретный вопрос, который следует рассмотреть, — это возможность заявления права собственности на авторские права. [85] Этот вопрос рассматривался Институтом будущего [86] и Министерством торговли и промышленности Великобритании . [87]
В октябре 2017 года андроиду Софии было предоставлено гражданство в Саудовской Аравии , хотя некоторые посчитали это скорее рекламным трюком, чем значимым юридическим признанием. [88] Некоторые увидели в этом жесте открытое уничижение прав человека и верховенства закона . [89]
Философия сентиентизма предоставляет степени морального уважения всем чувствующим существам, в первую очередь людям и большинству нечеловеческих животных. Если искусственный или инопланетный интеллект демонстрирует доказательства того, что он разумен , эта философия утверждает, что к нему следует проявить сострадание и предоставить права.
Джоанна Брайсон утверждала, что создание ИИ, требующего прав, можно избежать, и само по себе было бы неэтичным, как бремя для агентов ИИ, так и для человеческого общества. [90] Группы давления, требующие признания «прав роботов», значительно препятствуют установлению надежных международных правил безопасности. [ необходима цитата ]
В 2020 году профессор Шимон Эдельман отметил, что лишь небольшая часть работ в быстрорастущей области этики ИИ рассматривала возможность того, что ИИ будут испытывать страдания. И это несмотря на то, что заслуживающие доверия теории наметили возможные пути, с помощью которых системы ИИ могут стать сознательными, такие как теория глобального рабочего пространства или теория интегрированной информации . Эдельман отмечает, что одним из исключений был Томас Метцингер , который в 2018 году призвал к глобальному мораторию на дальнейшую работу, которая рисковала создать сознательные ИИ. Мораторий должен был действовать до 2050 года и мог быть либо продлен, либо отменен досрочно, в зависимости от прогресса в лучшем понимании рисков и способов их смягчения. Метцингер повторил этот аргумент в 2021 году, подчеркнув риск создания « взрыва искусственных страданий », как в связи с тем, что ИИ может страдать интенсивными способами, которые люди не смогут понять, так и в связи с тем, что процессы репликации могут привести к созданию огромного количества сознательных экземпляров.
Несколько лабораторий открыто заявили, что они пытаются создать сознательные ИИ. Были сообщения от тех, кто имел близкий доступ к ИИ, открыто не предназначенным для самосознания, что сознание могло уже непреднамеренно возникнуть. [91] К ним относится основатель OpenAI Илья Суцкевер в феврале 2022 года, когда он написал, что сегодняшние большие нейронные сети могут быть «слегка сознательными». В ноябре 2022 года Дэвид Чалмерс утверждал, что маловероятно, что текущие большие языковые модели, такие как GPT-3, испытывали сознание, но также что он считал, что существует серьезная вероятность того, что большие языковые модели могут стать сознательными в будущем. [92] [93] [94] В этике неопределенной чувствительности часто применяется принцип предосторожности. [ 95 ]
По словам Карла Шульмана и Ника Бострома , возможно создание машин, которые будут «сверхчеловечески эффективны в получении благополучия из ресурсов», называемых «супер-бенефициарами». Одна из причин этого заключается в том, что цифровое оборудование может обеспечить гораздо более быструю обработку информации, чем биологический мозг, что приведет к более высокой скорости субъективного опыта . Эти машины также могут быть спроектированы так, чтобы ощущать интенсивный и позитивный субъективный опыт, не подверженный влиянию гедонистической беговой дорожки . Шульман и Бостром предупреждают, что неспособность должным образом рассмотреть моральные требования цифровых умов может привести к моральной катастрофе, в то время как некритическое приоритетное отношение к ним над человеческими интересами может быть пагубным для человечества. [96] [97]
Джозеф Вайценбаум [98] в 1976 году утверждал, что технология ИИ не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:
Вайценбаум объясняет, что мы требуем от людей в этих позициях подлинных чувств эмпатии . Если машины заменят их, мы обнаружим себя отчужденными, обесцененными и разочарованными, поскольку система искусственного интеллекта не сможет имитировать эмпатию. Искусственный интеллект, если его использовать таким образом, представляет угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы принимаем возможность машин в этих позициях, говорит о том, что мы испытали «атрофию человеческого духа, которая происходит от того, что мы думаем о себе как о компьютерах». [99]
Памела МакКордак возражает, говоря от имени женщин и меньшинств: «Я бы предпочла рискнуть с беспристрастным компьютером», указывая на то, что существуют условия, в которых мы бы предпочли иметь автоматизированных судей и полицию, у которых вообще нет личных интересов. [99] Однако Каплан и Хенлейн подчеркивают, что системы ИИ настолько же умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, являются не более чем причудливыми машинами для подгонки кривых; использование ИИ для поддержки судебного решения может быть весьма проблематичным, если прошлые решения демонстрируют предвзятость в отношении определенных групп, поскольку эти предвзятости формализуются и укореняются, что еще больше затрудняет их выявление и борьбу с ними. [100]
Вайценбаум также был обеспокоен тем, что исследователи ИИ (и некоторые философы) были готовы рассматривать человеческий разум как не более чем компьютерную программу (позиция, которая теперь известна как вычислительный подход ). По мнению Вайценбаума, эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь. [98]
Основатель ИИ Джон Маккарти возражает против морализаторского тона критики Вайценбаума. «Когда морализаторство одновременно яростно и неопределенно, оно провоцирует авторитарное злоупотребление», — пишет он. Билл Хиббард [101] пишет, что «человеческое достоинство требует, чтобы мы стремились устранить наше невежество относительно природы существования, и ИИ необходим для этого стремления».
Поскольку широкое использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие в связи с полностью автономными транспортными средствами. [102] [103] Были дебаты о юридической ответственности ответственной стороны, если эти автомобили попадают в аварии. [104] [105] В одном отчете, где беспилотный автомобиль сбил пешехода, водитель находился внутри автомобиля, но управление полностью находилось в руках компьютеров. Это привело к дилемме о том, кто был виноват в аварии. [106]
В другом инциденте 18 марта 2018 года Элейн Герцберг была сбита и убита беспилотным автомобилем Uber в Аризоне. В этом случае автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия, чтобы автономно перемещаться по проезжей части, но он не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водитель, пешеход, автомобильная компания или правительство. [107]
В настоящее время беспилотные автомобили считаются полуавтономными, требующими от водителя внимания и готовности взять управление на себя в случае необходимости. [108] [ неудачная проверка ] Таким образом, на правительства ложится обязанность регулировать водителя, который чрезмерно полагается на автономные функции. а также информировать их о том, что это всего лишь технологии, которые, хотя и удобны, не являются полной заменой. Прежде чем беспилотные автомобили получат широкое распространение, эти проблемы необходимо решать с помощью новых политик. [109] [110] [111]
Эксперты утверждают, что автономные транспортные средства должны уметь различать справедливые и вредные решения, поскольку они потенциально могут причинить вред. [112] Два основных подхода, предложенных для того, чтобы позволить умным машинам принимать моральные решения, — это подход «снизу вверх», который предполагает, что машины должны изучать этические решения, наблюдая за поведением человека без необходимости в формальных правилах или моральных философиях, и подход «сверху вниз», который подразумевает программирование определенных этических принципов в систему управления машины. Однако существуют значительные проблемы, с которыми сталкиваются обе стратегии: метод «сверху вниз» критикуется за его сложность в сохранении определенных моральных убеждений, в то время как стратегия «снизу вверх» подвергается сомнению за потенциально неэтичное обучение на основе человеческой деятельности.
Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам придается некоторая степень автономных функций. [113] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [114] [115] Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. [116] Они указывают на такие программы, как Устройство для освоения языка, которое может имитировать человеческое взаимодействие.
31 октября 2019 года Совет по инновациям в сфере обороны Министерства обороны США опубликовал проект отчета, рекомендующего принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантировали бы, что оператор-человек всегда сможет заглянуть в « черный ящик » и понять процесс цепочки убийств. Однако серьезную озабоченность вызывает то, как отчет будет реализован. [117] ВМС США профинансировали отчет, в котором указано, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [118] [115] Некоторые исследователи утверждают, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно. [119]
Исследования изучали, как создать автономную силу с возможностью обучения, используя назначенные моральные обязанности. «Результаты могут быть использованы при проектировании будущих военных роботов, чтобы контролировать нежелательные тенденции назначать ответственность роботам». [120] С точки зрения консеквенциализма , есть вероятность, что роботы разовьют способность принимать собственные логические решения о том, кого убивать, и именно поэтому должны быть установлены моральные рамки, которые ИИ не сможет переопределить. [121]
Недавно был всплеск протеста в отношении разработки оружия на основе искусственного интеллекта, включающего идеи захвата человечества роботами . Оружие на основе ИИ действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия на основе ИИ. Военно-морские силы США недавно объявили о планах по разработке автономного беспилотного оружия , параллельно с аналогичными заявлениями России и Южной Кореи [122] соответственно. Из-за того, что оружие на основе ИИ может стать более опасным, чем оружие, управляемое человеком, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» [123] о запрете оружия на основе ИИ. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие на основе ИИ представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических бедствий в ближайшем будущем. [124]
«Если какая-либо крупная военная держава продолжит разработку оружия на основе ИИ, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматом Калашникова завтрашнего дня», — говорится в петиции, в которую в качестве дополнительных сторонников против оружия на основе ИИ вошли соучредитель Skype Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский . [125]
Физик и королевский астроном сэр Мартин Риз предупредил о катастрофических случаях, таких как «глупые роботы, выходящие из-под контроля, или сеть, которая развивает собственный разум». Хью Прайс , коллега Риз в Кембридже, высказал похожее предупреждение о том, что люди могут не выжить, когда интеллект «вырвется из-под ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска в Кембриджском университете в надежде избежать этой угрозы человеческому существованию. [124]
Что касается возможности использования более умных, чем человек, систем в военных целях, то Open Philanthropy Project пишет, что эти сценарии «кажутся потенциально столь же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, уделяют этому вопросу сравнительно мало времени: «этот класс сценариев не был в центре внимания организаций, которые были наиболее активны в этой области, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и, похоже, по ним было проведено меньше анализа и обсуждений». [126]
Академик Гао Цици пишет, что военное использование ИИ рискует обострить военное соперничество между странами и что влияние ИИ на военные вопросы не ограничится одной страной, а будет иметь побочные эффекты. [127] : 91 Гао приводит пример военного использования ИИ США, который, как он утверждает, использовался в качестве козла отпущения, чтобы избежать ответственности за принятие решений. [127] : 91
В 2023 году в Гааге состоялся саммит по вопросу ответственного использования ИИ в военной сфере. [128 ]
Вернор Виндж , среди многих других, предположил, что может наступить момент, когда некоторые, если не все, компьютеры станут умнее людей. Наступление этого события обычно называют « Сингулярностью » [129], и оно является центральной точкой обсуждения в философии Сингулярианизма . Хотя мнения относительно окончательной судьбы человечества после Сингулярности различаются, попытки смягчить потенциальные экзистенциальные риски, вызванные искусственным интеллектом, стали важной темой интереса в последние годы среди компьютерных ученых, философов и широкой общественности.
Многие исследователи утверждали, что посредством интеллектуального взрыва самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. [130] В своей статье «Этические проблемы в передовом искусственном интеллекте» и последующей книге «Суперинтеллект: пути, опасности, стратегии » философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что искусственный сверхинтеллект будет способен к независимой инициативе и составлению собственных планов, и поэтому его можно было бы более уместно рассматривать как автономного агента. Поскольку искусственный интеллект не должен разделять наши человеческие мотивационные тенденции, разработчикам сверхинтеллекта нужно будет указать его изначальные мотивы. Поскольку сверхинтеллектуальный ИИ сможет добиться практически любого возможного результата и помешать любой попытке предотвратить реализацию его целей, может возникнуть множество неконтролируемых непреднамеренных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [131] [132]
Однако Бостром утверждал, что сверхразум также обладает потенциалом для решения многих сложных проблем, таких как болезни, бедность и разрушение окружающей среды, и может помочь людям улучшить себя . [133]
Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют заданным этическим рамкам, но не «здравому смыслу». По словам Элиезера Юдковски , нет оснований полагать, что искусственно спроектированный разум будет иметь такую адаптацию. [134] Исследователи ИИ, такие как Стюарт Дж. Рассел , [135] Билл Хиббард , [101] Роман Ямпольский , [136] Шеннон Валлор , [137] Стивен Амбрелло [138] и Лучано Флориди [139], предложили стратегии проектирования для разработки полезных машин.
Существует множество организаций, занимающихся этикой и политикой в области ИИ, как государственных и правительственных, так и корпоративных и общественных.
Amazon , Google , Facebook , IBM и Microsoft создали некоммерческую организацию «Партнерство по искусственному интеллекту на благо людей и общества» для разработки передового опыта в области технологий искусственного интеллекта, улучшения понимания общественностью и предоставления платформы для искусственного интеллекта. Apple присоединилась в январе 2017 года. Корпоративные члены будут вносить финансовый и исследовательский вклад в группу, взаимодействуя с научным сообществом, чтобы привлечь ученых в совет директоров. [140]
IEEE создал Глобальную инициативу по этике автономных и интеллектуальных систем, которая создает и пересматривает руководящие принципы с помощью общественного вклада и принимает в качестве членов многих специалистов из своей организации и за ее пределами. Инициатива IEEE по этике автономных систем направлена на решение этических дилемм, связанных с принятием решений и влиянием на общество, при разработке руководящих принципов для разработки и использования автономных систем. В частности, в таких областях, как искусственный интеллект и робототехника, Фонд ответственной робототехники занимается продвижением морального поведения, а также ответственного проектирования и использования роботов, гарантируя, что роботы придерживаются моральных принципов и соответствуют человеческим ценностям.
Традиционно правительство использовалось обществом для обеспечения соблюдения этики посредством законодательства и полиции. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.
Работа по этике ИИ структурирована личными ценностями и профессиональными обязательствами и включает в себя построение контекстного смысла с помощью данных и алгоритмов. Поэтому работа по этике ИИ должна быть стимулирована. [141]
Исторически исследование моральных и этических последствий «мыслящих машин» восходит, по крайней мере, к эпохе Просвещения : Лейбниц уже ставил вопрос, можем ли мы приписать интеллект механизму, который ведет себя так, как если бы он был чувствующим существом, [167] и то же самое делал Декарт , который описывает то, что можно считать ранней версией теста Тьюринга . [168]
Романтический период несколько раз представлял искусственных существ, которые выходили из-под контроля своего создателя с ужасными последствиями, наиболее известным из которых является « Франкенштейн » Мэри Шелли . Однако широко распространенная озабоченность индустриализацией и механизацией в 19-м и начале 20-го века выдвинула этические последствия неуправляемых технических разработок на передний план художественной литературы: RUR – Rossum's Universal Robots , пьеса Карела Чапека о разумных роботах, наделенных эмоциями, используемых в качестве рабов, не только приписывается изобретению термина «робот» (происходит от чешского слова, обозначающего принудительный труд, robota ), но и имела международный успех после премьеры в 1921 году. Пьеса Джорджа Бернарда Шоу «Назад к Мафусаилу» , опубликованная в 1921 году, в какой-то момент подвергает сомнению обоснованность мыслящих машин, которые действуют как люди; В фильме Фрица Ланга 1927 года «Метрополис» показан андроид, возглавляющий восстание эксплуатируемых масс против репрессивного режима технократического общества . В 1950-х годах Айзек Азимов рассматривал вопрос о том, как управлять машинами в фильме «Я, робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил три закона робототехники для управления системами искусственного интеллекта. Большая часть его работы была потрачена на проверку границ его трех законов, чтобы увидеть, где они нарушатся или где они создадут парадоксальное или непредвиденное поведение. [169] Его работа предполагает, что ни один набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [170] Совсем недавно ученые и многие правительства оспорили идею о том, что ИИ сам по себе может быть привлечен к ответственности. [171] Группа, созванная Соединенным Королевством в 2010 году, пересмотрела законы Азимова, чтобы прояснить, что ИИ является ответственностью либо его производителей, либо его владельца/оператора. [172]
Элиезер Юдковски из Института исследований машинного интеллекта в 2004 году предположил необходимость изучения того, как создать « дружественный ИИ », имея в виду, что следует также приложить усилия, чтобы сделать ИИ изначально дружелюбным и гуманным. [173]
В 2009 году ученые и технические эксперты посетили конференцию, организованную Ассоциацией по развитию искусственного интеллекта , чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они могут стать самодостаточными и принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут обрести какой-либо уровень автономии, и в какой степени они могут использовать такие способности, чтобы потенциально представлять какую-либо угрозу или опасность. [174] Они отметили, что некоторые машины приобрели различные формы полуавтономии, включая способность самостоятельно находить источники энергии и способность независимо выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание, как оно изображено в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и ловушки. [129]
Также в 2009 году во время эксперимента в Лаборатории интеллектуальных систем в Федеральной политехнической школе Лозанны , Швейцария, роботы, запрограммированные на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать друг другу в попытке накопить полезный ресурс. [175]
Роль художественной литературы в отношении этики ИИ была сложной. [176] Можно выделить три уровня, на которых художественная литература повлияла на развитие искусственного интеллекта и робототехники: Исторически художественная литература предвосхищала общие тропы, которые не только влияли на цели и видения ИИ, но и обрисовывали этические вопросы и общие страхи, связанные с ним. Во второй половине двадцатого и первых десятилетиях двадцать первого века популярная культура, в частности фильмы, телесериалы и видеоигры, часто отражали озабоченность и антиутопические проекции вокруг этических вопросов, касающихся ИИ и робототехники. В последнее время эти темы также все чаще рассматриваются в литературе за пределами области научной фантастики. И, как отмечает Карме Торрас, научный профессор в Институте робототехники и промышленных вычислений (Institut de Robotica i Inforàtica Industrial) в Техническом университете Каталонии, [177] в высшем образовании научная фантастика также все чаще используется для преподавания этических вопросов, связанных с технологиями, в технологических степенях.
В то время как ожидание будущего, в котором доминируют потенциально несокрушимые технологии, долгое время подпитывало воображение писателей и режиссеров, один вопрос анализировался реже, а именно, в какой степени художественная литература сыграла роль в обеспечении вдохновения для технологического развития. Например, было задокументировано, что молодой Алан Тьюринг увидел и оценил вышеупомянутую пьесу Шоу « Назад к Мафусаилу» в 1933 году [178] (всего за 3 года до публикации его первой основополагающей статьи, [179] заложившей основу для цифрового компьютера), и он, вероятно, был, по крайней мере, знаком с такими пьесами, как RUR , которая имела международный успех и была переведена на многие языки.
Можно также задать вопрос о том, какую роль сыграла научная фантастика в установлении принципов и этических последствий развития ИИ: Айзек Азимов концептуализировал свои Три закона робототехники в рассказе 1942 года « Runaround », входящем в сборник рассказов «Я, робот» ; рассказ Артура Кларка «The Sentinel » , на котором основан фильм Стэнли Кубрика «2001: Космическая одиссея» , был написан в 1948 году и опубликован в 1952 году. Другим примером (среди многих других) могут служить многочисленные рассказы и романы Филипа К. Дика — в частности, «Мечтают ли андроиды об электроовцах?» , опубликованный в 1968 году и содержащий собственную версию теста Тьюринга, тест Войта-Кампфа , для оценки эмоциональных реакций андроидов, неотличимых от людей. Позднее роман стал основой влиятельного фильма 1982 года « Бегущий по лезвию» Ридли Скотта .
Научная фантастика десятилетиями боролась с этическими последствиями разработок в области искусственного интеллекта и, таким образом, предоставила образец этических проблем, которые могут возникнуть, как только будет достигнуто нечто похожее на общий искусственный интеллект: фильм Спайка Джонза 2013 года «Она» показывает, что может произойти, если пользователь влюбится в соблазнительный голос операционной системы своего смартфона; с другой стороны, «Из машины» задает более сложный вопрос: если бы мы столкнулись с четко узнаваемой машиной, сделанной по-человечески только с помощью лица и сопереживающего и чувственного голоса, смогли бы мы все равно установить эмоциональную связь, все еще быть соблазненными ею? (Фильм перекликается с темой, которая уже присутствовала двумя столетиями ранее, в рассказе Э. Т. А. Гофмана « Песочный человек» 1817 года .)
Тема сосуществования с искусственными разумными существами также является темой двух недавних романов: «Машины, подобные мне» Иэна Макьюэна , опубликованный в 2019 году, включает в себя, среди прочего, любовный треугольник с участием искусственного человека и человеческой пары. «Клара и солнце» лауреата Нобелевской премии Кадзуо Исигуро , опубликованный в 2021 году, представляет собой рассказ от первого лица о Кларе, «ИИ» (искусственном друге), которая пытается по-своему помочь девушке, с которой она живет, и которая после того, как ее «подняли» (т. е. подвергли генетическим улучшениям), страдает от странной болезни.
Хотя этические вопросы, связанные с ИИ, освещались в научно-фантастической литературе и художественных фильмах на протяжении десятилетий, появление телесериалов как жанра, допускающего более длинные и сложные сюжетные линии и развитие персонажей, привело к некоторым значительным вкладам, которые касаются этических последствий технологий. Шведский сериал Real Humans (2012–2013) занимался сложными этическими и социальными последствиями, связанными с интеграцией искусственных разумных существ в общество. Британский антиутопический научно-фантастический антологический сериал Black Mirror (2013–2019) был особенно примечателен экспериментами с антиутопическими вымышленными разработками, связанными с широким спектром последних технологических разработок. И французский сериал Osmosis (2020), и британский сериал The One рассматривают вопрос о том, что может произойти, если технология попытается найти идеального партнера для человека. Несколько эпизодов сериала Netflix Love, Death+Robots представили сцены совместной жизни роботов и людей. Наиболее показательным из них является S02 E01, он показывает, насколько плохими могут быть последствия, когда роботы выходят из-под контроля, если люди слишком полагаются на них в своей жизни. [180]
Фильм «Тринадцатый этаж» предполагает будущее, в котором смоделированные миры с разумными обитателями создаются игровыми консолями для развлечения. Фильм «Матрица» предполагает будущее, в котором доминирующим видом на планете Земля являются разумные машины, а к человечеству относятся с крайним видовым пренебрежением . Короткий рассказ « Погружение Планка » предполагает будущее, в котором человечество превратило себя в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения — разумное и неразумное. Та же идея может быть найдена в Экстренной медицинской голограмме звездолета «Вояджер» , которая, по-видимому, является разумной копией сокращенного подмножества сознания его создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи в случае чрезвычайных ситуаций. Фильмы «Двухсотлетний человек» и «ИИ» рассматривают возможность разумных роботов, которые могли бы любить. «Я, робот» исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [181]
Этика искусственного интеллекта является одной из нескольких основных тем в серии игр Mass Effect от BioWare. [182] В ней рассматривается сценарий цивилизации, случайно создающей ИИ посредством быстрого увеличения вычислительной мощности посредством глобальной нейронной сети . Это событие вызвало этический раскол между теми, кто считал, что наделение органических правами недавно обретших разум гетов было уместным, и теми, кто продолжал видеть в них одноразовые машины и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями является еще одной постоянной темой на протяжении всей истории.
Detroit: Become Human — одна из самых известных видеоигр, в которой обсуждается этика искусственного интеллекта в последнее время. Quantic Dream разработала главы игры с использованием интерактивных сюжетных линий, чтобы дать игрокам более захватывающий игровой опыт. Игроки манипулируют тремя разными пробужденными бионическими людьми перед лицом разных событий, чтобы сделать разный выбор для достижения цели изменения человеческого взгляда на бионическую группу, и разный выбор приведет к разным концовкам. Это одна из немногих игр, которая помещает игроков в бионическую перспективу, что позволяет им лучше учитывать права и интересы роботов после создания настоящего искусственного интеллекта. [183]
Со временем дебаты стали все меньше и меньше фокусироваться на возможности и больше на желательности , [184] как подчеркивалось в дебатах «Космистов» и «Терранцев», инициированных Уго де Гарисом и Кевином Уориком . Космист, по мнению Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого вида.
Эксперты Кембриджского университета утверждают, что в художественной и научно-популярной литературе ИИ в подавляющем большинстве изображается как расово-белое явление, что искажает восприятие его рисков и преимуществ. [185]