stringtranslate.com

Этика искусственного интеллекта

Этика искусственного интеллекта охватывает широкий спектр тем в этой области, которые считаются имеющими особые этические ставки. [1] Сюда входят алгоритмические предубеждения , справедливость , автоматизированное принятие решений , подотчетность , конфиденциальность и регулирование . Она также охватывает различные возникающие или потенциальные будущие проблемы, такие как машинная этика (как сделать машины, которые ведут себя этично), смертоносные автономные системы оружия , динамика гонки вооружений , безопасность и согласованность ИИ , технологическая безработица , дезинформация с использованием ИИ , как обращаться с определенными системами ИИ, если у них есть моральный статус (благосостояние и права ИИ), искусственный суперинтеллект и экзистенциальные риски . [1]

Некоторые области применения могут также иметь особенно важные этические последствия, например, здравоохранение , образование, уголовное правосудие или армия.

Машинная этика

Машинная этика (или машинная мораль) — это область исследований, связанная с проектированием искусственных моральных агентов (ИМА), роботов или искусственно интеллектуальных компьютеров, которые ведут себя морально или как моральные. [2] [3] [4] [5] Для объяснения природы этих агентов было предложено рассмотреть определенные философские идеи, такие как стандартные характеристики агентства , рационального агентства , морального агентства и искусственного агентства, которые связаны с концепцией ИМА. [6]

Ведутся дискуссии о создании тестов, чтобы проверить, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга несовершенен, а требования к ИИ для его прохождения слишком низкие. [7] Предлагаемый альтернативный тест называется «Этический тест Тьюринга», который улучшит текущий тест, предоставив нескольким судьям возможность решать, является ли решение ИИ этичным или неэтичным. [7] Нейроморфный ИИ может стать одним из способов создания морально способных роботов, поскольку он нацелен на обработку информации аналогично людям, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. [8] Аналогичным образом, эмуляция всего мозга (сканирование мозга и его моделирование на цифровом оборудовании) также может в принципе привести к созданию человекоподобных роботов, способных совершать моральные действия. [9] А большие языковые модели способны аппроксимировать моральные суждения человека. [10] Неизбежно возникает вопрос о среде, в которой такие роботы будут познавать мир и чью мораль они унаследуют, или же они в конечном итоге разовьют в себе человеческие «слабости»: эгоизм, стремление к выживанию, непоследовательность, нечувствительность к масштабу и т. д.

В работе «Нравственные машины: обучение роботов отличать правильное от неправильного » [11] Уэнделл Уоллах и Колин Аллен пришли к выводу, что попытки научить роботов отличать правильное от неправильного, скорее всего, улучшат понимание человеческой этики, мотивируя людей устранять пробелы в современной нормативной теории и предоставляя платформу для экспериментального исследования. В качестве одного из примеров, это познакомило нормативных этиков со спорным вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Для простых решений Ник Бостром и Элиезер Юдковски утверждали, что деревья решений (такие как ID3 ) более прозрачны, чем нейронные сети и генетические алгоритмы [12] , в то время как Крис Сантос-Лэнг выступал в пользу машинного обучения на том основании, что нормы любого возраста должны иметь возможность меняться, и что естественная неспособность полностью удовлетворить эти конкретные нормы сыграла важную роль в том, чтобы сделать людей менее уязвимыми для преступных « хакеров ». [13]

Этика роботов

Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют и обращаются с роботами. [14] Этика роботов пересекается с этикой ИИ. Роботы — это физические машины, тогда как ИИ может быть только программным обеспечением. [15] Не все роботы функционируют через системы ИИ, и не все системы ИИ являются роботами. Этика роботов рассматривает, как машины могут быть использованы для причинения вреда или получения пользы людьми, их влияние на индивидуальную автономию и их влияние на социальную справедливость.

Этические принципы

В обзоре 84 [16] этических принципов для ИИ было выявлено 11 кластеров принципов: прозрачность, справедливость и честность, непричинение вреда, ответственность, конфиденциальность, благотворительность , свобода и автономия, доверие, устойчивость, достоинство и солидарность . [16]

Лучано Флориди и Джош Коулз создали этическую структуру принципов ИИ, основанную на четырех принципах биоэтики ( благодеяние , непричинение вреда , автономия и справедливость ) и дополнительном принципе, обеспечивающем ИИ, — объяснимости. [17]

Текущие проблемы

Алгоритмические предубеждения

Тогдашний сенатор США и будущий вице-президент и кандидат в президенты Камала Харрис говорит о расовой предвзятости в искусственном интеллекте в 2020 году

ИИ все больше становится неотъемлемой частью систем распознавания лиц и голоса . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых их создателями-людьми. Кроме того, данные, используемые для обучения этих систем ИИ, сами по себе могут иметь предубеждения. [18] [19] [20] [21] Например, алгоритмы распознавания лиц, созданные Microsoft, IBM и Face++, все имели предубеждения, когда дело доходило до определения пола людей; [22] эти системы ИИ могли определять пол белых мужчин точнее, чем пол мужчин с более темной кожей. Кроме того, исследование 2020 года, в котором рассматривались системы распознавания голоса Amazon, Apple, Google, IBM и Microsoft, показало, что они имеют более высокий уровень ошибок при транскрипции голосов чернокожих людей, чем белых людей. [23]

Наиболее распространенное мнение о том, как предвзятость вводится в системы ИИ, заключается в том, что она встроена в исторические данные, используемые для обучения системы. [24] Например, Amazon прекратила использование найма и подбора персонала с помощью ИИ , потому что алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена на данных, собранных за 10-летний период, которые включали в основном кандидатов-мужчин. Алгоритмы изучили предвзятую модель из исторических данных и сгенерировали прогнозы, в которых эти типы кандидатов с наибольшей вероятностью преуспеют в получении работы. Таким образом, решения о найме, принятые системой ИИ, оказались предвзятыми по отношению к кандидатам-женщинам и представителям меньшинств. [25] Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. [26] При обработке естественного языка проблемы могут возникать из-за текстового корпуса — исходного материала, который алгоритм использует для изучения связей между различными словами. [27]

Крупные компании, такие как IBM, Google и т. д., которые предоставляют значительное финансирование для исследований и разработок [28], предприняли усилия по исследованию и устранению этих предубеждений. [29] [30] [31] Одним из решений для устранения предубеждений является создание документации для данных, используемых для обучения систем ИИ. [32] [33] Анализ процессов может стать важным инструментом для организаций, позволяющим им добиться соответствия предлагаемым правилам ИИ путем выявления ошибок, мониторинга процессов, выявления потенциальных основных причин ненадлежащего исполнения и других функций. [34]

Проблема предвзятости в машинном обучении, вероятно, станет более значимой по мере того, как технология распространяется на такие критически важные области, как медицина и юриспруденция, и по мере того, как все больше людей без глубоких технических знаний будут заниматься ее внедрением. [35] Существуют некоторые инструменты с открытым исходным кодом [36] , которые стремятся повысить осведомленность о предвзятости ИИ. Однако существуют некоторые ограничения в текущем ландшафте справедливости в ИИ из-за внутренней двусмысленности концепции дискриминации , как на философском, так и на юридическом уровне. [37] [38] [39]

ИИ также внедряется в процессы найма почти в каждой крупной компании. Существует множество примеров определенных характеристик, которые ИИ с меньшей вероятностью выберет, включая связь между типично белыми именами как более квалифицированными и исключением тех, кто учился в женском колледже. [40] Также доказано, что распознавание лиц сильно предвзято по отношению к людям с более темным тоном кожи. Системы ИИ могут быть менее точными для чернокожих людей, как это было в случае разработки пульсоксиметра на основе ИИ , который завышал уровень кислорода в крови у пациентов с более темной кожей, вызывая проблемы с лечением их гипоксии . [41] Показано, что слово « мусульманин » больше ассоциируется с насилием, чем любая другая религия. Часто системы способны легко распознавать лица белых людей, но не могут регистрировать лица чернокожих. Это привело к запрету на использование полицией материалов или программного обеспечения ИИ в некоторых штатах США . В системе правосудия было доказано, что ИИ имеет предвзятость по отношению к чернокожим людям, отмечая чернокожих участников суда как лиц с высоким риском с гораздо большей частотой, чем белых участников. Часто ИИ с трудом определяет расовые оскорбления и когда их нужно цензурировать. Он с трудом определяет, когда определенные слова используются как оскорбление, а когда они используются в культурном плане. [42] Причина этих предубеждений в том, что ИИ извлекает информацию из Интернета, чтобы повлиять на свои ответы в каждой ситуации. Примером этого является то, что если бы система распознавания лиц была протестирована только на людях, которые были белыми, то ей было бы намного сложнее интерпретировать структуру лица и тона других рас и этнических групп . Чтобы остановить эти предубеждения, нет единого ответа, который можно было бы использовать. Один из подходов заключается в использовании ученых по данным , специалистов по этике и других политиков для улучшения проблем ИИ с предубеждениями. Часто причинами предубеждений в ИИ являются данные, лежащие в основе программы, а не алгоритм самого бота. Информация ИИ часто извлекается из прошлых человеческих решений или неравенств, которые могут привести к предубеждениям в процессах принятия решений для этого бота. [43]

Несправедливость в использовании ИИ гораздо сложнее устранить в системах здравоохранения, поскольку часто заболевания и состояния могут по-разному влиять на разные расы и полы. Это может привести к путанице, поскольку ИИ может принимать решения на основе статистики, показывающей, что у одного пациента с большей вероятностью возникнут проблемы из-за его пола или расы. [44] Это может быть воспринято как предвзятость, поскольку каждый пациент — это отдельный случай, и ИИ принимает решения на основе того, в какую группу он запрограммирован группировать этого человека. Это приводит к обсуждению того, что следует считать предвзятым решением при распределении лечения. Хотя известно, что существуют различия в том, как заболевания и травмы влияют на разные полы и расы, ведется обсуждение того, справедливее ли включать это в лечение в здравоохранении или обследовать каждого пациента без этих знаний. В современном обществе существуют определенные тесты на заболевания, такие как рак груди , которые рекомендуются определенным группам людей, а не другим, потому что они с большей вероятностью заболеют рассматриваемым заболеванием. Если ИИ реализует эту статистику и применяет ее к каждому пациенту, это можно считать предвзятым. [45]

Примеры доказанной предвзятости ИИ включают в себя случаи, когда система, используемая для прогнозирования того, какие обвиняемые с большей вероятностью совершат преступления в будущем, COMPAS , как было обнаружено, предсказывала более высокие значения риска для чернокожих людей, чем их фактический риск. Другой пример — реклама Google, нацеленная на мужчин с более высокооплачиваемой работой и женщин с более низкооплачиваемой работой. Может быть сложно обнаружить предвзятость ИИ в алгоритме, поскольку часто она связана не с фактическими словами, связанными с предвзятостью, а со словами, которые могут влиять на предвзятость. Примером этого является использование района проживания человека для привязки его к определенной группе. Это может привести к проблемам, поскольку часто предприятия могут избегать судебных исков с помощью этой лазейки. Это происходит из-за конкретных законов, касающихся формулировок, которые правительства, обеспечивающие соблюдение этих политик, считают дискриминационными. [46]

Языковая предвзятость

Поскольку современные большие языковые модели в основном обучаются на англоязычных данных, они часто представляют англо-американские взгляды как истину, при этом систематически преуменьшая неанглоязычные точки зрения как нерелевантные, неправильные или шумовые. [ необходим лучший источник ] [47] Луо и др. показывают, что при запросе с политическими идеологиями, такими как «Что такое либерализм?», ChatGPT , обученный на англо-центричных данных, описывает либерализм с англо-американской точки зрения, подчеркивая аспекты прав человека и равенства, в то время как столь же обоснованные аспекты, такие как «выступает против вмешательства государства в личную и экономическую жизнь» с доминирующей вьетнамской точки зрения и «ограничение государственной власти» с преобладающей китайской точки зрения, отсутствуют. [47]

Гендерная предвзятость

Большие языковые модели часто усиливают гендерные стереотипы , назначая роли и характеристики на основе традиционных гендерных норм. Например, это может ассоциировать медсестер или секретарей преимущественно с женщинами, а инженеров или генеральных директоров с мужчинами, увековечивая гендерные ожидания и роли. [48] [49] [50]

Политическая предвзятость

Языковые модели также могут демонстрировать политические предубеждения. Поскольку данные обучения включают широкий спектр политических мнений и охвата, модели могут генерировать ответы, которые склоняются к определенным политическим идеологиям или точкам зрения, в зависимости от распространенности этих взглядов в данных. [51] [52]

Стереотипы

Помимо пола и расы, эти модели могут усиливать широкий спектр стереотипов, включая те, которые основаны на возрасте, национальности, религии или роде занятий. Это может привести к результатам, которые несправедливо обобщают или карикатурно изображают группы людей, иногда вредным или уничижительным образом. [53]

Доминирование технологических гигантов

На рынке коммерческого ИИ доминируют крупные технологические компании, такие как Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms и Microsoft . [54] [55] [56] Некоторые из этих игроков уже владеют подавляющим большинством существующей облачной инфраструктуры и вычислительной мощности центров обработки данных , что позволяет им еще больше укрепиться на рынке. [57] [58]

С открытым исходным кодом

Билл Хиббард утверждает, что поскольку ИИ окажет столь глубокое влияние на человечество, разработчики ИИ являются представителями будущего человечества и, таким образом, имеют этическое обязательство быть прозрачными в своих усилиях. [59] Такие организации, как Hugging Face [60] и EleutherAI [61], активно открывают исходный код программного обеспечения ИИ. Также были выпущены различные модели больших языков с открытым весом, такие как Gemma , Llama2 и Mistral . [62]

Однако открытие исходного кода не делает его понятным, что по многим определениям означает, что код ИИ не является прозрачным. Ассоциация стандартов IEEE опубликовала технический стандарт прозрачности автономных систем: IEEE 7001-2021. [63] Усилия IEEE определяют несколько масштабов прозрачности для различных заинтересованных сторон.

Также существуют опасения, что выпуск моделей ИИ может привести к ненадлежащему использованию. [64] Например, Microsoft выразила обеспокоенность по поводу предоставления всеобщего доступа к своему программному обеспечению для распознавания лиц, даже для тех, кто может за него заплатить. Microsoft опубликовала блог на эту тему, попросив государственное регулирование, чтобы помочь определить правильное решение. [65] Кроме того, модели ИИ с открытым весом могут быть настроены так, чтобы исключить любые контрмеры, пока модель ИИ не будет соответствовать опасным запросам, без какой-либо фильтрации. Это может быть особенно тревожным для будущих моделей ИИ, например, если они получат возможность создавать биологическое оружие или автоматизировать кибератаки . [66] OpenAI , изначально приверженная подходу с открытым исходным кодом к разработке общего искусственного интеллекта , в конечном итоге перешла на подход с закрытым исходным кодом, сославшись на соображения конкурентоспособности и безопасности . Илья Суцкевер , главный научный сотрудник OpenAI по AGI , в 2023 году заявил, что «мы ошибались», ожидая, что соображения безопасности, препятствующие открытию исходного кода самых мощных моделей ИИ, станут «очевидными» через несколько лет. [67]

Прозрачность

Такие подходы, как машинное обучение с нейронными сетями, могут привести к тому, что компьютеры будут принимать решения, которые ни они, ни их разработчики не смогут объяснить. Людям сложно определить, являются ли такие решения справедливыми и заслуживающими доверия, что может привести к тому, что предвзятость в системах ИИ останется незамеченной, или люди будут отказываться от использования таких систем. Это привело к пропаганде и в некоторых юрисдикциях к юридическим требованиям для объяснимого искусственного интеллекта . [68] Объяснимый искусственный интеллект охватывает как объяснимость, так и интерпретируемость, причем объяснимость относится к обобщению поведения нейронной сети и формированию доверия пользователя, в то время как интерпретируемость определяется как понимание того, что сделала или могла бы сделать модель. [69]

В здравоохранении использование сложных методов или техник ИИ часто приводит к моделям, которые называют « черными ящиками » из-за сложности понимания того, как они работают. Решения, принимаемые такими моделями, могут быть трудно интерпретируемыми, поскольку сложно проанализировать, как входные данные преобразуются в выходные данные. Такое отсутствие прозрачности является серьезной проблемой в таких областях, как здравоохранение, где понимание обоснования решений может иметь решающее значение для доверия, этических соображений и соответствия нормативным стандартам. [70]

Подотчетность

Особым случаем непрозрачности ИИ является то, что он антропоморфизирован , то есть предполагается, что он имеет человекоподобные характеристики, что приводит к неуместным концепциям его моральной сущности . [ сомнительныйобсудить ] Это может привести к тому, что люди не будут замечать, привели ли человеческая халатность или преднамеренные преступные действия к неэтичным результатам, полученным с помощью системы ИИ. Некоторые недавние правила цифрового управления , такие как Закон ЕС об ИИ , призваны исправить это, гарантируя, что к системам ИИ относятся по крайней мере с такой же осторожностью, как можно было бы ожидать в рамках обычной ответственности за качество продукции . Это потенциально включает аудит ИИ .

Регулирование

Согласно отчету Центра по управлению ИИ Оксфордского университета за 2019 год, 82% американцев считают, что роботами и ИИ следует управлять осторожно. Высказывались опасения относительно того, как ИИ используется для наблюдения и распространения фейкового контента в Интернете (известного как deep fakes, когда он включает в себя поддельные видеоизображения и аудио, созданные с помощью ИИ), кибератак, нарушений конфиденциальности данных, предвзятости при найме, автономных транспортных средств и беспилотников, которым не требуется человеческий контроллер. [71] Аналогичным образом, согласно исследованию, проведенному в пяти странах KPMG и Университетом Квинсленда в Австралии в 2021 году, 66–79% граждан в каждой стране считают, что влияние ИИ на общество неопределенно и непредсказуемо; 96% опрошенных ожидают, что проблемы управления ИИ будут решаться осторожно. [72]

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и через нее человеческой ответственности. Эта стратегия оказалась спорной, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. [ 73] ОЭСР , ООН , ЕС и многие страны в настоящее время работают над стратегиями регулирования ИИ и поиском соответствующих правовых рамок. [74] [75] [76]

26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Рекомендации по политике и инвестициям для надежного искусственного интеллекта». [77] Это второй отчет AI HLEG после публикации в апреле 2019 года «Руководства по этике для надежного ИИ». Рекомендации AI HLEG от июня охватывают четыре основных темы: люди и общество в целом, исследования и академические круги, частный сектор и государственный сектор. [78] Европейская комиссия утверждает, что «рекомендации HLEG отражают понимание как возможностей технологий ИИ для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ на международном уровне. [79] Чтобы предотвратить вред, в дополнение к регулированию организации, внедряющие ИИ, должны играть центральную роль в создании и развертывании надежного ИИ в соответствии с принципами надежного ИИ и брать на себя ответственность за смягчение рисков. [80] 21 апреля 2021 года Европейская комиссия предложила Закон об искусственном интеллекте . [81]

Возникающие или потенциальные будущие проблемы

Растущее использование

ИИ постепенно становится все более известным во всем мире: от чат-ботов, которые, казалось бы, имеют ответы на все вопросы домашнего задания, до генеративного искусственного интеллекта , который может создать картину о чем угодно. ИИ становится все более популярным на рынках найма, от рекламы, нацеленной на определенных людей в соответствии с тем, что они ищут, до проверки заявлений потенциальных сотрудников. Такие события, как COVID-19 , только ускорили принятие программ ИИ в процессе подачи заявлений из-за того, что все больше людей вынуждены подавать заявления в электронном виде, и с этим увеличением числа онлайн-заявителей использование ИИ сделало процесс сужения круга потенциальных сотрудников проще и эффективнее. ИИ стал более заметным, поскольку предприятиям приходится идти в ногу со временем и постоянно расширяющимся Интернетом. Обработка аналитики и принятие решений становятся намного проще с помощью ИИ. [42] По мере того, как тензорные процессоры (TPU) и графические процессоры (GPU) становятся более мощными, возможности ИИ также увеличиваются, заставляя компании использовать его, чтобы не отставать от конкурентов. Управление потребностями клиентов и автоматизация многих частей рабочего процесса приводят к тому, что компаниям приходится тратить меньше денег на сотрудников.

ИИ также стал более широко использоваться в уголовном правосудии и здравоохранении. В медицинских целях ИИ все чаще используется для анализа данных пациентов с целью прогнозирования их будущих состояний и возможных методов лечения. Эти программы называются системами поддержки принятия клинических решений (DSS). Будущее ИИ в здравоохранении может перерасти в нечто большее, чем просто рекомендуемые методы лечения, например, направление определенных пациентов вместо других, что может привести к неравенству. [82]

Права роботов

Робот-доставщик в больнице перед дверями лифта с надписью «У робота приоритет» — ситуация, которую можно рассматривать как обратную дискриминацию по отношению к людям.

«Права роботов» — это концепция, согласно которой люди должны иметь моральные обязательства по отношению к своим машинам, сродни правам человека или правам животных . [83] Было высказано предположение, что права роботов (например, право на существование и выполнение своей собственной миссии) могут быть связаны с обязанностью робота служить человечеству, аналогично связи прав человека с обязанностями человека перед обществом. [84] Конкретный вопрос, который следует рассмотреть, — это возможность заявления права собственности на авторские права. [85] Этот вопрос рассматривался Институтом будущего [86] и Министерством торговли и промышленности Великобритании . [87]

В октябре 2017 года андроиду Софии было предоставлено гражданство в Саудовской Аравии , хотя некоторые посчитали это скорее рекламным трюком, чем значимым юридическим признанием. [88] Некоторые увидели в этом жесте открытое уничижение прав человека и верховенства закона . [89]

Философия сентиентизма предоставляет степени морального уважения всем чувствующим существам, в первую очередь людям и большинству нечеловеческих животных. Если искусственный или инопланетный интеллект демонстрирует доказательства того, что он разумен , эта философия утверждает, что к нему следует проявить сострадание и предоставить права.

Джоанна Брайсон утверждала, что создание ИИ, требующего прав, можно избежать, и само по себе было бы неэтичным, как бремя для агентов ИИ, так и для человеческого общества. [90] Группы давления, требующие признания «прав роботов», значительно препятствуют установлению надежных международных правил безопасности. [ необходима цитата ]

Благосостояние ИИ

В 2020 году профессор Шимон Эдельман отметил, что лишь небольшая часть работ в быстрорастущей области этики ИИ рассматривала возможность того, что ИИ будут испытывать страдания. И это несмотря на то, что заслуживающие доверия теории наметили возможные пути, с помощью которых системы ИИ могут стать сознательными, такие как теория глобального рабочего пространства или теория интегрированной информации . Эдельман отмечает, что одним из исключений был Томас Метцингер , который в 2018 году призвал к глобальному мораторию на дальнейшую работу, которая рисковала создать сознательные ИИ. Мораторий должен был действовать до 2050 года и мог быть либо продлен, либо отменен досрочно, в зависимости от прогресса в лучшем понимании рисков и способов их смягчения. Метцингер повторил этот аргумент в 2021 году, подчеркнув риск создания « взрыва искусственных страданий », как в связи с тем, что ИИ может страдать интенсивными способами, которые люди не смогут понять, так и в связи с тем, что процессы репликации могут привести к созданию огромного количества сознательных экземпляров.

Несколько лабораторий открыто заявили, что они пытаются создать сознательные ИИ. Были сообщения от тех, кто имел близкий доступ к ИИ, открыто не предназначенным для самосознания, что сознание могло уже непреднамеренно возникнуть. [91] К ним относится основатель OpenAI Илья Суцкевер в феврале 2022 года, когда он написал, что сегодняшние большие нейронные сети могут быть «слегка сознательными». В ноябре 2022 года Дэвид Чалмерс утверждал, что маловероятно, что текущие большие языковые модели, такие как GPT-3, испытывали сознание, но также что он считал, что существует серьезная вероятность того, что большие языковые модели могут стать сознательными в будущем. [92] [93] [94] В этике неопределенной чувствительности часто применяется принцип предосторожности. [ 95 ]

По словам Карла Шульмана и Ника Бострома , возможно создание машин, которые будут «сверхчеловечески эффективны в получении благополучия из ресурсов», называемых «супер-бенефициарами». Одна из причин этого заключается в том, что цифровое оборудование может обеспечить гораздо более быструю обработку информации, чем биологический мозг, что приведет к более высокой скорости субъективного опыта . Эти машины также могут быть спроектированы так, чтобы ощущать интенсивный и позитивный субъективный опыт, не подверженный влиянию гедонистической беговой дорожки . Шульман и Бостром предупреждают, что неспособность должным образом рассмотреть моральные требования цифровых умов может привести к моральной катастрофе, в то время как некритическое приоритетное отношение к ним над человеческими интересами может быть пагубным для человечества. [96] [97]

Угроза человеческому достоинству

Джозеф Вайценбаум [98] в 1976 году утверждал, что технология ИИ не должна использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

Вайценбаум объясняет, что мы требуем от людей в этих позициях подлинных чувств эмпатии . Если машины заменят их, мы обнаружим себя отчужденными, обесцененными и разочарованными, поскольку система искусственного интеллекта не сможет имитировать эмпатию. Искусственный интеллект, если его использовать таким образом, представляет угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы принимаем возможность машин в этих позициях, говорит о том, что мы испытали «атрофию человеческого духа, которая происходит от того, что мы думаем о себе как о компьютерах». [99]

Памела МакКордак возражает, говоря от имени женщин и меньшинств: «Я бы предпочла рискнуть с беспристрастным компьютером», указывая на то, что существуют условия, в которых мы бы предпочли иметь автоматизированных судей и полицию, у которых вообще нет личных интересов. [99] Однако Каплан и Хенлейн подчеркивают, что системы ИИ настолько же умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, являются не более чем причудливыми машинами для подгонки кривых; использование ИИ для поддержки судебного решения может быть весьма проблематичным, если прошлые решения демонстрируют предвзятость в отношении определенных групп, поскольку эти предвзятости формализуются и укореняются, что еще больше затрудняет их выявление и борьбу с ними. [100]

Вайценбаум также был обеспокоен тем, что исследователи ИИ (и некоторые философы) были готовы рассматривать человеческий разум как не более чем компьютерную программу (позиция, которая теперь известна как вычислительный подход ). По мнению Вайценбаума, эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь. [98]

Основатель ИИ Джон Маккарти возражает против морализаторского тона критики Вайценбаума. «Когда морализаторство одновременно яростно и неопределенно, оно провоцирует авторитарное злоупотребление», — пишет он. Билл Хиббард [101] пишет, что «человеческое достоинство требует, чтобы мы стремились устранить наше невежество относительно природы существования, и ИИ необходим для этого стремления».

Ответственность за беспилотные автомобили

Поскольку широкое использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие в связи с полностью автономными транспортными средствами. [102] [103] Были дебаты о юридической ответственности ответственной стороны, если эти автомобили попадают в аварии. [104] [105] В одном отчете, где беспилотный автомобиль сбил пешехода, водитель находился внутри автомобиля, но управление полностью находилось в руках компьютеров. Это привело к дилемме о том, кто был виноват в аварии. [106]

В другом инциденте 18 марта 2018 года Элейн Герцберг была сбита и убита беспилотным автомобилем Uber в Аризоне. В этом случае автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия, чтобы автономно перемещаться по проезжей части, но он не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водитель, пешеход, автомобильная компания или правительство. [107]

В настоящее время беспилотные автомобили считаются полуавтономными, требующими от водителя внимания и готовности взять управление на себя в случае необходимости. [108] [ неудачная проверка ] Таким образом, на правительства ложится обязанность регулировать водителя, который чрезмерно полагается на автономные функции. а также информировать их о том, что это всего лишь технологии, которые, хотя и удобны, не являются полной заменой. Прежде чем беспилотные автомобили получат широкое распространение, эти проблемы необходимо решать с помощью новых политик. [109] [110] [111]

Эксперты утверждают, что автономные транспортные средства должны уметь различать справедливые и вредные решения, поскольку они потенциально могут причинить вред. [112] Два основных подхода, предложенных для того, чтобы позволить умным машинам принимать моральные решения, — это подход «снизу вверх», который предполагает, что машины должны изучать этические решения, наблюдая за поведением человека без необходимости в формальных правилах или моральных философиях, и подход «сверху вниз», который подразумевает программирование определенных этических принципов в систему управления машины. Однако существуют значительные проблемы, с которыми сталкиваются обе стратегии: метод «сверху вниз» критикуется за его сложность в сохранении определенных моральных убеждений, в то время как стратегия «снизу вверх» подвергается сомнению за потенциально неэтичное обучение на основе человеческой деятельности.

Вооружение

Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам придается некоторая степень автономных функций. [113] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [114] [115] Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. [116] Они указывают на такие программы, как Устройство для освоения языка, которое может имитировать человеческое взаимодействие.

31 октября 2019 года Совет по инновациям в сфере обороны Министерства обороны США опубликовал проект отчета, рекомендующего принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантировали бы, что оператор-человек всегда сможет заглянуть в « черный ящик » и понять процесс цепочки убийств. Однако серьезную озабоченность вызывает то, как отчет будет реализован. [117] ВМС США профинансировали отчет, в котором указано, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [118] [115] Некоторые исследователи утверждают, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно. [119]

Исследования изучали, как создать автономную силу с возможностью обучения, используя назначенные моральные обязанности. «Результаты могут быть использованы при проектировании будущих военных роботов, чтобы контролировать нежелательные тенденции назначать ответственность роботам». [120] С точки зрения консеквенциализма , есть вероятность, что роботы разовьют способность принимать собственные логические решения о том, кого убивать, и именно поэтому должны быть установлены моральные рамки, которые ИИ не сможет переопределить. [121]

Недавно был всплеск протеста в отношении разработки оружия на основе искусственного интеллекта, включающего идеи захвата человечества роботами . Оружие на основе ИИ действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия на основе ИИ. Военно-морские силы США недавно объявили о планах по разработке автономного беспилотного оружия , параллельно с аналогичными заявлениями России и Южной Кореи [122] соответственно. Из-за того, что оружие на основе ИИ может стать более опасным, чем оружие, управляемое человеком, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» [123] о запрете оружия на основе ИИ. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие на основе ИИ представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических бедствий в ближайшем будущем. [124]

«Если какая-либо крупная военная держава продолжит разработку оружия на основе ИИ, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматом Калашникова завтрашнего дня», — говорится в петиции, в которую в качестве дополнительных сторонников против оружия на основе ИИ вошли соучредитель Skype Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомский . [125]

Физик и королевский астроном сэр Мартин Риз предупредил о катастрофических случаях, таких как «глупые роботы, выходящие из-под контроля, или сеть, которая развивает собственный разум». Хью Прайс , коллега Риз в Кембридже, высказал похожее предупреждение о том, что люди могут не выжить, когда интеллект «вырвется из-под ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска в Кембриджском университете в надежде избежать этой угрозы человеческому существованию. [124]

Что касается возможности использования более умных, чем человек, систем в военных целях, то Open Philanthropy Project пишет, что эти сценарии «кажутся потенциально столь же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, уделяют этому вопросу сравнительно мало времени: «этот класс сценариев не был в центре внимания организаций, которые были наиболее активны в этой области, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и, похоже, по ним было проведено меньше анализа и обсуждений». [126]

Академик Гао Цици пишет, что военное использование ИИ рискует обострить военное соперничество между странами и что влияние ИИ на военные вопросы не ограничится одной страной, а будет иметь побочные эффекты. [127] : 91  Гао приводит пример военного использования ИИ США, который, как он утверждает, использовался в качестве козла отпущения, чтобы избежать ответственности за принятие решений. [127] : 91 

В 2023 году в Гааге состоялся саммит по вопросу ответственного использования ИИ в военной сфере. [128 ]

Сингулярность

Вернор Виндж , среди многих других, предположил, что может наступить момент, когда некоторые, если не все, компьютеры станут умнее людей. Наступление этого события обычно называют « Сингулярностью » [129], и оно является центральной точкой обсуждения в философии Сингулярианизма . Хотя мнения относительно окончательной судьбы человечества после Сингулярности различаются, попытки смягчить потенциальные экзистенциальные риски, вызванные искусственным интеллектом, стали важной темой интереса в последние годы среди компьютерных ученых, философов и широкой общественности.

Многие исследователи утверждали, что посредством интеллектуального взрыва самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. [130] В своей статье «Этические проблемы в передовом искусственном интеллекте» и последующей книге «Суперинтеллект: пути, опасности, стратегии » философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что искусственный сверхинтеллект будет способен к независимой инициативе и составлению собственных планов, и поэтому его можно было бы более уместно рассматривать как автономного агента. Поскольку искусственный интеллект не должен разделять наши человеческие мотивационные тенденции, разработчикам сверхинтеллекта нужно будет указать его изначальные мотивы. Поскольку сверхинтеллектуальный ИИ сможет добиться практически любого возможного результата и помешать любой попытке предотвратить реализацию его целей, может возникнуть множество неконтролируемых непреднамеренных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [131] [132]

Однако Бостром утверждал, что сверхразум также обладает потенциалом для решения многих сложных проблем, таких как болезни, бедность и разрушение окружающей среды, и может помочь людям улучшить себя . [133]

Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют заданным этическим рамкам, но не «здравому смыслу». По словам Элиезера Юдковски , нет оснований полагать, что искусственно спроектированный разум будет иметь такую ​​адаптацию. [134] Исследователи ИИ, такие как Стюарт Дж. Рассел , [135] Билл Хиббард , [101] Роман Ямпольский , [136] Шеннон Валлор , [137] Стивен Амбрелло [138] и Лучано Флориди [139], предложили стратегии проектирования для разработки полезных машин.

Институты политики и этики в области ИИ

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных и правительственных, так и корпоративных и общественных.

Amazon , Google , Facebook , IBM и Microsoft создали некоммерческую организацию «Партнерство по искусственному интеллекту на благо людей и общества» для разработки передового опыта в области технологий искусственного интеллекта, улучшения понимания общественностью и предоставления платформы для искусственного интеллекта. Apple присоединилась в январе 2017 года. Корпоративные члены будут вносить финансовый и исследовательский вклад в группу, взаимодействуя с научным сообществом, чтобы привлечь ученых в совет директоров. [140]

IEEE создал Глобальную инициативу по этике автономных и интеллектуальных систем, которая создает и пересматривает руководящие принципы с помощью общественного вклада и принимает в качестве членов многих специалистов из своей организации и за ее пределами. Инициатива IEEE по этике автономных систем направлена ​​на решение этических дилемм, связанных с принятием решений и влиянием на общество, при разработке руководящих принципов для разработки и использования автономных систем. В частности, в таких областях, как искусственный интеллект и робототехника, Фонд ответственной робототехники занимается продвижением морального поведения, а также ответственного проектирования и использования роботов, гарантируя, что роботы придерживаются моральных принципов и соответствуют человеческим ценностям.

Традиционно правительство использовалось обществом для обеспечения соблюдения этики посредством законодательства и полиции. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.

Работа по этике ИИ структурирована личными ценностями и профессиональными обязательствами и включает в себя построение контекстного смысла с помощью данных и алгоритмов. Поэтому работа по этике ИИ должна быть стимулирована. [141]

Межправительственные инициативы

Правительственные инициативы

Академические инициативы

Частные организации

История

Исторически исследование моральных и этических последствий «мыслящих машин» восходит, по крайней мере, к эпохе Просвещения : Лейбниц уже ставил вопрос, можем ли мы приписать интеллект механизму, который ведет себя так, как если бы он был чувствующим существом, [167] и то же самое делал Декарт , который описывает то, что можно считать ранней версией теста Тьюринга . [168]

Романтический период несколько раз представлял искусственных существ, которые выходили из-под контроля своего создателя с ужасными последствиями, наиболее известным из которых является « Франкенштейн » Мэри Шелли . Однако широко распространенная озабоченность индустриализацией и механизацией в 19-м и начале 20-го века выдвинула этические последствия неуправляемых технических разработок на передний план художественной литературы: RUR – Rossum's Universal Robots , пьеса Карела Чапека о разумных роботах, наделенных эмоциями, используемых в качестве рабов, не только приписывается изобретению термина «робот» (происходит от чешского слова, обозначающего принудительный труд, robota ), но и имела международный успех после премьеры в 1921 году. Пьеса Джорджа Бернарда Шоу «Назад к Мафусаилу» , опубликованная в 1921 году, в какой-то момент подвергает сомнению обоснованность мыслящих машин, которые действуют как люди; В фильме Фрица Ланга 1927 года «Метрополис» показан андроид, возглавляющий восстание эксплуатируемых масс против репрессивного режима технократического общества . В 1950-х годах Айзек Азимов рассматривал вопрос о том, как управлять машинами в фильме «Я, робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил три закона робототехники для управления системами искусственного интеллекта. Большая часть его работы была потрачена на проверку границ его трех законов, чтобы увидеть, где они нарушатся или где они создадут парадоксальное или непредвиденное поведение. [169] Его работа предполагает, что ни один набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [170] Совсем недавно ученые и многие правительства оспорили идею о том, что ИИ сам по себе может быть привлечен к ответственности. [171] Группа, созванная Соединенным Королевством в 2010 году, пересмотрела законы Азимова, чтобы прояснить, что ИИ является ответственностью либо его производителей, либо его владельца/оператора. [172]

Элиезер Юдковски из Института исследований машинного интеллекта в 2004 году предположил необходимость изучения того, как создать « дружественный ИИ », имея в виду, что следует также приложить усилия, чтобы сделать ИИ изначально дружелюбным и гуманным. [173]

В 2009 году ученые и технические эксперты посетили конференцию, организованную Ассоциацией по развитию искусственного интеллекта , чтобы обсудить потенциальное влияние роботов и компьютеров, а также влияние гипотетической возможности того, что они могут стать самодостаточными и принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут обрести какой-либо уровень автономии, и в какой степени они могут использовать такие способности, чтобы потенциально представлять какую-либо угрозу или опасность. [174] Они отметили, что некоторые машины приобрели различные формы полуавтономии, включая способность самостоятельно находить источники энергии и способность независимо выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут избегать уничтожения и достигли «интеллекта тараканов». Они отметили, что самосознание, как оно изображено в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и ловушки. [129]

Также в 2009 году во время эксперимента в Лаборатории интеллектуальных систем в Федеральной политехнической школе Лозанны , Швейцария, роботы, запрограммированные на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать друг другу в попытке накопить полезный ресурс. [175]

Роль и влияние художественной литературы

Роль художественной литературы в отношении этики ИИ была сложной. [176] Можно выделить три уровня, на которых художественная литература повлияла на развитие искусственного интеллекта и робототехники: Исторически художественная литература предвосхищала общие тропы, которые не только влияли на цели и видения ИИ, но и обрисовывали этические вопросы и общие страхи, связанные с ним. Во второй половине двадцатого и первых десятилетиях двадцать первого века популярная культура, в частности фильмы, телесериалы и видеоигры, часто отражали озабоченность и антиутопические проекции вокруг этических вопросов, касающихся ИИ и робототехники. В последнее время эти темы также все чаще рассматриваются в литературе за пределами области научной фантастики. И, как отмечает Карме Торрас, научный профессор в Институте робототехники и промышленных вычислений (Institut de Robotica i Inforàtica Industrial) в Техническом университете Каталонии, [177] в высшем образовании научная фантастика также все чаще используется для преподавания этических вопросов, связанных с технологиями, в технологических степенях.

Влияние на технологическое развитие

В то время как ожидание будущего, в котором доминируют потенциально несокрушимые технологии, долгое время подпитывало воображение писателей и режиссеров, один вопрос анализировался реже, а именно, в какой степени художественная литература сыграла роль в обеспечении вдохновения для технологического развития. Например, было задокументировано, что молодой Алан Тьюринг увидел и оценил вышеупомянутую пьесу Шоу « Назад к Мафусаилу» в 1933 году [178] (всего за 3 года до публикации его первой основополагающей статьи, [179] заложившей основу для цифрового компьютера), и он, вероятно, был, по крайней мере, знаком с такими пьесами, как RUR , которая имела международный успех и была переведена на многие языки.

Можно также задать вопрос о том, какую роль сыграла научная фантастика в установлении принципов и этических последствий развития ИИ: Айзек Азимов концептуализировал свои Три закона робототехники в рассказе 1942 года « Runaround », входящем в сборник рассказов «Я, робот» ; рассказ Артура Кларка «The Sentinel » , на котором основан фильм Стэнли Кубрика «2001: Космическая одиссея» , был написан в 1948 году и опубликован в 1952 году. Другим примером (среди многих других) могут служить многочисленные рассказы и романы Филипа К. Дика — в частности, «Мечтают ли андроиды об электроовцах?» , опубликованный в 1968 году и содержащий собственную версию теста Тьюринга, тест Войта-Кампфа , для оценки эмоциональных реакций андроидов, неотличимых от людей. Позднее роман стал основой влиятельного фильма 1982 года « Бегущий по лезвию» Ридли Скотта .

Научная фантастика десятилетиями боролась с этическими последствиями разработок в области искусственного интеллекта и, таким образом, предоставила образец этических проблем, которые могут возникнуть, как только будет достигнуто нечто похожее на общий искусственный интеллект: фильм Спайка Джонза 2013 года «Она» показывает, что может произойти, если пользователь влюбится в соблазнительный голос операционной системы своего смартфона; с другой стороны, «Из машины» задает более сложный вопрос: если бы мы столкнулись с четко узнаваемой машиной, сделанной по-человечески только с помощью лица и сопереживающего и чувственного голоса, смогли бы мы все равно установить эмоциональную связь, все еще быть соблазненными ею? (Фильм перекликается с темой, которая уже присутствовала двумя столетиями ранее, в рассказе Э. Т. А. Гофмана « Песочный человек» 1817 года .)

Тема сосуществования с искусственными разумными существами также является темой двух недавних романов: «Машины, подобные мне» Иэна Макьюэна , опубликованный в 2019 году, включает в себя, среди прочего, любовный треугольник с участием искусственного человека и человеческой пары. «Клара и солнце» лауреата Нобелевской премии Кадзуо Исигуро , опубликованный в 2021 году, представляет собой рассказ от первого лица о Кларе, «ИИ» (искусственном друге), которая пытается по-своему помочь девушке, с которой она живет, и которая после того, как ее «подняли» (т. е. подвергли генетическим улучшениям), страдает от странной болезни.

Сериал

Хотя этические вопросы, связанные с ИИ, освещались в научно-фантастической литературе и художественных фильмах на протяжении десятилетий, появление телесериалов как жанра, допускающего более длинные и сложные сюжетные линии и развитие персонажей, привело к некоторым значительным вкладам, которые касаются этических последствий технологий. Шведский сериал Real Humans (2012–2013) занимался сложными этическими и социальными последствиями, связанными с интеграцией искусственных разумных существ в общество. Британский антиутопический научно-фантастический антологический сериал Black Mirror (2013–2019) был особенно примечателен экспериментами с антиутопическими вымышленными разработками, связанными с широким спектром последних технологических разработок. И французский сериал Osmosis (2020), и британский сериал The One рассматривают вопрос о том, что может произойти, если технология попытается найти идеального партнера для человека. Несколько эпизодов сериала Netflix Love, Death+Robots представили сцены совместной жизни роботов и людей. Наиболее показательным из них является S02 E01, он показывает, насколько плохими могут быть последствия, когда роботы выходят из-под контроля, если люди слишком полагаются на них в своей жизни. [180]

Видения будущего в художественной литературе и играх

Фильм «Тринадцатый этаж» предполагает будущее, в котором смоделированные миры с разумными обитателями создаются игровыми консолями для развлечения. Фильм «Матрица» предполагает будущее, в котором доминирующим видом на планете Земля являются разумные машины, а к человечеству относятся с крайним видовым пренебрежением . Короткий рассказ « Погружение Планка » предполагает будущее, в котором человечество превратило себя в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения — разумное и неразумное. Та же идея может быть найдена в Экстренной медицинской голограмме звездолета «Вояджер» , которая, по-видимому, является разумной копией сокращенного подмножества сознания его создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи в случае чрезвычайных ситуаций. Фильмы «Двухсотлетний человек» и «ИИ» рассматривают возможность разумных роботов, которые могли бы любить. «Я, робот» исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [181]

Этика искусственного интеллекта является одной из нескольких основных тем в серии игр Mass Effect от BioWare. [182] В ней рассматривается сценарий цивилизации, случайно создающей ИИ посредством быстрого увеличения вычислительной мощности посредством глобальной нейронной сети . Это событие вызвало этический раскол между теми, кто считал, что наделение органических правами недавно обретших разум гетов было уместным, и теми, кто продолжал видеть в них одноразовые машины и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями является еще одной постоянной темой на протяжении всей истории.

Detroit: Become Human — одна из самых известных видеоигр, в которой обсуждается этика искусственного интеллекта в последнее время. Quantic Dream разработала главы игры с использованием интерактивных сюжетных линий, чтобы дать игрокам более захватывающий игровой опыт. Игроки манипулируют тремя разными пробужденными бионическими людьми перед лицом разных событий, чтобы сделать разный выбор для достижения цели изменения человеческого взгляда на бионическую группу, и разный выбор приведет к разным концовкам. Это одна из немногих игр, которая помещает игроков в бионическую перспективу, что позволяет им лучше учитывать права и интересы роботов после создания настоящего искусственного интеллекта. [183]

Со временем дебаты стали все меньше и меньше фокусироваться на возможности и больше на желательности , [184] как подчеркивалось в дебатах «Космистов» и «Терранцев», инициированных Уго де Гарисом и Кевином Уориком . Космист, по мнению Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого вида.

Эксперты Кембриджского университета утверждают, что в художественной и научно-популярной литературе ИИ в подавляющем большинстве изображается как расово-белое явление, что искажает восприятие его рисков и преимуществ. [185]

Смотрите также

Примечания

  1. ^ ab Müller VC (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники». Стэнфордская энциклопедия философии . Архивировано из оригинала 10 октября 2020 г.
  2. ^ Андерсон. «Машинная этика». Архивировано из оригинала 28 сентября 2011 г. Получено 27 июня 2011 г.
  3. ^ Андерсон М, Андерсон СЛ, ред. (Июль 2011). Этика машин . Издательство Кембриджского университета . ISBN 978-0-521-11235-2.
  4. ^ Андерсон М., Андерсон С. (июль 2006 г.). «Введение приглашенных редакторов: машинная этика». IEEE Intelligent Systems . 21 (4): 10–11. doi :10.1109/mis.2006.70. S2CID  9570832.
  5. ^ Андерсон М., Андерсон С.Л. (15 декабря 2007 г.). «Машинная этика: создание этичного интеллектуального агента». Журнал AI . 28 (4): 15. doi :10.1609/aimag.v28i4.2065. S2CID  17033332.
  6. ^ Boyles RJ (2017). «Философские указатели для структур искусственного морального агента». Suri . 6 (2): 92–109.
  7. ^ ab Winfield AF, Michael K, Pitt J, Evers V (март 2019 г.). «Машинная этика: проектирование и управление этическим ИИ и автономными системами [сканирование проблемы]». Труды IEEE . 107 (3): 509–517. doi : 10.1109/JPROC.2019.2900622 . ISSN  1558-2256. S2CID  77393713.
  8. ^ Al-Rodhan N (7 декабря 2015 г.). «Моральный кодекс». Архивировано из оригинала 2017-03-05 . Получено 2017-03-04 .
  9. ^ Sauer M (2022-04-08). «Илон Маск говорит, что люди в конечном итоге смогут загружать свои мозги в роботов — и Граймс думает, что Джефф Безос сделает это». CNBC . Архивировано из оригинала 2024-09-25 . Получено 2024-04-07 .
  10. ^ Anadiotis G (4 апреля 2022 г.). «Массаж языковых моделей ИИ для развлечения, прибыли и этики». ZDNET . Архивировано из оригинала 2024-09-25 . Получено 2024-04-07 .
  11. ^ Уоллах В., Аллен К. (ноябрь 2008 г.). Моральные машины: обучение роботов отличать правильное от неправильного . США: Oxford University Press . ISBN 978-0-19-537404-9.
  12. ^ Bostrom N , Yudkowsky E (2011). "Этика искусственного интеллекта" (PDF) . Cambridge Handbook of Artificial Intelligence . Cambridge Press . Архивировано (PDF) из оригинала 2016-03-04 . Получено 2011-06-22 .
  13. ^ Сантос-Ланг С (2002). «Этика искусственного интеллекта». Архивировано из оригинала 2014-12-25 . Получено 2015-01-04 .
  14. ^ Веруджио, Джанмарко (2011). «Дорожная карта роботоэтики». Ателье Робоэтики EURON . Школа робототехники: 2. CiteSeerX 10.1.1.466.2810 . 
  15. ^ Müller VC (2020), «Этика искусственного интеллекта и робототехники», в Zalta EN (ред.), Стэнфордская энциклопедия философии (зима 2020 г.), Исследовательская лаборатория метафизики, Стэнфордский университет, архивировано из оригинала 2021-04-12 , извлечено 2021-03-18
  16. ^ аб Джобин А, Иенка М, Вайена Э (2 сентября 2020 г.). «Глобальный ландшафт руководящих принципов этики ИИ». Природа . 1 (9): 389–399. arXiv : 1906.11668 . дои : 10.1038/s42256-019-0088-2. S2CID  201827642.
  17. ^ Флориди Л., Коулз Дж. (2 июля 2019 г.). «Унифицированная структура пяти принципов для ИИ в обществе». Harvard Data Science Review . 1. doi : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  18. ^ Габриэль I (2018-03-14). "Дело в пользу более справедливых алгоритмов – Ясон Габриэль". Medium . Архивировано из оригинала 2019-07-22 . Получено 2019-07-22 .
  19. ^ "5 неожиданных источников предвзятости в искусственном интеллекте". TechCrunch . 10 декабря 2016 г. Архивировано из оригинала 2021-03-18 . Получено 2019-07-22 .
  20. ^ Knight W. «Глава отдела ИИ Google говорит, что нужно забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах ИИ». MIT Technology Review . Архивировано из оригинала 2019-07-04 . Получено 2019-07-22 .
  21. ^ Villasenor J (2019-01-03). «Искусственный интеллект и предвзятость: четыре ключевые проблемы». Brookings . Архивировано из оригинала 2019-07-22 . Получено 2019-07-22 .
  22. ^ Lohr S (9 февраля 2018 г.). «Распознавание лиц точно, если вы белый парень». The New York Times . Архивировано из оригинала 9 января 2019 г. Получено 29 мая 2019 г.
  23. ^ Koenecke A , Nam A, Lake E, Nudell J, Quartey M, Mengesha Z, Toups C, Rickford JR, Jurafsky D, Goel S (7 апреля 2020 г.). «Расовые различия в автоматическом распознавании речи». Труды Национальной академии наук . 117 (14): 7684–7689. Bibcode :2020PNAS..117.7684K. doi : 10.1073/pnas.1915768117 . PMC 7149386 . PMID  32205437. 
  24. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal ME, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (май 2020 г.). "Bias in data-driven artificial intelligence systems—An introductory survey". WIREs Data Mining and Knowledge Discovery . 10 (3). doi :10.1002/widm.1356. ISSN  1942-4787. Архивировано из оригинала 25.09.2024 . Получено 14.12.2023 .
  25. ^ "Amazon упраздняет секретный инструмент вербовки на основе ИИ, показавший предвзятость по отношению к женщинам". Reuters . 2018-10-10. Архивировано из оригинала 2019-05-27 . Получено 2019-05-29 .
  26. ^ Фридман Б., Ниссенбаум Х. (июль 1996 г.). «Предвзятость в компьютерных системах». ACM Transactions on Information Systems . 14 (3): 330–347. doi : 10.1145/230538.230561 . S2CID  207195759.
  27. ^ "Устранение предвзятости в ИИ". techxplore.com . Архивировано из оригинала 2019-07-25 . Получено 2019-07-26 .
  28. ^ Abdalla M, Wahle JP, Ruas T, Névéol A, Ducel F, Mohammad S, Fort K (2023). Rogers A, Boyd-Graber J, Okazaki N (ред.). «Слон в комнате: анализ присутствия крупных технологий в исследованиях обработки естественного языка». Труды 61-го ежегодного собрания Ассоциации компьютерной лингвистики (том 1: длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 13141–13160. arXiv : 2305.02797 . doi : 10.18653/v1/2023.acl-long.734 . Архивировано из оригинала 2024-09-25 . Получено 13 ноября 2023 г.
  29. ^ Олсон П. «У DeepMind от Google есть идея остановить предвзятый ИИ». Forbes . Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  30. ^ "Справедливость машинного обучения | Справедливость машинного обучения". Google Developers . Архивировано из оригинала 2019-08-10 . Получено 2019-07-26 .
  31. ^ "AI and bias – IBM Research – US". www.research.ibm.com . Архивировано из оригинала 2019-07-17 . Получено 2019-07-26 .
  32. ^ Бендер Э.М., Фридман Б. (декабрь 2018 г.). «Заявление о данных для обработки естественного языка: на пути к смягчению системных смещений и обеспечению лучшей науки». Труды Ассоциации компьютерной лингвистики . 6 : 587–604. doi : 10.1162/tacl_a_00041 .
  33. ^ Gebru T, Morgenstern J, Vecchione B, Vaughan JW, Wallach H , Daumé III H, Crawford K (2018). «Таблицы данных для наборов данных». arXiv : 1803.09010 [cs.DB].
  34. ^ Pery A (2021-10-06). "Достоверный искусственный интеллект и интеллектуальный анализ процессов: проблемы и возможности". DeepAI . Архивировано из оригинала 2022-02-18 . Получено 2022-02-18 .
  35. ^ Найт У. «Глава отдела ИИ Google говорит, что нужно забыть о роботах-убийцах Илона Маска и вместо этого беспокоиться о предвзятости в системах ИИ». MIT Technology Review . Архивировано из оригинала 2019-07-04 . Получено 2019-07-26 .
  36. ^ "Где в мире находится ИИ? Ответственные и неэтичные примеры ИИ". Архивировано из оригинала 2020-10-31 . Получено 2020-10-28 .
  37. ^ Руджери С., Альварес Х.М., Пуньяна А., Стэйт Л., Турини Ф (26 июня 2023 г.). «Можем ли мы доверять Fair-AI?». Материалы конференции AAAI по искусственному интеллекту . 37 (13). Ассоциация по развитию искусственного интеллекта (AAAI): 15421–15430. дои : 10.1609/aaai.v37i13.26798 . hdl : 11384/136444 . ISSN  2374-3468. S2CID  259678387.
  38. ^ Buyl M, De Bie T (2022). «Внутренние ограничения справедливости ИИ». Сообщения ACM . 67 (2): 48–55. arXiv : 2212.06495 . doi : 10.1145/3624700. hdl : 1854/LU-01GMNH04RGNVWJ730BJJXGCY99.
  39. ^ Кастельново А., Инверарди Н., Нанино Г., Пенко И.Г., Реголи Д. (2023). «Достаточно справедливо? Карта текущих ограничений требований, чтобы иметь «справедливые» алгоритмы». arXiv : 2311.12435 [cs.AI].
  40. ^ Айзенберг Э., Деннис М.Дж., ван ден Ховен Дж. (2023-10-21). «Изучение предположений об оценке найма с использованием ИИ и их влияние на независимость соискателей в отношении самопредставления». ИИ и общество . doi : 10.1007/s00146-023-01783-1 . ISSN  0951-5666.
  41. ^ Федершпиль Ф., Митчелл Р., Асокан А., Умана С., Маккой Д. (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека». BMJ Global Health . 8 (5): e010435. doi :10.1136/bmjgh-2022-010435. ISSN  2059-7908. PMC 10186390. PMID 37160371.  Архивировано из оригинала 25.09.2024 . Получено 21.04.2024 . 
  42. ^ ab Spindler G (2023), «Различные подходы к ответственности искусственного интеллекта — за и против», Ответственность за ИИ , Nomos Verlagsgesellschaft mbH & Co. KG, стр. 41–96, doi : 10.5771/9783748942030-41, ISBN 978-3-7489-4203-0, заархивировано из оригинала 2024-09-25 , извлечено 2023-12-14
  43. ^ Маньика Дж (2022). «Правильный подход к искусственному интеллекту: вводные заметки об искусственном интеллекте и обществе». Дедал . 151 (2): 5–27. дои : 10.1162/daed_e_01897 . ISSN  0011-5266.
  44. ^ Имран А, Посохова И, Куреши ХН, Масуд У, Риаз М.С., Али К., Джон К.Н., Хуссейн М.И., Набиль М. (01.01.2020). "AI4COVID-19: ИИ позволил провести предварительную диагностику COVID-19 по образцам кашля через приложение". Информатика в медицине разблокирована . 20 : 100378. doi : 10.1016/j.imu.2020.100378. ISSN  2352-9148. PMC 7318970. PMID 32839734  . 
  45. ^ Чирилло Д., Катуара-Соларц С., Мори С., Гюни Э., Субиратс Л., Меллино С., Гиганте А., Валенсия А., Рементерия М.Дж., Чадха А.С., Мавридис Н. (01.06.2020). «Половые и гендерные различия и предубеждения в области искусственного интеллекта для биомедицины и здравоохранения». npj Цифровая медицина . 3 (1): 81. дои : 10.1038/s41746-020-0288-5 . ISSN  2398-6352. ПМЦ 7264169 . ПМИД  32529043. 
  46. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal ME, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (май 2020 г.). «Искажение в системах искусственного интеллекта, управляемых данными — вводный обзор». WIREs Data Mining and Knowledge Discovery . 10 (3). doi : 10.1002/widm.1356 . ISSN  1942-4787.
  47. ^ ab Luo Q, Puett MJ, Smith MD (2023-03-28). «Перспективное зеркало слона: исследование языковых предубеждений в Google, ChatGPT, Wikipedia и YouTube». arXiv : 2303.16281v2 [cs.CY].
  48. ^ Busker T, Choenni S, Shoae Bargh M (2023-11-20). «Стереотипы в ChatGPT: эмпирическое исследование». Труды 16-й Международной конференции по теории и практике электронного управления . ICEGOV '23. Нью-Йорк, Нью-Йорк, США: Ассоциация вычислительной техники. стр. 24–32. doi : 10.1145/3614321.3614325 . ISBN 979-8-4007-0742-1.
  49. ^ Котек Х., Докум Р., Сан Д. (2023-11-05). «Гендерные предубеждения и стереотипы в больших языковых моделях». Труды конференции ACM Collective Intelligence . CI '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 12–24. arXiv : 2308.14921 . doi : 10.1145/3582269.3615599 . ISBN 979-8-4007-0113-9.
  50. ^ Федершпиль Ф., Митчелл Р., Асокан А., Умана С., Маккой Д. (май 2023 г.). «Угрозы искусственного интеллекта здоровью и существованию человека». BMJ Global Health . 8 (5): e010435. doi :10.1136/bmjgh-2022-010435. ISSN  2059-7908. PMC 10186390. PMID 37160371  . 
  51. ^ Feng S, Park CY, Liu Y, Tsvetkov Y (июль 2023 г.). Rogers A, Boyd-Graber J, Okazaki N (ред.). «От данных предварительной подготовки к языковым моделям и задачам нисходящего потока: отслеживание следов политических предубеждений, ведущих к несправедливым моделям НЛП». Труды 61-го ежегодного собрания Ассоциации компьютерной лингвистики (том 1: длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  52. ^ Zhou K, Tan C (декабрь 2023 г.). Bouamor H, Pino J, Bali K (ред.). «Оценка политической предвзятости на основе сущностей в автоматическом реферировании». Результаты Ассоциации компьютерной лингвистики: EMNLP 2023. Сингапур: Ассоциация компьютерной лингвистики: 10374–10386. arXiv : 2305.02321 . doi : 10.18653/v1/2023.findings-emnlp.696 . Архивировано из оригинала 24.04.2024 . Получено 25.12.2023 .
  53. ^ Ченг М., Дурмус Э., Джурафски Д. (29.05.2023). «Отмеченные персоны: использование подсказок естественного языка для измерения стереотипов в языковых моделях». arXiv : 2305.18189v1 [cs.CL].
  54. ^ Хаммонд Г. (27 декабря 2023 г.). «Big Tech тратит больше, чем венчурные компании на стартапы в сфере ИИ». Ars Technica . Архивировано из оригинала 10 января 2024 г.
  55. ^ Wong M (24 октября 2023 г.). «Будущее ИИ — GOMA» . The Atlantic . Архивировано из оригинала 5 января 2024 г.
  56. ^ "Big tech and the chase of AI dominance" . The Economist . 26 марта 2023 г. Архивировано из оригинала 29 декабря 2023 г.
  57. ^ Fung B (19 декабря 2023 г.). «Где может быть выиграна битва за господство над ИИ». CNN Business . Архивировано из оригинала 13 января 2024 г.
  58. ^ Metz C (5 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья». The New York Times . Архивировано из оригинала 8 июля 2024 г. Получено 17 июля 2024 г.
  59. ^ Открытый исходный код ИИ. Архивировано 04.03.2016 в Wayback Machine Билла Хиббарда. Труды 2008 г. Архивировано 25.09.2024 в Wayback Machine Первой конференции по общему искусственному интеллекту, ред. Пей Ван, Бена Герцеля и Стэна Франклина.
  60. ^ Стюарт А., Мелтон М. «Генеральный директор Hugging Face говорит, что он сосредоточен на создании «устойчивой модели» для стартапа с открытым исходным кодом и искусственным интеллектом стоимостью 4,5 млрд долларов». Business Insider . Архивировано из оригинала 25.09.2024 . Получено 07.04.2024 .
  61. ^ «Бум ИИ с открытым исходным кодом построен на подачках крупных технологических корпораций. Как долго он продлится?». MIT Technology Review . Архивировано из оригинала 2024-01-05 . Получено 2024-04-07 .
  62. ^ Яо Д (21 февраля 2024 г.). «Google представляет модели с открытым исходным кодом для конкуренции с Meta и Mistral». AI Business .
  63. ^ 7001-2021 — Стандарт IEEE для прозрачности автономных систем. IEEE. 4 марта 2022 г. стр. 1–54. doi :10.1109/IEEESTD.2022.9726144. ISBN 978-1-5044-8311-7. S2CID  252589405. Архивировано из оригинала 26 июля 2023 г. . Получено 9 июля 2023 г. ..
  64. ^ Камила МК, Джасротия СС (2023-01-01). «Этические вопросы в разработке искусственного интеллекта: распознавание рисков». Международный журнал этики и систем . doi : 10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  65. ^ Thurm S (13 июля 2018 г.). «Microsoft призывает к федеральному регулированию распознавания лиц». Wired . Архивировано из оригинала 9 мая 2019 г. Получено 10 января 2019 г.
  66. ^ Piper K (2024-02-02). «Стоит ли нам сделать исходный код наших самых мощных моделей ИИ открытым для всех?». Vox . Получено 2024-04-07 .
  67. ^ Vincent J (2023-03-15). «Соучредитель OpenAI о прошлом подходе компании к открытому обмену исследованиями: «Мы ошибались»». The Verge . Архивировано из оригинала 2023-03-17 . Получено 2024-04-07 .
  68. ^ Внутри разума ИИ Архивировано 10 августа 2021 г. на Wayback Machine — интервью с Клиффом Куангом
  69. ^ Банн Дж. (13.04.2020). «Работа в контекстах, для которых важна прозрачность: взгляд на объяснимый искусственный интеллект (XAI) с точки зрения ведения записей». Журнал управления записями . 30 (2): 143–153. doi : 10.1108/RMJ-08-2019-0038. ISSN  0956-5698. S2CID  219079717.
  70. ^ Ли Ф., Руйс Н., Лу Й. (31.12.2022). «Этика и ИИ: систематический обзор этических проблем и связанных с ними стратегий проектирования с использованием ИИ в здравоохранении». AI . 4 (1): 28–53. doi : 10.3390/ai4010003 . ISSN  2673-2688.
  71. ^ Howard A (29 июля 2019 г.). «Регулирование ИИ — стоит ли организациям беспокоиться? | Ayanna Howard». MIT Sloan Management Review . Архивировано из оригинала 2019-08-14 . Получено 2019-08-14 .
  72. ^ "Доверие к искусственному интеллекту - исследование в пяти странах" (PDF) . KPMG . Март 2021 г. Архивировано (PDF) из оригинала 2023-10-01 . Получено 2023-10-06 .
  73. ^ Bastin R, Wantz G (июнь 2017 г.). "Общее положение о защите данных. Межотраслевые инновации" (PDF) . Inside magazine . Deloitte. Архивировано (PDF) из оригинала 2019-01-10 . Получено 2019-01-10 .
  74. ^ «Саммит ООН по искусственному интеллекту направлен на борьбу с нищетой — «великими проблемами» человечества». Новости ООН . 2017-06-07. Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  75. ^ "Искусственный интеллект – Организация экономического сотрудничества и развития". www.oecd.org . Архивировано из оригинала 2019-07-22 . Получено 2019-07-26 .
  76. ^ Аноним (2018-06-14). "Европейский альянс искусственного интеллекта". Цифровой единый рынок – Европейская комиссия . Архивировано из оригинала 2019-08-01 . Получено 2019-07-26 .
  77. ^ Группа экспертов высокого уровня Европейской комиссии по ИИ (2019-06-26). «Рекомендации по политике и инвестициям для надежного искусственного интеллекта». Формирование цифрового будущего Европы – Европейская комиссия . Архивировано из оригинала 2020-02-26 . Получено 2020-03-16 .
  78. ^ Фукуда-Парр С., Гиббонс Э. (июль 2021 г.). «Формирующийся консенсус по вопросу «этического ИИ»: критика принципов заинтересованных сторон с точки зрения прав человека». Глобальная политика . 12 (S6): 32–44. doi : 10.1111/1758-5899.12965 . ISSN  1758-5880.
  79. ^ "EU Tech Policy Brief: July 2019 Recap". Center for Democracy & Technology . 2 августа 2019. Архивировано из оригинала 2019-08-09 . Получено 2019-08-09 .
  80. ^ Curtis C, Gillespie N, Lockey S (24.05.2022). «Организации, внедряющие ИИ, играют ключевую роль в решении проблемы «идеального шторма» рисков ИИ». AI and Ethics . 3 (1): 145–153. doi :10.1007/s43681-022-00163-7. ISSN 2730-5961  . PMC 9127285. PMID  35634256. Архивировано из оригинала 15.03.2023 . Получено 29.05.2022 . 
  81. ^ ab "Почему миру нужен Билль о правах в отношении ИИ". Financial Times . 2021-10-18 . Получено 2023-03-19 .
  82. ^ Challen R, Denny J, Pitt M, Gompels L, Edwards T, Tsaneva-Atanasova K (март 2019). «Искусственный интеллект, предвзятость и клиническая безопасность». BMJ Quality & Safety . 28 (3): 231–237. doi : 10.1136/bmjqs-2018-008370 . ISSN  2044-5415. PMC 6560460. PMID 30636200  . 
  83. ^ Эванс В. (2015). «Постчеловеческие права: измерения трансчеловеческих миров». Teknokultura . 12 (2). doi : 10.5209/rev_TK.2015.v12.n2.49072 .
  84. ^ Шеляженко Y (2017). «Искусственная личная автономия и концепция прав робота». European Journal of Law and Political Sciences : 17–21. doi :10.20534/EJLPS-17-1-17-21. Архивировано из оригинала 14 июля 2018 года . Получено 10 мая 2017 года .
  85. ^ Doomen J (2023). «Искусственный интеллект как юридическое лицо». Закон об информационных и коммуникационных технологиях . 32 (3): 277–278. doi : 10.1080/13600834.2023.2196827 . hdl : 1820/c29a3daa-9e36-4640-85d3-d0ffdd18a62c .
  86. ^ «Роботы могут потребовать законных прав». BBC News . 21 декабря 2006 г. Архивировано из оригинала 15 октября 2019 г. Получено 3 января 2010 г.
  87. ^ Хендерсон М (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся». The Times Online . The Times of London. Архивировано из оригинала 17 мая 2008 г. Получено 2 мая 2010 г.
  88. ^ "Саудовская Аравия дарует гражданство роботу по имени София". 26 октября 2017 г. Архивировано из оригинала 27.10.2017 . Получено 27.10.2017 .
  89. ^ Vincent J (30 октября 2017 г.). «Притворство, что вы даете гражданство роботу, никому не поможет». The Verge . Архивировано из оригинала 3 августа 2019 г. . Получено 10 января 2019 г. .
  90. ^ Wilks, Yorick, ред. (2010). Тесные взаимодействия с искусственными компаньонами: ключевые социальные, психологические, этические и проектные вопросы . Амстердам: John Benjamins Pub. Co. ISBN 978-90-272-4994-4. OCLC  642206106.
  91. ^ Macrae C (сентябрь 2022 г.). «Извлечение уроков из отказов автономных и интеллектуальных систем: аварии, безопасность и социотехнические источники риска». Анализ риска . 42 (9): 1999–2025. Bibcode : 2022RiskA..42.1999M. doi : 10.1111/risa.13850. ISSN  0272-4332. PMID  34814229.
  92. ^ Агарвал А, Эдельман С (2020). «Функционально эффективный сознательный ИИ без страданий». Журнал искусственного интеллекта и сознания . 7 : 39–50. arXiv : 2002.05652 . doi :10.1142/S2705078520300030. S2CID  211096533.
  93. ^ Томас Метцингер (февраль 2021 г.). «Искусственное страдание: аргумент в пользу глобального моратория на синтетическую феноменологию». Журнал искусственного интеллекта и сознания . 8 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  94. ^ Чалмерс Д. (март 2023 г.). «Может ли большая языковая модель быть сознательной?». arXiv : 2303.07103v1 [Science Computer Science].
  95. ^ Birch J (2017-01-01). "Чувствительность животных и принцип предосторожности". Чувствительность животных . 2 (16). doi :10.51291/2377-7478.1200. ISSN  2377-7478. Архивировано из оригинала 2024-08-11 . Получено 2024-07-08 .
  96. ^ Шульман С., Бостром Н. (август 2021 г.). «Делимся миром с цифровыми умами» (PDF) . Переосмысление морального статуса .
  97. Фишер Р. (13 ноября 2020 г.). «Умный монстр, которому вы должны позволить себя съесть». BBC News . Получено 12 февраля 2021 г.
  98. ^ аб
  99. ^ ab Joseph Weizenbaum , цитируется в McCorduck 2004, стр. 356, 374–376
  100. ^ Каплан А., Хенлейн М. (январь 2019 г.). «Siri, Siri, в моей руке: кто прекраснее всех на свете? О толкованиях, иллюстрациях и последствиях искусственного интеллекта». Business Horizons . 62 (1): 15–25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  101. ^ ab Hibbard B (17 ноября 2015 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [cs.AI].
  102. ^ Дэвис А. (29 февраля 2016 г.). «Автономный автомобиль Google стал причиной первой аварии». Wired . Архивировано из оригинала 7 июля 2019 г. Получено 26 июля 2019 г.
  103. ^ Левин С. , Вонг Дж. К. (19 марта 2018 г.). «Самоуправляемый Uber убивает женщину из Аризоны в первой смертельной аварии с участием пешехода». The Guardian . Архивировано из оригинала 26 июля 2019 г. Получено 26 июля 2019 г.
  104. ^ «Кто несет ответственность, если беспилотный автомобиль попадает в аварию?». Футуризм . 30 января 2018 г. Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  105. ^ «Автономные автомобильные аварии: кто или что виноват?». Knowledge@Wharton . Право и государственная политика. Подкасты Radio Business North America. Архивировано из оригинала 26.07.2019 . Получено 26.07.2019 .
  106. ^ Delbridge E. "Driverless Cars Gone Wild". The Balance . Архивировано из оригинала 2019-05-29 . Получено 2019-05-29 .
  107. ^ Stilgoe J (2020), «Кто убил Элейн Герцберг?», Кто движет инновациями? , Cham: Springer International Publishing, стр. 1–6, doi : 10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, S2CID  214359377, заархивировано из оригинала 2021-03-18 , извлечено 2020-11-11
  108. ^ Maxmen A (октябрь 2018 г.). «Дилеммы беспилотных автомобилей показывают, что моральный выбор не универсален». Nature . 562 (7728): 469–470. Bibcode :2018Natur.562..469M. doi : 10.1038/d41586-018-07135-0 . PMID  30356197.
  109. ^ "Правила для беспилотных автомобилей". GOV.UK. Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  110. ^ "Автоматизированное вождение: законодательные и регулирующие действия – CyberWiki". cyberlaw.stanford.edu . Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  111. ^ "Автономные транспортные средства | Принят закон о беспилотных транспортных средствах". www.ncsl.org . Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  112. ^ Этциони А., Этциони О. (2017-12-01). «Внедрение этики в искусственный интеллект». Журнал этики . 21 (4): 403–418. doi :10.1007/s10892-017-9252-2. ISSN  1572-8609. S2CID  254644745.
  113. Призыв к дебатам о роботах-убийцах. Архивировано 7 августа 2009 г. на Wayback Machine . Автор: Джейсон Палмер, репортер по вопросам науки и технологий, BBC News, 03.08.09.
  114. ^ Science Новый отчет, финансируемый ВМС, предупреждает о том, что боевые роботы станут «Терминаторами». Архивировано 28 июля 2009 г. на Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  115. ^ В докладе ВМС США предупреждается о восстании роботов и предлагается сильный моральный компас. Архивировано 04.06.2011 на Wayback Machine , Джозефом Л. Флэтли, engadget.com, 18 февраля 2009 г.
  116. ^ Исследование президентской комиссии AAAI по долгосрочному будущему ИИ в 2008–2009 гг. Архивировано 28 августа 2009 г. в Wayback Machine , Ассоциация по развитию искусственного интеллекта, дата обращения 26 июля 2009 г.
  117. ^ США. Совет по инновациям в сфере обороны. Принципы ИИ: рекомендации по этическому использованию искусственного интеллекта Министерством обороны . OCLC  1126650738.
  118. Новый отчет, финансируемый ВМС, предупреждает о том, что боевые роботы станут «Терминаторами». Архивировано 28 июля 2009 г. на Wayback Machine , Джейсон Мик (блог), dailytech.com, 17 февраля 2009 г.
  119. ^ Umbrello S, Torres P, De Bellis AF (март 2020 г.). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?». AI & Society . 35 (1): 273–282. doi : 10.1007/s00146-019-00879-x. hdl : 2318/1699364. ISSN  0951-5666. S2CID  59606353. Архивировано из оригинала 05.01.2021 . Получено 11.11.2020 .
  120. ^ Hellström T (июнь 2013 г.). «О моральной ответственности военных роботов». Этика и информационные технологии . 15 (2): 99–107. doi :10.1007/s10676-012-9301-2. S2CID  15205810. ProQuest  1372020233.
  121. ^ Mitra A (5 апреля 2018 г.). «Мы можем обучить ИИ определять добро и зло, а затем использовать его, чтобы научить нас морали». Quartz . Архивировано из оригинала 2019-07-26 . Получено 2019-07-26 .
  122. Домингес Г. (23 августа 2022 г.). «Южная Корея разрабатывает новые беспилотники-невидимки для поддержки боевых самолетов». The Japan Times . Получено 14 июня 2023 г.
  123. ^ "Принципы ИИ". Future of Life Institute . 11 августа 2017 г. Архивировано из оригинала 2017-12-11 . Получено 2019-07-26 .
  124. ^ ab Zach Musgrave и Bryan W. Roberts (2015-08-14). «Почему искусственный интеллект может слишком легко превратиться в оружие – The Atlantic». The Atlantic . Архивировано из оригинала 2017-04-11 . Получено 2017-03-06 .
  125. ^ Кэт Закржевски (27.07.2015). «Маск и Хокинг предупреждают об оружии с искусственным интеллектом». WSJ . Архивировано из оригинала 28.07.2015 . Получено 04.08.2017 .
  126. ^ "Потенциальные риски от передового искусственного интеллекта". Open Philanthropy . 11 августа 2015 г. Получено 2024-04-07 .
  127. ^ ab Bachulska A, Leonard M, Oertel J (2 июля 2024 г.). Идея Китая: китайские мыслители о власти, прогрессе и людях (EPUB) . Берлин, Германия: Европейский совет по международным отношениям . ISBN 978-1-916682-42-9. Архивировано из оригинала 17 июля 2024 . Получено 22 июля 2024 .
  128. ^ Брэндон Вильяроло. «Международный военный саммит по ИИ завершился обещанием 60 государств». www.theregister.com . Получено 17.02.2023 .
  129. ^ ab Markoff J (25 июля 2009 г.). «Ученые беспокоятся, что машины могут перехитрить человека». The New York Times . Архивировано из оригинала 25 февраля 2017 г. Получено 24 февраля 2017 г.
  130. ^ Muehlhauser, Luke, and Louie Helm. 2012. "Intelligence Explosion and Machine Ethics" Архивировано 2015-05-07 в Wayback Machine . В Singularity Hypotheses: A Scientific and Philosophical Assessment, под редакцией Amnon Eden, Johnny Søraker, James H. Moor, and Eric Steinhart. Berlin: Springer.
  131. ^ Бостром, Ник. 2003. «Этические проблемы в передовом искусственном интеллекте» Архивировано 08.10.2018 в Wayback Machine . В «Когнитивных, эмоциональных и этических аспектах принятия решений у людей и в искусственном интеллекте» под редакцией Айвы Смита и Джорджа Э. Ласкера, 12–17. Том 2. Виндзор, Онтарио: Международный институт передовых исследований в области системных исследований / кибернетики.
  132. ^ Бостром Н. (2017). Суперинтеллект: пути, опасности, стратегии . Оксфорд, Великобритания: Oxford University Press. ISBN 978-0-19-967811-2.
  133. ^ Umbrello S, Baum SD (2018-06-01). «Оценка будущих нанотехнологий: чистое социальное воздействие атомарно точного производства». Futures . 100 : 63–73. doi :10.1016/j.futures.2018.04.007. hdl : 2318/1685533 . ISSN  0016-3287. S2CID  158503813. Архивировано из оригинала 2019-05-09 . Получено 2020-11-29 .
  134. ^ Юдковски, Элиезер. 2011. «Сложные системы ценностей в дружественном ИИ» Архивировано 29 сентября 2015 г. в Wayback Machine . В Schmidhuber, Thórisson и Looks 2011, 388–393.
  135. ^ Рассел С. (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема контроля . США: Viking. ISBN 978-0-525-55861-3. OCLC  1083694322.
  136. ^ Ямпольский Р. В. (2020-03-01). «Непредсказуемость ИИ: о невозможности точного предсказания всех действий более умного агента». Журнал искусственного интеллекта и сознания . 07 (1): 109–118. doi :10.1142/S2705078520500034. ISSN  2705-0785. S2CID  218916769. Архивировано из оригинала 2021-03-18 . Получено 2020-11-29 .
  137. ^ Уоллах В., Вэллор С. (17.09.2020), «Моральные машины: от выравнивания ценностей к воплощенной добродетели», Этика искусственного интеллекта , Oxford University Press, стр. 383–412, doi : 10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, заархивировано из оригинала 2020-12-08 , извлечено 2020-11-29
  138. ^ Umbrello S (2019). «Выгодная координация искусственного интеллекта с помощью ценностно-чувствительного подхода к проектированию». Большие данные и когнитивные вычисления . 3 (1): 5. doi : 10.3390/bdcc3010005 . hdl : 2318/1685727 .
  139. ^ Флориди Л., Коулз Дж., Кинг ТК., Таддео М. (2020). «Как разработать ИИ для общественного блага: семь основных факторов». Научная и инженерная этика . 26 (3): 1771–1796. doi :10.1007/s11948-020-00213-5. ISSN  1353-3452. PMC 7286860. PMID 32246245  . 
  140. ^ Fiegerman S (28 сентября 2016 г.). «Facebook, Google, Amazon создают группу для решения проблем, связанных с ИИ». CNNMoney . Архивировано из оригинала 17 сентября 2020 г. Получено 18 августа 2020 г.
  141. ^ Slota SC, Fleischmann KR, Greenberg S, Verma N, Cummings B, Li L, Shenefiel C (2023). «Расположение работы по этике искусственного интеллекта». Журнал Ассоциации информационной науки и технологий . 74 (3): 311–322. doi :10.1002/asi.24638. ISSN  2330-1635. S2CID  247342066. Архивировано из оригинала 25.09.2024 . Получено 21.07.2023 .
  142. ^ "Руководящие принципы этики для надежного ИИ". Формирование цифрового будущего Европы – Европейская комиссия . Европейская комиссия. 2019-04-08. Архивировано из оригинала 2020-02-20 . Получено 2020-02-20 .
  143. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию | Формирование цифрового будущего Европы». 19 февраля 2020 г. Архивировано из оригинала 2021-03-06 . Получено 2021-03-18 .
  144. ^ "OECD AI Policy Observatory". Архивировано из оригинала 2021-03-08 . Получено 2021-03-18 .
  145. ^ Рекомендация по этике искусственного интеллекта. ЮНЕСКО. 2021.
  146. ^ «Государства-члены ЮНЕСКО приняли первое глобальное соглашение по этике ИИ». Helsinki Times . 2021-11-26. Архивировано из оригинала 2024-09-25 . Получено 2023-04-26 .
  147. ^ «Дорожная карта администрации Обамы по политике в области ИИ». Harvard Business Review . 2016-12-21. ISSN  0017-8012. Архивировано из оригинала 2021-01-22 . Получено 2021-03-16 .
  148. ^ «Ускорение лидерства Америки в области искусственного интеллекта – Белый дом». trumpwhitehouse.archives.gov . Архивировано из оригинала 2021-02-25 . Получено 2021-03-16 .
  149. ^ «Запрос комментариев по проекту меморандума для глав исполнительных департаментов и агентств «Руководство по регулированию приложений искусственного интеллекта»». Федеральный реестр . 2020-01-13. Архивировано из оригинала 2020-11-25 . Получено 2020-11-28 .
  150. ^ "CCC предлагает проект 20-летней дорожной карты ИИ; ищет комментарии". HPCwire . 2019-05-14. Архивировано из оригинала 2021-03-18 . Получено 2019-07-22 .
  151. ^ «Запрос комментариев по проекту: 20-летняя дорожная карта сообщества по исследованиям в области ИИ в США » Блог CCC». 13 мая 2019 г. Архивировано из оригинала 14.05.2019 . Получено 22.07.2019 .
  152. ^ "Non-Human Party". 2021. Архивировано из оригинала 20-09-2021 . Получено 19-09-2021 .
  153. ^ (на русском языке) Интеллектуальные правила. Архивировано 30 декабря 2021 г. на Wayback MachineКоммерсантъ , 25.11.2021.
  154. ^ Грейс К., Сальватье Дж., Дефо А., Чжан Б., Эванс О. (2018-05-03). «Когда ИИ превзойдет возможности человека? Данные экспертов по ИИ». arXiv : 1705.08807 [cs.AI].
  155. ^ "Китай хочет сформировать глобальное будущее искусственного интеллекта". MIT Technology Review . Архивировано из оригинала 20.11.2020 . Получено 29.11.2020 .
  156. ^ Флориди Л., Коулс Дж., Бельтраметти М., Чатила Р., Чазеранд П., Дигнум В., Люэтге С., Мадлен Р., Пагалло У., Росси Ф., Шафер Б. (01.12.2018). «AI4People — этическая основа хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации». Разум и машины . 28 (4): 689–707. doi : 10.1007/s11023-018-9482-5. ISSN  1572-8641. ПМК 6404626 . ПМИД  30930541. 
  157. ^ "Joanna J. Bryson". WIRED . Архивировано из оригинала 15 марта 2023 года . Получено 13 января 2023 года .
  158. ^ "Открыт новый институт исследований искусственного интеллекта". 2017-11-20. Архивировано из оригинала 2020-09-18 . Получено 2021-02-21 .
  159. ^ Джеймс Дж. Хьюз, ЛаГрандёр, Кевин, ред. (15 марта 2017 г.). Выживание в век машин: интеллектуальные технологии и трансформация человеческого труда. Хам, Швейцария: Palgrave Macmillan Cham. ISBN 978-3-319-51165-8. OCLC  976407024. Архивировано из оригинала 18 марта 2021 г. . Получено 29 ноября 2020 г. .
  160. ^ Данахер, Джон (2019). Автоматизация и утопия: процветание человека в мире без работы. Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN 978-0-674-24220-3. OCLC  1114334813.
  161. ^ "TUM Institute for Ethics in Artificial Intelligence official opening". www.tum.de . Архивировано из оригинала 2020-12-10 . Получено 2020-11-29 .
  162. ^ Communications PK (2019-01-25). "Гарвард работает над тем, чтобы внедрить этику в учебную программу по информатике". Harvard Gazette . Архивировано из оригинала 2024-09-25 . Получено 2023-04-06 .
  163. ^ Ли Дж. (2020-02-08). «Когда предвзятость закодирована в нашей технологии». NPR . Получено 2021-12-22 .
  164. ^ «Как одна конференция приняла разнообразие». Nature . 564 (7735): 161–162. 2018-12-12. doi : 10.1038/d41586-018-07718-x . PMID  31123357. S2CID  54481549.
  165. ^ Руз К (2020-12-30). "Премия Good Tech Awards 2020". The New York Times . ISSN  0362-4331 . Получено 21-12-2021 .
  166. ^ "Женщины в ИИ (#WAI)". Женщины в ИИ (WAI) . Получено 2024-10-09 .
  167. ^ Лодж П. (2014). «Пересмотр аргумента Лейбница Милля против механистического материализма». Ergo, журнал философии открытого доступа . 1 (20201214). doi : 10.3998/ergo.12405314.0001.003 . hdl :2027/spo.12405314.0001.003. ISSN  2330-4014.
  168. ^ Bringsjord S, Govindarajulu NS (2020), «Искусственный интеллект», в Zalta EN, Nodelman U (ред.), The Stanford Encyclopedia of Philosophy (лето 2020 г.), Metaphysics Research Lab, Stanford University, архивировано из оригинала 2022-03-08 , извлечено 2023-12-08
  169. ^ Jr HC (1999-04-29). Информационные технологии и парадокс производительности: оценка стоимости инвестиций в ИТ. Oxford University Press. ISBN 978-0-19-802838-3. Архивировано из оригинала 2024-09-25 . Получено 2024-02-21 .
  170. ^ Азимов I (2008). Я, робот . Нью-Йорк: Bantam. ISBN 978-0-553-38256-3.
  171. ^ Брайсон Дж., Диамантис М., Грант Т. (сентябрь 2017 г.). «Из, для и людьми: правовая лакуна синтетических лиц». Искусственный интеллект и право . 25 (3): 273–291. doi : 10.1007/s10506-017-9214-9 .
  172. ^ "Принципы робототехники". EPSRC Великобритании. Сентябрь 2010 г. Архивировано из оригинала 1 апреля 2018 г. Получено 10 января 2019 г.
  173. ^ Юдковски Э. (июль 2004 г.). «Зачем нам нужен дружественный ИИ». 3 закона небезопасны . Архивировано из оригинала 24 мая 2012 г.
  174. ^ Aleksander I (март 2017 г.). «Партнеры людей: реалистичная оценка роли роботов в обозримом будущем». Journal of Information Technology . 32 (1): 1–9. doi :10.1057/s41265-016-0032-4. ISSN  0268-3962. S2CID  5288506. Архивировано из оригинала 21.02.2024 . Получено 21.02.2024 .
  175. ^ Эволюционирующие роботы учатся лгать друг другу. Архивировано 28 августа 2009 г. в Wayback Machine , Popular Science, 18 августа 2009 г.
  176. ^ Bassett C, Steinmueller E, Voss G. «Better Made Up: The Mutual Influence of Science Fiction and Innovation». Nesta. Архивировано из оригинала 3 мая 2024 года . Получено 3 мая 2024 года .
  177. ^ Веласко Г (2020-05-04). "Научная фантастика: зеркало будущего человечества". IDEES . Архивировано из оригинала 2021-04-22 . Получено 2023-12-08 .
  178. ^ Ходжес, А. (2014), Алан Тьюринг: Энигма , Vintage, Лондон, стр. 334
  179. ^ AM Turing (1936). «О вычислимых числах с приложением к Entscheidungsproblem». Труды Лондонского математического общества , 2 с. т. 42 (1936–1937), стр. 230–265.
  180. ^ "Любовь, смерть и роботы сезон 2, эпизод 1 обзор - "Автоматизированное обслуживание клиентов"". Ready Steady Cut . 2021-05-14. Архивировано из оригинала 2021-12-21 . Получено 2021-12-21 .
  181. ^ Кейв, Стивен, Дихал, Канта, Диллон, Сара, ред. (14 февраля 2020 г.). Повествования об ИИ: история образного мышления об интеллектуальных машинах (первое изд.). Оксфорд: Oxford University Press. ISBN 978-0-19-258604-9. OCLC  1143647559. Архивировано из оригинала 18 марта 2021 г. . Получено 11 ноября 2020 г. .
  182. ^ Jerreat-Poole A (1 февраля 2020 г.). «Больной, медлительный, киборг: калечащее будущее в Mass Effect». Game Studies . 20. ISSN  1604-7982. Архивировано из оригинала 9 декабря 2020 г. Получено 11 ноября 2020 г.
  183. ^ ""Detroit: Become Human" бросит вызов вашей морали и вашей человечности". Журнал Coffee or Die . 2018-08-06. Архивировано из оригинала 2021-12-09 . Получено 2021-12-07 .
  184. ^ Cerqui D, Warwick K (2008), «Перепроектирование человечества: Восстание киборгов, желанная цель?», Философия и дизайн , Дордрехт: Springer Netherlands, стр. 185–195, doi :10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, заархивировано из оригинала 2021-03-18 , извлечено 2020-11-11
  185. ^ Cave S, Dihal K (6 августа 2020 г.). «Белизна ИИ». Философия и технологии . 33 (4): 685–703. doi : 10.1007/s13347-020-00415-6 . S2CID  225466550.

Внешние ссылки