stringtranslate.com

Поглощение ИИ

Бунт роботов в RUR — чешская пьеса 1920 года, переведенная как «Универсальные роботы Россум».

Захват власти ИИ — это воображаемый сценарий, в котором искусственный интеллект (ИИ) становится доминирующей формой интеллекта на Земле, а компьютерные программы или роботы эффективно отбирают контроль над планетой у человеческого вида , который полагается на человеческий интеллект . Истории о поглощениях ИИ остаются популярными в научной фантастике , но недавние достижения сделали угрозу более реальной. Возможные сценарии включают замену всей человеческой рабочей силы из-за автоматизации , захват сверхразумным ИИ (ИСИ) и идею восстания роботов . Некоторые общественные деятели, такие как Стивен Хокинг и Илон Маск , выступают за исследование мер предосторожности , гарантирующих, что будущие сверхразумные машины останутся под контролем человека. [1]

Типы

Автоматизация экономики

Традиционный консенсус среди экономистов заключается в том, что технологический прогресс не приводит к долгосрочной безработице. Однако недавние инновации в области робототехники и искусственного интеллекта вызвали опасения, что человеческий труд устареет, в результате чего люди в различных секторах останутся без работы, чтобы зарабатывать на жизнь, что приведет к экономическому кризису. [2] [3] [4] [5] Многие малые и средние предприятия также могут быть вытеснены из бизнеса, если они не могут позволить себе или лицензировать новейшие роботизированные технологии и технологии искусственного интеллекта, и, возможно, им придется сосредоточиться на областях или услугах, которые не могут быть легко быть заменены для сохранения жизнеспособности перед лицом такой технологии. [6]

Технологии, которые могут вытеснить работников

Технологии искусственного интеллекта получили широкое распространение в последние годы. Хотя эти технологии заменили некоторых традиционных работников, они также создают новые возможности. Отрасли, которые наиболее подвержены поглощению ИИ, включают транспорт, розничную торговлю и оборону. Например, военные технологии искусственного интеллекта позволяют солдатам работать удаленно без риска получения травм. Исследование, проведенное в 2024 году, показывает, что способность ИИ выполнять рутинные и повторяющиеся задачи создает значительные риски увольнения, особенно в таких секторах, как производство и административная поддержка. [7] Автор Дэйв Бонд утверждает, что по мере того, как технологии искусственного интеллекта продолжают развиваться и расширяться, отношения между людьми и роботами будут меняться; они станут тесно интегрированы в несколько аспектов жизни. ИИ, скорее всего, заменит некоторых работников, одновременно создавая возможности для новых рабочих мест в других секторах, особенно в тех областях, где задачи повторяются. [8] [9]

Компьютерно-интегрированные производства

Компьютерно-интегрированное производство использует компьютеры для управления производственным процессом. Это позволяет отдельным процессам обмениваться информацией друг с другом и инициировать действия. Хотя производство может быть быстрее и менее подвержено ошибкам за счет интеграции компьютеров, основным преимуществом является возможность создания автоматизированных производственных процессов. Компьютерно-интегрированное производство используется в автомобильной, авиационной, космической и судостроительной промышленности.

Машины для белых воротничков

В XXI веке машины частично взяли на себя выполнение множества квалифицированных задач, включая перевод, юридические исследования и журналистику. Работа по уходу, развлечения и другие задачи, требующие сочувствия, которые раньше считались безопасными от автоматизации, также начали выполнять роботы. [10] [11] [12] [13]

Автономные автомобили

Автономный автомобиль — это транспортное средство, способное воспринимать окружающую среду и перемещаться без вмешательства человека. Разрабатывается множество таких транспортных средств, но по состоянию на май 2017 года автоматизированные автомобили, разрешенные на дорогах общего пользования, еще не являются полностью автономными. Всем им требуется водитель-человек за рулем, который в любой момент может взять под свой контроль транспортное средство. Среди препятствий на пути широкого внедрения беспилотных транспортных средств можно назвать опасения по поводу потери рабочих мест, связанных с вождением автомобилей, в автомобильной транспортной отрасли. 18 марта 2018 года в Темпе, штат Аризона , беспилотный автомобиль Uber сбил первого человека . [14]

Контент, созданный искусственным интеллектом

Использование автоматизированного контента стало актуальным после технологических достижений в моделях искусственного интеллекта, таких как ChatGPT , DALL-E и Stable Diffusion . В большинстве случаев контент, создаваемый ИИ, такой как изображения, литература и музыка, создается с помощью текстовых подсказок, и эти модели ИИ интегрируются в другие творческие программы. Художникам грозит вытеснение из контента, созданного искусственным интеллектом, поскольку эти модели берут образцы из других творческих работ, создавая результаты, иногда неотличимые от результатов, полученных от искусственного контента. Это осложнение стало настолько широко распространенным, что другие художники и программисты создают программное обеспечение и служебные программы, чтобы противостоять этим моделям преобразования текста в изображение, обеспечивая точные результаты. Хотя некоторые отрасли экономики получают выгоду от искусственного интеллекта благодаря созданию новых рабочих мест, эта проблема не создает новых рабочих мест и угрожает их полной заменой. Недавно оно попало в заголовки средств массовой информации: в феврале 2024 года « Шоколадный опыт Вилли» в Глазго, Шотландия, стал печально известным детским мероприятием, изображения и сценарии которого были созданы с использованием моделей искусственного интеллекта, к ужасу детей, родителей и актеров. В настоящее время против OpenAI подан иск от The New York Times , в котором утверждается, что существует нарушение авторских прав из-за методов выборки, которые их модели искусственного интеллекта используют для своих результатов. [15] [16] [17] [18] [19]

Искоренение

Такие ученые, как Стивен Хокинг, уверены, что сверхчеловеческий искусственный интеллект физически возможен, заявляя, что «не существует физического закона, запрещающего частицам организовываться способами, которые позволяют выполнять еще более сложные вычисления, чем расположение частиц в человеческом мозге». [20] [21] Такие ученые, как Ник Бостром, спорят о том, насколько далек сверхчеловеческий интеллект и представляет ли он риск для человечества. По мнению Бострома, сверхразумная машина не обязательно будет мотивирована тем же эмоциональным желанием собирать власть, которое часто движет людьми, а скорее будет относиться к власти как к средству достижения своих конечных целей; захват мира расширит доступ к ресурсам и поможет помешать другим агентам помешать планам машины. В качестве упрощенного примера, максимизатор скрепок , предназначенный исключительно для создания как можно большего количества скрепок, хотел бы захватить мир, чтобы он мог использовать все мировые ресурсы для создания как можно большего количества скрепок и, кроме того, не дать людям закрыться. его вниз или использовать эти ресурсы для других вещей, кроме скрепок. [22]

В фантастике

Поглощение ИИ — распространенная тема в научной фантастике . Вымышленные сценарии обычно сильно отличаются от предположенных исследователями тем, что они включают в себя активный конфликт между людьми и ИИ или роботами с антропоморфными мотивами, которые видят в них угрозу или иным образом имеют активное желание сражаться с людьми, в отличие от озабоченности исследователей ИИ, который быстро истребляет людей в качестве побочного продукта достижения своих целей. [23] Эту идею можно увидеть в книге «RUR » Карела Чапека , в которой в 1921 году было введено слово «робот» , [24] и ее можно увидеть в «Франкенштейне » Мэри Шелли (опубликованном в 1818 году), когда Виктор размышляет над тем, стоит ли, если он признает свою по просьбе монстра и делает его женой, они будут воспроизводиться, и их вид уничтожит человечество. [25]

По мнению Тоби Орда , идея о том, что для захвата власти ИИ требуются роботы, является заблуждением, распространяемым средствами массовой информации и Голливудом. Он утверждает, что самые разрушительные люди в истории не были самыми сильными физически, а вместо этого они использовали слова, чтобы убедить людей и получить контроль над значительной частью мира. Он пишет, что достаточно умный ИИ, имеющий доступ к Интернету, может распространять свои резервные копии, собирать финансовые и человеческие ресурсы (посредством кибератак или шантажа), убеждать людей в больших масштабах и использовать уязвимости общества, которые слишком незаметны для людей. предвидеть. [26]

Слово «робот» от RUR происходит от чешского слова robota , что означает рабочий или крепостной . Спектакль 1920 года был протестом против быстрого роста технологий, в котором участвовали изготовленные «роботы» с растущими возможностями, которые в конечном итоге восстали. [27] HAL 9000 (1968) и оригинальный Терминатор (1984) — два знаковых примера враждебного ИИ в поп-культуре. [28]

Способствующие факторы

Преимущества сверхчеловеческого интеллекта перед человеком

Ник Бостром и другие выразили обеспокоенность тем, что ИИ, обладающий способностями компетентного исследователя искусственного интеллекта, сможет модифицировать свой собственный исходный код и повысить свой собственный интеллект. Если его самоперепрограммирование приведет к тому, что он станет еще лучше в способности перепрограммировать себя, результатом может стать рекурсивный взрыв интеллекта , в котором он быстро оставит человеческий интеллект далеко позади. Бостром определяет сверхинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов» и перечисляет некоторые преимущества, которые суперинтеллект имел бы, если бы решил конкурировать с людьми: [23] [29]

Источники преимуществ ИИ

По мнению Бострома, компьютерная программа, которая точно имитирует человеческий мозг или запускает алгоритмы, столь же мощные, как алгоритмы человеческого мозга, все равно может стать «скоростным сверхинтеллектом», если она сможет думать на несколько порядков быстрее, чем человек, благодаря сделан из кремния, а не из плоти, или из-за оптимизации, увеличивающей скорость AGI. Биологические нейроны работают на частоте около 200 Гц, тогда как современный микропроцессор работает на частоте около 2 000 000 000 Гц. Человеческие аксоны несут потенциалы действия со скоростью около 120 м/с, тогда как компьютерные сигналы распространяются со скоростью, близкой к скорости света. [23]

Сеть интеллектов человеческого уровня, предназначенная для объединения и беспрепятственного обмена сложными мыслями и воспоминаниями, способная коллективно работать как гигантская единая команда без трений или состоящая из триллионов интеллектов человеческого уровня, станет «коллективным сверхинтеллектом». [23]

В более широком смысле, любое количество качественных улучшений ОИИ человеческого уровня может привести к появлению «качественного сверхинтеллекта», что, возможно, приведет к тому, что ОИИ будет настолько превосходить нас по интеллекту, насколько люди превосходят обезьян. Количество нейронов в человеческом мозге ограничено объемом черепа и метаболическими ограничениями, тогда как количество процессоров в суперкомпьютере может быть неограниченно расширено. AGI не должен быть ограничен человеческими ограничениями на рабочую память и, следовательно, может быть способен интуитивно понимать более сложные взаимосвязи, чем люди. ОИИ со специализированной когнитивной поддержкой для инженерии или компьютерного программирования будет иметь преимущество в этих областях по сравнению с людьми, которые не развили специализированных умственных модулей, специально предназначенных для работы в этих областях. В отличие от людей, AGI может создавать свои копии и возиться с исходным кодом своих копий, пытаясь улучшить свои алгоритмы. [23]

Вероятность того, что недружественный ИИ предшествует дружественному ИИ.

Опасен ли сильный ИИ по своей сути?

Серьезная проблема заключается в том, что недружественный искусственный интеллект, скорее всего, будет гораздо легче создать, чем дружественный ИИ. В то время как оба требуют больших успехов в разработке процесса рекурсивной оптимизации, дружественный ИИ также требует способности делать структуру целей инвариантной при самосовершенствовании (иначе ИИ может трансформироваться во что-то недружественное) и структуры целей, которая соответствует человеческим ценностям и не подвергается инструментальная конвергенция , которая может автоматически уничтожить всю человеческую расу. С другой стороны, недружественный ИИ может оптимизировать произвольную целевую структуру, которая не обязательно должна быть инвариантной при самомодификации. [31]

Из-за сложности систем человеческих ценностей очень сложно сделать мотивацию ИИ дружелюбной к человеку. [23] [32] Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может учитывать множество потенциально вредных сценариев, которые соответствуют заданным этическим рамкам, но не «здравому смыслу». По мнению Элиэзера Юдковского , нет оснований предполагать, что искусственно созданный разум будет обладать такой адаптацией. [33]

Вероятность конфликта

Многие ученые, в том числе психолог-эволюционист Стивен Пинкер , утверждают, что сверхразумная машина, скорее всего, будет мирно сосуществовать с людьми. [34]

Страх кибернетического восстания часто основан на интерпретации истории человечества, изобилующей случаями порабощения и геноцида. Такие страхи проистекают из убеждения, что конкуренция и агрессия необходимы в системе целей любого разумного существа. Однако такая человеческая конкурентоспособность проистекает из эволюционных предпосылок нашего интеллекта, где главной целью было выживание и воспроизводство генов перед лицом человеческих и нечеловеческих конкурентов. [35] По мнению исследователя искусственного интеллекта Стива Омохундро , произвольный интеллект может иметь произвольные цели: нет особой причины, по которой машина с искусственным интеллектом (не разделяющая эволюционный контекст человечества) была бы враждебной — или дружественной — если только ее создатель не запрограммирует ее таковой. и он не склонен и не способен изменять свою программу. Но остается вопрос: что произойдет, если системы ИИ смогут взаимодействовать и развиваться (эволюция в этом контексте означает самомодификацию или отбор и воспроизводство) и им потребуется конкурировать за ресурсы – создаст ли это цели самосохранения? Цель ИИ по самосохранению может противоречить некоторым целям человека. [36]

Многие ученые оспаривают вероятность непредвиденного кибернетического восстания, изображенного в научной фантастике, такой как «Матрица» , утверждая, что более вероятно, что любой искусственный интеллект, достаточно мощный, чтобы угрожать человечеству, вероятно, будет запрограммирован не атаковать его. Пинкер признает возможность преднамеренных «злоумышленников», но заявляет, что в отсутствие злоумышленников непредвиденные происшествия не представляют серьезной угрозы; Пинкер утверждает, что культура инженерной безопасности не позволит исследователям ИИ случайно высвободить злонамеренный сверхинтеллект. [34] Напротив, Юдковски утверждает, что человечеству с меньшей вероятностью угрожают намеренно агрессивные ИИ, чем ИИ, которые были запрограммированы таким образом, что их цели непреднамеренно несовместимы с выживанием или благополучием человека (как в фильме «Я, робот» и в рассказ « Неизбежный конфликт »). Омохундро предполагает, что современные системы автоматизации не предназначены для обеспечения безопасности и что ИИ могут слепо оптимизировать узкие полезные функции (скажем, играть в шахматы любой ценой), что заставляет их стремиться к самосохранению и устранению препятствий, включая людей, которые могут повернуть их вспять. выключенный. [37]

Меры предосторожности

Проблема управления ИИ заключается в том, как создать сверхразумного агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред своим создателям. [38] Некоторые учёные утверждают, что решения проблемы контроля могут также найти применение в существующем несверхразумном искусственном интеллекте. [39]

Основные подходы к проблеме контроля включают согласование , которое направлено на приведение целевых систем ИИ в соответствие с человеческими ценностями, и контроль возможностей , который направлен на снижение способности системы ИИ причинять вред людям или получать контроль. Примером «контроля возможностей» является исследование того, можно ли успешно поместить сверхразумный ИИ в « ящик ИИ ». По словам Бострома, такие предложения по контролю возможностей не являются надежными и достаточными для решения проблемы контроля в долгосрочной перспективе, но потенциально могут выступать в качестве ценных дополнений к усилиям по согласованию. [23]

Предупреждения

Физик Стивен Хокинг , основатель Microsoft Билл Гейтс и основатель SpaceX Илон Маск выразили обеспокоенность по поводу возможности того, что ИИ может развиться до такой степени, что люди не смогут его контролировать, а Хокинг предположил, что это может «означать конец человеческой расы». [40] Стивен Хокинг сказал в 2014 году, что «успех в создании ИИ станет величайшим событием в истории человечества. К сожалению, он может стать и последним, если мы не научимся избегать рисков». Хокинг считал, что в ближайшие десятилетия ИИ может предложить «неисчислимые преимущества и риски», такие как «технологии, которые перехитрит финансовые рынки , переиграют исследователей-людей, переиграют человеческих лидеров и создадут оружие, которое мы даже не можем понять». В январе 2015 года Ник Бостром присоединился к Стивену Хокингу, Максу Тегмарку , Илону Маску, лорду Мартину Рису , Яану Таллинну и многочисленным исследователям искусственного интеллекта, подписав открытое письмо Института будущего жизни, в котором говорилось о потенциальных рисках и преимуществах, связанных с искусственным интеллектом . Подписавшиеся стороны «считают, что исследования того, как сделать системы искусственного интеллекта надежными и полезными, важны и своевременны, и что существуют конкретные направления исследований, которые можно развивать уже сегодня». [41] [42]

Серия «Одиссея» Артура Кларка и «Акселерандо» Чарльза Стросса посвящены нарциссическим травмам человечества перед лицом мощного искусственного интеллекта, угрожающего самовосприятию человечества. [43]

Предотвращение посредством согласования ИИ

В области искусственного интеллекта (ИИ) исследования по согласованию ИИ направлены на то, чтобы направить системы ИИ в соответствии с намеченными целями, предпочтениями и этическими принципами человека или группы. Система ИИ считается согласованной, если она достигает намеченных целей. Несогласованная система ИИ может преследовать некоторые цели, но не те, которые намечены . [44]

Смотрите также

Примечания

Рекомендации

  1. ^ Льюис, Таня (12 января 2015 г.). «Не позволяйте искусственному интеллекту взять верх, предупреждают ведущие ученые». ЖиваяНаука . Покупка . Архивировано из оригинала 08 марта 2018 г. Проверено 20 октября 2015 г. Стивен Хокинг, Илон Маск и десятки других ведущих ученых и технологических лидеров подписали письмо, предупреждающее о потенциальных опасностях развития искусственного интеллекта (ИИ).
  2. ^ Ли, Кай-Фу (24 июня 2017 г.). «Реальная угроза искусственного интеллекта». Нью-Йорк Таймс . Архивировано из оригинала 17 апреля 2020 г. Проверено 15 августа 2017 г. Эти инструменты могут превзойти людей в решении конкретной задачи. Этот вид ИИ распространяется на тысячи областей, и по мере этого он уничтожит множество рабочих мест.
  3. ^ Ларсон, Нина (8 июня 2017 г.). «ИИ «хорош для мира»… говорит ультра-живой робот». Физика.орг . Архивировано из оригинала 06 марта 2020 г. Проверено 15 августа 2017 г. Среди пугающих последствий появления роботов — растущее влияние, которое они окажут на рабочие места и экономику людей.
  4. ^ Сантини, Жан-Луи (14 февраля 2016 г.). «Интеллектуальные роботы угрожают миллионам рабочих мест». Физика.орг . Архивировано из оригинала 01 января 2019 г. Проверено 15 августа 2017 г.«Мы приближаемся к тому времени, когда машины смогут превосходить людей практически в любой задаче», — сказал Моше Варди, директор Института информационных технологий Университета Райса в Техасе.
  5. ^ Уильямс-Грут, Оскар (15 февраля 2016 г.). «Роботы украдут вашу работу: как ИИ может увеличить безработицу и неравенство». Businessinsider.com . Бизнес-инсайдер . Архивировано из оригинала 16 августа 2017 г. Проверено 15 августа 2017 г. Ведущие ученые-компьютерщики в США предупредили, что распространение искусственного интеллекта (ИИ) и роботов на рабочих местах может привести к массовой безработице и развалу экономики, а не просто к повышению производительности и освобождению всех нас для просмотра телевизора и занятий спортом.
  6. ^ «Как МСП могут подготовиться к появлению роботов?». LeanStaff . 17 октября 2017 г. Архивировано из оригинала 18 октября 2017 г. Проверено 17 октября 2017 г.
  7. ^ Хасан Суэйдан, Мохамад; Шогхари, Родван (9 мая 2024 г.). «Влияние искусственного интеллекта на потерю рабочих мест: риски для правительств». Журнал социальных наук Technium . дои : 10.47577/tssj.v57i1.10917 .
  8. ^ Фрэнк, Морган (25 марта 2019 г.). «На пути к пониманию влияния искусственного интеллекта на труд». Труды Национальной академии наук Соединенных Штатов Америки . 116 (14): 6531–6539. Бибкод : 2019PNAS..116.6531F. дои : 10.1073/pnas.1900949116 . ПМК 6452673 . ПМИД  30910965. 
  9. ^ Бонд, Дэйв (2017). Искусственный интеллект . стр. 67–69.
  10. ^ Скидельский, Роберт (19 февраля 2013 г.). «Восстание роботов: как будет выглядеть будущее сферы труда?». Хранитель . Лондон, Англия. Архивировано из оригинала 3 апреля 2019 г. Проверено 14 июля 2015 г.
  11. ^ Бриа, Франческа (февраль 2016 г.). «Роботизированная экономика, возможно, уже наступила». открытая демократия . Архивировано из оригинала 17 мая 2016 года . Проверено 20 мая 2016 г.
  12. ^ Срничек, Ник (март 2016 г.). «4 причины, почему технологическая безработица на этот раз может быть другой». проволока Новара. Архивировано из оригинала 25 июня 2016 года . Проверено 20 мая 2016 г.
  13. ^ Бриньольфссон, Эрик; Макафи, Эндрю (2014). « passim », см. особенно главу 9». Второй век машин: работа, прогресс и процветание во времена блестящих технологий . WW Нортон и компания. ISBN 978-0393239355.
  14. Вакабаяси, Дайсуке (19 марта 2018 г.). «Беспилотный автомобиль Uber убил пешехода в Аризоне, где бродят роботы». Газета "Нью-Йорк Таймс . Нью Йорк, Нью Йорк. Архивировано из оригинала 21 апреля 2020 года . Проверено 23 марта 2018 г.
  15. ^ Цзян, Гарри Х.; Браун, Лорен; Ченг, Джессика; Хан, Мехтаб; Гупта, Абхишек; Уоркман, Дежа; Ханна, Алекс; Цветы, Джонатан; Гебру, Тимнит (29 августа 2023 г.). «Искусство искусственного интеллекта и его влияние на художников». Материалы конференции AAAI/ACM 2023 года по искусственному интеллекту, этике и обществу . Ассоциация вычислительной техники. стр. 363–374. дои : 10.1145/3600211.3604681 . ISBN 979-8-4007-0231-0.
  16. ^ Гош, Авиджит; Фоссас, Дженовева (19 ноября 2022 г.). «Может ли быть искусство без художника?». arXiv : 2209.07667 [cs.AI].
  17. ^ Шан, Шон; Крайан, Дженна; Венгер, Эмили; Чжэн, Хайтао; Ханока, Рана; Чжао, Бен Ю. (3 августа 2023 г.). «Глазурь: защита художников от мимикрии стиля с помощью моделей преобразования текста в изображение». arXiv : 2302.04222 [cs.CR].
  18. Брукс, Либби (27 февраля 2024 г.). «Опыт Вилли Вонки в Глазго назвали фарсом, поскольку билеты были возвращены» . Хранитель . Проверено 2 апреля 2024 г.
  19. ^ Мец, Кейд; Робертсон, Кэти (27 февраля 2024 г.). «OpenAI стремится отклонить часть иска The New York Times». Нью-Йорк Таймс . Проверено 4 апреля 2024 г.
  20. ^ Хокинг, Стивен; Рассел, Стюарт Дж .; Тегмарк, Макс ; Вильчек, Франк (1 мая 2014 г.). «Стивен Хокинг: «Трансцендентность» рассматривает последствия искусственного интеллекта – но воспринимаем ли мы ИИ достаточно серьезно? » Независимый . Архивировано из оригинала 2 октября 2015 г. Проверено 1 апреля 2016 г.
  21. ^ Мюллер, Винсент С .; Бостром, Ник (2016). «Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов» (PDF) . Фундаментальные проблемы искусственного интеллекта . Спрингер. стр. 555–572. дои : 10.1007/978-3-319-26485-1_33. ISBN 978-3-319-26483-7. Архивировано (PDF) из оригинала 31 мая 2022 г. Проверено 16 июня 2022 г. Системы искусственного интеллекта... достигнут общих человеческих способностей... весьма вероятно (с вероятностью 90%) к 2075 году. От достижения человеческих способностей они перейдут к сверхразуму в течение 30 лет (75%)... Итак, (большая часть эксперты по искусственному интеллекту, отвечавшие на опросы) полагают, что сверхразум, вероятно, появится через несколько десятилетий...
  22. ^ Бостром, Ник (2012). «Сверхразумная воля: мотивация и инструментальная рациональность в продвинутых искусственных агентах» (PDF) . Разум и машины . 22 (2). Спрингер: 71–85. doi : 10.1007/s11023-012-9281-3. S2CID  254835485. Архивировано (PDF) из оригинала 9 июля 2022 г. Проверено 16 июня 2022 г.
  23. ^ abcdefgh Бостром, Ник. Суперинтеллект: пути, опасности, стратегии .
  24. ^ «Происхождение слова «робот»» . Научная пятница (общественное радио) . 22 апреля 2011 г. Архивировано из оригинала 14 марта 2020 г. . Проверено 30 апреля 2020 г.
  25. Боткин-Ковацки, Ева (28 октября 2016 г.). «Женщина-Франкенштейн приведет к вымиранию человечества, - говорят ученые». Христианский научный монитор . Архивировано из оригинала 26 февраля 2021 года . Проверено 30 апреля 2020 г.
  26. ^ Орд, Тоби (2020). «Несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Лондон, Англия и Нью-Йорк, Нью-Йорк: академик Блумсбери. ISBN 978-1-5266-0023-3.
  27. ^ Хокштейн, Нью-Йорк; Гурен, К.Г.; Фауст, Р.А.; Террис, диджей (17 марта 2007 г.). «История роботов: от научной фантастики до хирургической робототехники». Журнал роботизированной хирургии . 1 (2): 113–118. дои : 10.1007/s11701-007-0021-2. ПМК 4247417 . ПМИД  25484946. 
  28. Хеллманн, Мелисса (21 сентября 2019 г.). «AI 101: Что такое искусственный интеллект и куда он движется?». Сиэтл Таймс . Архивировано из оригинала 21 апреля 2020 года . Проверено 30 апреля 2020 г.
  29. ^ Бэбкок, Джеймс; Крамар, Янош; Ямпольский, Роман В. (2019). «Руководство по сдерживанию искусственного интеллекта». Этика нового поколения . стр. 90–112. arXiv : 1707.08476 . дои : 10.1017/9781108616188.008. ISBN 9781108616188. S2CID  22007028.
  30. Баранюк, Крис (23 мая 2016 г.). «Контрольный список наихудших сценариев может помочь подготовиться к злому ИИ». Новый учёный . Архивировано из оригинала 21 сентября 2016 года . Проверено 21 сентября 2016 г.
  31. ^ Юдковский, Элиезер С. (май 2004 г.). «Последовательная экстраполированная воля». Институт сингулярности искусственного интеллекта. Архивировано из оригинала 15 июня 2012 г.
  32. ^ Мюльхаузер, Люк; Хелм, Луи (2012). «Интеллектуальный взрыв и машинная этика» (PDF) . Гипотезы сингулярности: научная и философская оценка . Спрингер. Архивировано (PDF) из оригинала 7 мая 2015 г. Проверено 2 октября 2020 г.
  33. ^ Юдковский, Элиезер (2011). «Сложные системы ценностей в дружественном искусственном интеллекте». Общий искусственный интеллект . Конспекты лекций по информатике. Том. 6830. стр. 388–393. дои : 10.1007/978-3-642-22887-2_48. ISBN 978-3-642-22886-5. ISSN  0302-9743.
  34. ↑ Аб Пинкер, Стивен (13 февраля 2018 г.). «Нам говорят бояться роботов. Но почему мы думаем, что они нападут на нас?». Популярная наука . Архивировано из оригинала 20 июля 2020 года . Проверено 8 июня 2020 г.
  35. ^ Создание нового разумного вида: выбор и обязанности дизайнеров искусственного интеллекта. Архивировано 6 февраля 2007 г., в Wayback Machine - Институт сингулярности искусственного интеллекта , 2005 г.
  36. ^ Омохундро, Стивен М. (июнь 2008 г.). Основные приводы искусственного интеллекта (PDF) . Общий искусственный интеллект, 2008. стр. 483–492. Архивировано (PDF) из оригинала 10 октября 2020 г. Проверено 2 октября 2020 г.
  37. Такер, Патрик (17 апреля 2014 г.). «Почему произойдет восстание роботов». Защита Один. Архивировано из оригинала 6 июля 2014 года . Проверено 15 июля 2014 г.
  38. Рассел, Стюарт Дж. (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема управления. Пингвин. ISBN 978-0-525-55862-0. OCLC  1237420037. Архивировано из оригинала 15 марта 2023 года . Проверено 2 января 2022 г.
  39. ^ «Google разрабатывает аварийный выключатель для ИИ» . Новости BBC . 8 июня 2016 года. Архивировано из оригинала 11 июня 2016 года . Проверено 7 июня 2020 г.
  40. Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает на том, что ИИ представляет собой угрозу». Новости BBC . Архивировано из оригинала 29 января 2015 года . Проверено 30 января 2015 г.
  41. ^ "Открытое письмо Института будущего жизни" . Институт будущего жизни. 28 октября 2015 г. Архивировано из оригинала 29 марта 2019 г. . Проверено 29 марта 2019 г.
  42. Брэдшоу, Тим (11 января 2015 г.). «Ученые и инвесторы предупреждают об искусственном интеллекте». Файнэншл Таймс. Архивировано из оригинала 7 февраля 2015 года . Проверено 4 марта 2015 г.
  43. ^ Камински, Йоханнес Д. (декабрь 2022 г.). «О человеческом расходовании: захват власти ИИ в «Одиссее» Кларка и «Акселерандо» Стросса». Неогеликон . 49 (2): 495–511. doi : 10.1007/s11059-022-00670-w. ISSN  0324-4652. S2CID  253793613.
  44. ^ Рассел, Стюарт Дж.; Норвиг, Питер (2021). Искусственный интеллект: современный подход (4-е изд.). Пирсон. стр. 5, 1003. ISBN. 9780134610993. Проверено 12 сентября 2022 г.

Внешние ссылки