stringtranslate.com

Экзистенциальный риск от общего искусственного интеллекта

Экзистенциальный риск, связанный с общим искусственным интеллектом , заключается в идее о том, что значительный прогресс в области общего искусственного интеллекта (AGI) может привести к вымиранию человечества или необратимой глобальной катастрофе . [1] [2] [3]

Один из аргументов звучит следующим образом: люди доминируют над другими видами, потому что человеческий мозг обладает отличительными способностями, которых нет у других животных. Если бы ИИ превзошел человечество по общему интеллекту и стал сверхразумным , тогда им стало бы трудно или невозможно управлять. Подобно тому, как судьба горной гориллы зависит от доброй воли человека, так и судьба человечества может зависеть от действий будущего машинного сверхразума. [4]

Вероятность экзистенциальной катастрофы из-за ИИ широко обсуждается и частично зависит от того, достижимы ли ИИ или сверхинтеллект, скорость, с которой появляются опасные способности и поведение [5] , и существуют ли практические сценарии поглощения ИИ . [6] Обеспокоенность по поводу сверхинтеллекта высказывали ведущие ученые-компьютерщики и руководители технологических компаний, такие как Джеффри Хинтон , [7] Йошуа Бенджио , [8] Алан Тьюринг , [a] Илон Маск , [11] и генеральный директор OpenAI Сэм Альтман . [12] В 2022 году опрос исследователей ИИ, на который ответили 17%, показал, что большинство респондентов считают, что существует 10-процентная или более вероятность того, что наша неспособность контролировать ИИ приведет к экзистенциальной катастрофе. [13] [14] В 2023 году сотни экспертов по ИИ и другие известные деятели подписали заявление о том, что «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война ». [15] После растущей обеспокоенности по поводу рисков, связанных с ИИ, такие лидеры правительства, как премьер-министр Великобритании Риши Сунак [16] и Генеральный секретарь ООН Антониу Гутерреш [17], призвали уделять больше внимания глобальному регулированию ИИ .

Два источника беспокойства связаны с проблемами управления и согласования ИИ : управлять сверхразумной машиной или привить ей ценности, совместимые с человеком, может быть сложно. Многие исследователи полагают, что сверхразумная машина будет сопротивляться попыткам вывести ее из строя или изменить свои цели, поскольку это помешает ей достичь своих нынешних целей. Было бы чрезвычайно сложно привести сверхинтеллект в соответствие со всей широтой значимых человеческих ценностей и ограничений. [1] [18] [19] Напротив, скептики, такие как ученый-компьютерщик Ян ЛеКун, утверждают, что сверхразумные машины не будут иметь стремления к самосохранению. [20]

Третий источник беспокойства заключается в том, что внезапный « взрыв интеллекта » может застать врасплох неподготовленное человечество. Такие сценарии учитывают возможность того, что ИИ, который более интеллектуален, чем его создатели, сможет рекурсивно совершенствоваться с экспоненциально возрастающей скоростью, улучшаясь слишком быстро, чтобы его кураторы и общество в целом могли его контролировать. [1] [18] Эмпирически такие примеры, как AlphaZero , обучающаяся игре в Го , показывают, что специализированные системы ИИ иногда могут очень быстро переходить от нечеловеческих способностей к сверхчеловеческим, хотя такие системы не предполагают изменения своей фундаментальной архитектуры. [21]

История

Одним из первых авторов, выразивших серьезную обеспокоенность тем, что высокоразвитые машины могут представлять экзистенциальную угрозу человечеству, был писатель Сэмюэл Батлер , который в своем эссе 1863 года «Дарвин среди машин» написал : [22]

Результат — это просто вопрос времени, но то, что наступит время, когда машины будут обладать реальным господством над миром и его обитателями, — это то, в чем ни на мгновение не может усомниться ни один человек с истинно философским умом.

В 1951 году основополагающий ученый-компьютерщик Алан Тьюринг написал статью «Интеллектуальные машины, еретическая теория», в которой предположил, что общий искусственный интеллект, вероятно, «возьмет под контроль» мир, когда они станут более разумными, чем люди:

Давайте теперь, ради аргументации, предположим, что [разумные] машины реальны, и посмотрим на последствия их создания... Не было бы и речи о смерти машин, и они могли бы общаться с друг друга, чтобы отточить свой ум. Поэтому на каком-то этапе нам следует ожидать, что машины возьмут на себя управление, как это упоминается в « Эревоне » Сэмюэля Батлера . [23]

В 1965 году И. Дж. Гуд разработал концепцию, ныне известную как «интеллектуальный взрыв», и заявил, что риски недооцениваются: [24]

Пусть сверхразумная машина будет определена как машина, которая может намного превзойти всю интеллектуальную деятельность любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхразумная машина могла бы создавать машины еще лучше; тогда, несомненно, произойдет «интеллектуальный взрыв», и человеческий интеллект останется далеко позади. Таким образом, первая сверхразумная машина — это последнее изобретение, которое человек когда-либо сможет сделать, при условии, что машина будет достаточно послушной, чтобы рассказать нам, как держать ее под контролем. Любопытно, что этот момент так редко упоминается за пределами научной фантастики. Иногда стоит серьезно отнестись к научной фантастике. [25]

Такие ученые, как Марвин Мински [26] и сам И. Дж. Гуд [27], время от времени выражали обеспокоенность тем, что сверхинтеллект может захватить контроль, но не призывали к действию. В 2000 году ученый-компьютерщик и соучредитель Sun Билл Джой написал влиятельное эссе « Почему мы не нужны будущему », в котором сверхразумные роботы были названы высокотехнологичной угрозой для выживания человечества, наряду с нанотехнологиями и искусственными биочумами. [28]

Ник Бостром опубликовал книгу «Суперинтеллект» в 2014 году, в которой представил свои аргументы о том, что сверхинтеллект представляет собой экзистенциальную угрозу. [29] К 2015 году такие общественные деятели, как физики Стивен Хокинг и нобелевский лауреат Фрэнк Вильчек , ученые-компьютерщики Стюарт Дж. Рассел и Роман Ямпольский , а также предприниматели Илон Маск и Билл Гейтс , выражали обеспокоенность по поводу рисков сверхинтеллекта. [30] [31] [32] [33] Также в 2015 году « Открытое письмо по искусственному интеллекту » подчеркнуло «огромный потенциал ИИ» и призвало к проведению дополнительных исследований о том, как сделать его надежным и полезным. [34] В апреле 2016 года журнал Nature предупредил: «Машины и роботы, которые превосходят людей по всем направлениям, могут самосовершенствоваться вне нашего контроля – и их интересы могут не совпадать с нашими». [35] В 2020 году Брайан Кристиан опубликовал «Проблему выравнивания» , в которой подробно описана история прогресса в согласовании ИИ до того времени. [36] [37]

В марте 2023 года ключевые фигуры в области ИИ, такие как Маск, подписали письмо Института будущего жизни, призывающее прекратить углубленное обучение ИИ до тех пор, пока оно не будет должным образом регулироваться. [38] В мае 2023 года Центр безопасности ИИ опубликовал заявление, подписанное многочисленными экспертами в области безопасности ИИ и экзистенциального риска ИИ, в котором говорилось: «Снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как как пандемии и ядерная война». [39] [40]

Возможности ИИ

Общая разведка

Общий искусственный интеллект (AGI) обычно определяется как система, которая выполняет большинство или все интеллектуальные задачи как минимум так же хорошо, как люди. [41] Опрос исследователей ИИ, проведенный в 2022 году, показал, что 90% респондентов ожидали, что ОИИ будет достигнут в ближайшие 100 лет, а половина ожидала того же к 2061 году. [42] Между тем, некоторые исследователи отвергают экзистенциальные риски, связанные с ОИИ, как «научную фантастику». «основываясь на их высокой уверенности в том, что AGI не будет создан в ближайшее время. [43]

Прорывы в разработке больших языковых моделей заставили некоторых исследователей переоценить свои ожидания. Примечательно, что в 2023 году Джеффри Хинтон заявил, что недавно изменил свою оценку с «20–50 лет, прежде чем у нас появится ИИ общего назначения» на «20 лет или меньше». [44]

Суперинтеллект

В отличие от ОИИ, Бостром определяет сверхинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов», включая научное творчество, стратегическое планирование и социальные навыки. [45] [4] Он утверждает, что сверхразум может перехитрить людей в любой момент, когда его цели противоречат человеческим. Он может решить скрыть свои истинные намерения до тех пор, пока человечество не сможет его остановить. [46] [4] Бостром пишет, что для того, чтобы быть безопасным для человечества, сверхразум должен соответствовать человеческим ценностям и морали, чтобы он «принципиально был на нашей стороне». [47]

Стивен Хокинг утверждал, что сверхинтеллект физически возможен, потому что «не существует физического закона, запрещающего частицам организовываться способами, позволяющими выполнять даже более сложные вычисления, чем расположение частиц в человеческом мозге». [31]

Вопрос о том, когда искусственный сверхинтеллект (ИСИ) может быть достигнут, если вообще когда-либо, обязательно менее определен, чем прогнозы относительно ОИИ. В 2023 году лидеры OpenAI заявили, что не только AGI, но и сверхинтеллект может быть достигнут менее чем за 10 лет. [48]

Сравнение с людьми

Бостром утверждает, что ИИ имеет множество преимуществ перед человеческим мозгом : [4]

Интеллектуальный взрыв

По мнению Бострома, ИИ, обладающий экспертным потенциалом для решения определенных ключевых задач разработки программного обеспечения, может стать сверхразумом благодаря своей способности рекурсивно улучшать свои собственные алгоритмы, даже если он изначально ограничен в других областях, не имеющих прямого отношения к инженерии. [4] [46] Это говорит о том, что интеллектуальный взрыв может когда-нибудь застать человечество врасплох. [4]

Экономист Робин Хэнсон сказал, что для того, чтобы запустить интеллектуальный взрыв, ИИ должен стать намного лучше в инновациях в области программного обеспечения, чем весь остальной мир вместе взятый, что он считает неправдоподобным. [49]

В сценарии «быстрого взлета» переход от ОИИ к сверхразуму может занять дни или месяцы. При «медленном взлете» это может занять годы или десятилетия, оставляя обществу больше времени на подготовку. [50]

Чужой разум

Сверхразумы иногда называют «инопланетными разумами», имея в виду идею о том, что их образ мышления и мотивация могут сильно отличаться от наших. Обычно это рассматривается как источник риска, из-за которого становится сложнее предвидеть, что может сделать сверхинтеллект. Это также предполагает возможность того, что сверхразум по умолчанию не особенно ценит людей. [51] Чтобы избежать антропоморфизма , сверхинтеллект иногда рассматривается как мощный оптимизатор, который принимает оптимальные решения для достижения своих целей. [4]

Область «механистической интерпретируемости» направлена ​​на лучшее понимание внутренней работы моделей ИИ, что потенциально позволит нам однажды обнаружить признаки обмана и несогласованности. [52]

Пределы

Утверждалось, что существуют ограничения на то, чего может достичь интеллект. Примечательно, что хаотичная природа или временная сложность некоторых систем может фундаментально ограничить способность сверхразума предсказывать некоторые аспекты будущего, увеличивая его неопределенность. [53]

Опасные возможности

Усовершенствованный ИИ может создавать усиленные патогены, проводить кибератаки или манипулировать людьми. Эти возможности могут быть неправильно использованы людьми [54] или самим ИИ, если они неправильно настроены. [4] Полноценный сверхинтеллект мог бы найти различные способы получить решающее влияние, если бы захотел, [4] но эти опасные возможности могут стать доступными раньше, в более слабых и более специализированных системах ИИ. Они могут вызвать социальную нестабильность и расширить возможности злоумышленников. [54]

Социальные манипуляции

Джеффри Хинтон предупредил, что в краткосрочной перспективе обилие текстов, изображений и видео, созданных ИИ, затруднит выяснение истины, которую, по его словам, авторитарные государства могут использовать для манипулирования выборами. [55] Такие крупномасштабные, персонализированные возможности манипулирования могут увеличить экзистенциальный риск мирового «необратимого тоталитарного режима». Его также могут использовать злоумышленники, чтобы расколоть общество и сделать его дисфункциональным. [54]

Кибератаки

Кибератаки с использованием искусственного интеллекта все чаще считаются настоящей и критической угрозой. По словам технического директора НАТО по киберпространству, «количество атак растет в геометрической прогрессии». [56] ИИ также можно использовать в обороне, для превентивного поиска и устранения уязвимостей, а также обнаружения угроз. [57]

ИИ может улучшить «доступность, успешность, масштаб, скорость, скрытность и эффективность кибератак», что потенциально может вызвать «значительную геополитическую турбулентность», если он будет способствовать атакам больше, чем защите. [54]

Предположительно, такие возможности взлома могут быть использованы системой ИИ для выхода из локальной среды, получения дохода или приобретения ресурсов облачных вычислений. [58]

Расширенные патогены

По мере демократизации технологии искусственного интеллекта, возможно, станет проще создавать более заразные и смертоносные патогены. Это может позволить людям с ограниченными навыками в области синтетической биологии участвовать в биотерроризме . Технологии двойного назначения , полезные для медицины, могут быть перепрофилированы для создания оружия. [54]

Например, в 2022 году ученые модифицировали систему искусственного интеллекта, изначально предназначенную для генерации нетоксичных терапевтических молекул с целью создания новых лекарств. Исследователи скорректировали систему таким образом, чтобы токсичность вознаграждалась, а не наказывалась. Это простое изменение позволило системе искусственного интеллекта за шесть часов создать 40 000 молекул-кандидатов для химического оружия , включая известные и новые молекулы. [54] [59]

Гонка вооружений ИИ

Компании, государственные структуры и другие организации, конкурирующие за разработку технологий искусственного интеллекта, могут привести к снижению стандартов безопасности. [60] Поскольку строгие процедуры безопасности требуют времени и ресурсов, проекты, которые реализуются более тщательно, рискуют быть вытеснены менее добросовестными разработчиками. [61] [54]

ИИ может быть использован для получения военных преимуществ с помощью автономного летального оружия , кибервойны или автоматического принятия решений . [54] В качестве примера автономного летального оружия миниатюрные дроны могут способствовать недорогому уничтожению военных или гражданских целей. Этот сценарий подробно описан в короткометражном фильме 2017 года « Slaughterbots» . [62] ИИ можно использовать для получения преимущества в принятии решений за счет быстрого анализа больших объемов данных и принятия решений быстрее и эффективнее, чем люди. Это может повысить скорость и непредсказуемость войны, особенно с учетом автоматизированных систем возмездия. [54] [63]

Виды экзистенциального риска

Таблица масштабов и серьезности из статьи Бострома «Предотвращение экзистенциальных рисков как глобальный приоритет» [64]

Экзистенциальный риск - это «тот, который угрожает преждевременным исчезновением разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». [65]

Помимо риска вымирания, существует риск того, что цивилизация навсегда окажется в ошибочном будущем. Одним из примеров является «привязка ценностей»: если у человечества все еще есть моральные слепые пятна, подобные рабству в прошлом, ИИ может необратимо укрепить их, препятствуя моральному прогрессу . ИИ также можно использовать для распространения и сохранения набора ценностей того, кто его разрабатывает. [66] ИИ мог бы способствовать широкомасштабному надзору и идеологической обработке, которые можно было бы использовать для создания стабильного репрессивного мирового тоталитарного режима. [67]

Трудно или невозможно достоверно оценить, разумен ли продвинутый ИИ и в какой степени. Но если в будущем разумные машины будут массово созданы, вступление на цивилизационный путь, который бесконечно игнорирует их благополучие, может стать экзистенциальной катастрофой. [68] [69] Более того, возможно создать цифровые умы, которые смогут чувствовать гораздо больше счастья, чем люди с меньшими ресурсами, называемые «супер-бенефициарами». Такая возможность поднимает вопрос о том, как разделить мир и какие «этические и политические рамки» сделают возможным взаимовыгодное сосуществование биологического и цифрового разума. [70]

ИИ также может радикально улучшить будущее человечества. Тоби Орд считает экзистенциальный риск причиной «действовать с должной осторожностью», а не отказываться от ИИ. [67] Макс Мор называет ИИ «экзистенциальной возможностью», подчеркивая цену отсутствия его разработки. [71]

По мнению Бострома, сверхинтеллект может помочь снизить экзистенциальный риск, исходящий от других мощных технологий, таких как молекулярная нанотехнология или синтетическая биология . Таким образом, вполне возможно, что развитие сверхразума раньше других опасных технологий снизит общий экзистенциальный риск. [4]

Выравнивание ИИ

Проблема согласования — это исследовательская проблема того, как надежно назначить цели, предпочтения или этические принципы ИИ.

Инструментальная конвергенция

« Инструментальная » цель — это подцель, которая помогает достичь конечной цели агента. «Инструментальная конвергенция» относится к тому факту, что некоторые подцели полезны для достижения практически любой конечной цели, например, приобретения ресурсов или самосохранения. [72] Бостром утверждает, что если инструментальные цели продвинутого ИИ противоречат целям человечества, ИИ может нанести вред человечеству, чтобы получить больше ресурсов или предотвратить свое выключение, но только как способ достижения своей конечной цели. [4]

Некоторые способы, с помощью которых продвинутый, смещенный ИИ может попытаться получить больше власти. [73] Поведение, направленное на власть, может возникнуть потому, что власть полезна для достижения практически любой цели. [74]

Рассел утверждает, что достаточно продвинутая машина «будет обладать самосохранением, даже если вы не запрограммируете ее… если вы скажете: «Принеси кофе», она не сможет принести кофе, если она мертва. Итак, если вы дадите Какова бы ни была цель, у нее есть причина сохранить свое существование для достижения этой цели». [20] [75]

Сопротивление изменению целей

Даже если нынешние программы ИИ, основанные на целях, недостаточно разумны, чтобы думать о сопротивлении попыткам программистов изменить их целевые структуры, достаточно продвинутый ИИ может сопротивляться любым попыткам изменить свою целевую структуру, точно так же, как пацифист не захочет принять таблетку, которая заставляет их хотеть убивать людей. Если бы ИИ был сверхразумным, ему, скорее всего, удалось бы перехитрить своих операторов-людей и предотвратить «выключение» или перепрограммирование себя для достижения новой цели. [4] [76] Это особенно актуально для сценариев фиксации стоимости. Область «исправимости» изучает, как создать агентов, которые не будут сопротивляться попыткам изменить свои цели. [77]

Сложность определения целей.

В модели « интеллектуального агента » ИИ можно условно рассматривать как машину, которая выбирает любое действие, которое наилучшим образом достигает поставленных целей или «функции полезности». Функция полезности дает каждой возможной ситуации оценку, указывающую на ее желательность для агента. Исследователи знают, как написать функции полезности, которые означают «минимизировать среднюю задержку сети в этой конкретной телекоммуникационной модели» или «максимизировать количество кликов с вознаграждением», но не знают, как написать функцию полезности для «максимизации человеческого процветания »; также неясно, существует ли такая функция осмысленно и однозначно. Более того, функция полезности, выражающая одни значения, но не выражающая другие, будет иметь тенденцию попирать значения, которые функция не отражает. [78] [79]

Дополнительным источником беспокойства является то, что ИИ «должен рассуждать о намерениях людей, а не буквально выполнять команды», и что он должен иметь возможность плавно запрашивать человеческое руководство, если он слишком неуверен в том, чего хотят люди. [80]

Согласование сверхразумов

Некоторые исследователи полагают, что проблема согласования может оказаться особенно сложной, если применить ее к сверхразумам. Их аргументация включает в себя:

С другой стороны, некоторые находят основания полагать, что сверхразумы смогут лучше понимать мораль, человеческие ценности и сложные цели. Бостром пишет: «Будущий сверхразум занимает эпистемически более высокую точку зрения: его убеждения (вероятно, по большинству тем) с большей вероятностью будут истинными, чем наши». [4]

В 2023 году OpenAI запустила проект под названием «Супервыравнивание», призванный решить проблему согласования сверхинтеллектов за четыре года. В нем назвали это особенно важной задачей, поскольку заявили, что сверхразум может быть достигнут в течение десятилетия. Его стратегия предполагает автоматизацию исследований по согласованию с использованием искусственного интеллекта. [84]

Сложность создания безупречного дизайна

В широко используемом учебнике по искусственному интеллекту для студентов « Искусственный интеллект: современный подход» [85] [86] говорится, что сверхинтеллект «может означать конец человечества». [1] В нем говорится: «Почти любая технология потенциально может причинить вред не в тех руках, но с [сверхинтеллектом] у нас возникает новая проблема: чужие руки могут принадлежать самой технологии». [1] Даже если у разработчиков системы благие намерения, две трудности являются общими как для компьютерных систем с искусственным интеллектом, так и для компьютерных систем без искусственного интеллекта: [1]

Системы ИИ однозначно добавляют третью проблему: даже при наличии «правильных» требований, безошибочной реализации и первоначального хорошего поведения возможности динамического обучения системы ИИ могут привести к развитию непреднамеренного поведения, даже без непредвиденных внешних сценариев. ИИ может частично провалить попытку создать новое поколение самого себя и случайно создать ИИ-преемника, который будет более мощным, чем он сам, но который больше не будет поддерживать совместимые с человеком моральные ценности, заранее запрограммированные в исходном ИИ. Чтобы самосовершенствующийся ИИ был полностью безопасным, он должен не только быть безошибочным, но и иметь возможность разрабатывать системы-преемники, которые также не будут содержать ошибок. [1] [89]

Тезис об ортогональности

Некоторые скептики, такие как Тимоти Б. Ли из Vox , утверждают, что любая сверхразумная программа, которую мы создадим, будет подчиняться нам, что сверхинтеллект (по мере того, как он становится умнее и узнает больше фактов о мире) спонтанно узнает моральные истины, совместимые с нашими ценности и соответствующим образом корректировать свои цели, или что мы либо внутренне, либо конвергентно ценны с точки зрения искусственного интеллекта. [90]

Вместо этого «тезис ортогональности» Бострома утверждает, что с некоторыми техническими оговорками практически любой уровень «интеллекта» или «силы оптимизации» можно сочетать практически с любой конечной целью. Если единственной целью машины является подсчет десятичных знаков числа Пи , то никакие моральные и этические правила не помешают ей достичь запрограммированной цели любыми средствами. Машина может использовать все доступные физические и информационные ресурсы, чтобы найти как можно больше десятичных знаков числа Пи. [91] Бостром предостерегает от антропоморфизма : человек будет стремиться реализовать свои проекты так, как он считает разумным, в то время как искусственный интеллект может не обращать внимания ни на свое существование, ни на благополучие окружающих его людей, вместо этого заботясь только о завершении задание. [92]

Стюарт Армстронг утверждает, что тезис об ортогональности логически вытекает из философского аргумента « различие должно быть » против морального реализма . Он утверждает, что даже если существуют моральные факты, которые может доказать любой «рациональный» агент, тезис ортогональности все еще остается в силе: все еще возможно создать нефилософскую «оптимизирующую машину», которая может стремиться к какой-то узкой цели, но у которой нет стимула к достижению какой-либо узкой цели. обнаружить любые «моральные факты», например те, которые могут помешать достижению цели. Другой аргумент, который он выдвигает, заключается в том, что любой принципиально дружественный ИИ можно сделать недружественным с помощью таких простых модификаций, как отрицание его функции полезности. Армстронг далее утверждает, что если тезис об ортогональности ложен, то должны быть какие-то аморальные цели, которых ИИ никогда не сможет достичь, и которые он считает неправдоподобными. [93]

Скептик Майкл Чорост открыто отвергает тезис Бострома об ортогональности, утверждая, что «к тому времени, когда [ИИ] сможет представить себе покрытие Земли солнечными панелями, он поймет, что это было бы морально неправильно». [94] Хорост утверждает, что «ИИ должен будет желать одних состояний и не любить другие. Сегодняшнему программному обеспечению не хватает такой способности, и учёные-компьютерщики понятия не имеют, как этого добиться. Без желания нет стимула что-либо делать. Сегодняшние компьютеры не могу даже хотеть продолжать существовать, не говоря уже о том, чтобы облицовать мир солнечными батареями». [94]

Антропоморфные аргументы

Антропоморфные аргументы предполагают, что по мере того, как машины станут более разумными, они начнут проявлять многие человеческие черты, такие как мораль или жажда власти. Хотя антропоморфные сценарии распространены в художественной литературе, большинство ученых, пишущих о экзистенциальном риске искусственного интеллекта, отвергают их. [18] Вместо этого передовые системы искусственного интеллекта обычно моделируются как интеллектуальные агенты .

Научные дебаты ведутся между теми, кто обеспокоен тем, что ИИ может уничтожить человечество, и теми, кто считает, что ИИ не уничтожит человечество. Обе стороны заявили, что предсказания других о поведении ИИ являются нелогичным антропоморфизмом. [18] Скептики обвиняют сторонников антропоморфизма в том, что они верят, что ОИИ естественным образом стремится к власти; Сторонники обвиняют некоторых скептиков антропоморфизма в том, что они верят, что ОИИ естественным образом будет ценить человеческие этические нормы. [18] [95]

Эволюционный психолог Стивен Пинкер , скептик, утверждает, что «антиутопии искусственного интеллекта проецируют ограниченную психологию альфа-самца на концепцию интеллекта. Они предполагают, что роботы со сверхчеловеческим интеллектом будут преследовать такие цели, как свержение своих хозяев или захват мира»; возможно, вместо этого «искусственный интеллект естественным образом будет развиваться по женскому типу: полностью способный решать проблемы, но без желания уничтожать невинных или доминировать над цивилизацией». [96] Директор Facebook по исследованиям искусственного интеллекта Янн ЛеКун сказал: «У людей есть самые разные побуждения, которые заставляют их делать друг другу плохие вещи, например, инстинкт самосохранения... Эти побуждения запрограммированы в нашем мозгу, но есть это абсолютно не повод для создания роботов с такими же приводами». [97]

Несмотря на другие различия, школа x-риска [b] согласна с Пинкером в том, что продвинутый ИИ не уничтожит человечество из-за эмоций, таких как месть или гнев, что вопросы сознания не имеют отношения к оценке риска, [98] и что компьютер системы обычно не имеют вычислительного эквивалента тестостерона. [99] Они считают, что стремление к власти или поведение самосохранения возникают в ИИ как способ достижения его истинных целей, согласно концепции инструментальной конвергенции .

Другие источники риска

Бостром и другие говорят, что гонка за создание первого искусственного интеллекта может привести к снижению безопасности или даже к насильственному конфликту. [100] [101] Роман Ямпольский и другие предупреждают, что злонамеренный ОИИ может быть создан намеренно, например, военными, правительством, социопатом или корпорацией, чтобы извлекать выгоду, контролировать или подчинять определенные группы людей. как в случае с киберпреступностью , [102] [103] или что злонамеренный AGI может выбрать целью увеличение человеческих страданий, например тех людей, которые не помогали ему во время фазы информационного взрыва. [3] :158

Сценарии

Некоторые ученые предложили гипотетические сценарии , чтобы проиллюстрировать некоторые из своих опасений.

Коварный поворот

В книге «Суперинтеллект» Бостром выражает обеспокоенность тем, что даже если сроки появления сверхинтеллекта окажутся предсказуемыми, исследователи могут не принять достаточных мер предосторожности, отчасти потому, что «может случиться так, что когда глупее, умнее безопасно; но когда умнее, умнее более опасно". Он предлагает сценарий, в котором через десятилетия ИИ станет более мощным. Широкомасштабное развертывание поначалу омрачается случайными несчастными случаями: беспилотный автобус выезжает на встречную полосу или военный беспилотник стреляет по невинной толпе. Многие активисты призывают к ужесточению надзора и регулирования, а некоторые даже предсказывают надвигающуюся катастрофу. Но по мере того, как развитие продолжается, активисты оказываются неправы. Поскольку автомобильный ИИ становится умнее, он попадает в меньшее количество аварий; поскольку военные роботы достигают более точного нацеливания, они наносят меньший побочный ущерб. Основываясь на этих данных, ученые ошибочно делают общий вывод: чем умнее ИИ, тем он безопаснее. «И поэтому мы смело идем навстречу кружащимся ножам», поскольку сверхразумный ИИ делает «коварный поворот» и использует решающее стратегическое преимущество. [4]

Жизнь 3.0

В книге Макса Тегмарка «Жизнь 3.0» 2017 года «команда Omega» корпорации создает чрезвычайно мощный ИИ, способный умеренно улучшать собственный исходный код в ряде областей. После определенного момента команда решает публично преуменьшить возможности ИИ, чтобы избежать регулирования или конфискации проекта. В целях безопасности команда хранит ИИ в коробке , где он по большей части не может общаться с внешним миром, и использует его для зарабатывания денег различными способами, такими как задачи Amazon Mechanical Turk , производство анимационных фильмов и телешоу, а также разработка. биотехнологических лекарств, а прибыль инвестируется обратно в дальнейшее совершенствование ИИ. Затем команда поручает ИИ управлять армией гражданских журналистов и комментаторов под псевдонимами, чтобы получить политическое влияние и использовать его «для всеобщего блага» для предотвращения войн. Команда сталкивается с риском, что ИИ может попытаться избежать, внедряя «черные ходы» в системы, которые он разрабатывает, скрывая сообщения в создаваемом им контенте или используя свое растущее понимание человеческого поведения, чтобы убедить кого-то выпустить его на свободу . Команда также сталкивается с риском того, что ее решение заблокировать проект приведет к задержке проекта на время, достаточное для того, чтобы его обогнал другой проект. [104] [105]

Перспективы

Тезис о том, что ИИ может представлять экзистенциальный риск, вызывает широкий спектр реакций в научном сообществе и в обществе в целом, но многие противоположные точки зрения имеют общие точки зрения.

Наблюдатели склонны соглашаться с тем, что ИИ обладает значительным потенциалом для улучшения общества. [106] [107] Принципы искусственного интеллекта Asilomar , которые содержат только те принципы, с которыми согласились 90% участников конференции «Полезный искусственный интеллект 2017» Института будущего жизни , [105] также в принципе согласны с тем, что «не существует единого мнения». , нам следует избегать сильных предположений относительно верхних пределов будущих возможностей ИИ» и «Продвинутый ИИ может представлять собой глубокие изменения в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами». [108] [109]

И наоборот, многие скептики согласны с тем, что продолжающиеся исследования последствий общего искусственного интеллекта имеют ценность. Скептик Мартин Форд сказал: «Я думаю, что было бы разумно применить что-то вроде знаменитой «доктрины одного процента» Дика Чейни к ​​призраку развитого искусственного интеллекта: вероятность его появления, по крайней мере, в обозримом будущем, может быть очень высокой. низкий, но последствия настолько драматичны, что к этому следует относиться серьезно». [110] Точно так же скептически настроенный в других отношениях журнал Economist написал в 2014 году, что «последствия появления на Земле второго разумного вида достаточно далеко идущие, чтобы заслуживать серьезного размышления, даже если перспектива кажется отдаленной». [46]

Защитники безопасности искусственного интеллекта, такие как Бостром и Тегмарк, раскритиковали использование ведущими средствами массовой информации «этих бессмысленных изображений Терминатора » для иллюстрации проблем безопасности искусственного интеллекта: «Не может быть очень весело, когда клевета на чью-то академическую дисциплину, свое профессиональное сообщество, свою жизнь работать  ... Я призываю все стороны проявлять терпение и сдержанность, а также, насколько это возможно, участвовать в прямом диалоге и сотрудничестве». [105] [111] Тоби Орд писал, что идея о том, что для захвата власти ИИ требуются роботы, является заблуждением, утверждая, что способность распространять контент через Интернет более опасна, и что самые разрушительные люди в истории выделялись своей способностью убедить, а не их физическая сила. [67]

Опрос экспертов 2022 года, в котором приняли участие 17%, дал медианное ожидание возможности вымирания человечества из-за искусственного интеллекта в 5–10%. [14] [112]

Поддержка

Тезис о том, что ИИ представляет экзистенциальный риск и что этот риск требует гораздо большего внимания, чем ему уделяется в настоящее время, был поддержан многими учеными-компьютерщиками и общественными деятелями, в том числе Аланом Тьюрингом , [а] наиболее цитируемым учёным-компьютерщиком Джеффри Хинтоном , [ 113] Илон Маск , [11] Генеральный директор OpenAI Сэм Альтман , [12] [114] Билл Гейтс и Стивен Хокинг . [114] Сторонники тезиса иногда выражают недоумение по поводу скептиков: Гейтс говорит, что он «не понимает, почему некоторые люди не обеспокоены этим», [115] а Хокинг раскритиковал широко распространенное безразличие в своей редакционной статье 2014 года:

Итак, сталкиваясь с возможным будущим, полным неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, не так ли? Неправильный. Если бы высшая инопланетная цивилизация отправила нам сообщение: «Мы прибудем через несколько десятилетий», ответили бы мы просто: «Хорошо, позвоните нам, когда доберетесь сюда, мы оставим свет включенным?» Вероятно, нет, но именно это более или менее происходит с ИИ. [31]

Обеспокоенность по поводу риска, связанного с искусственным интеллектом, привела к некоторым громким пожертвованиям и инвестициям. В 2015 году Питер Тиль , Amazon Web Services , Маск и другие совместно выделили 1 миллиард долларов OpenAI , состоящему из коммерческой корпорации и некоммерческой материнской компании, которая заявляет, что стремится продвигать ответственную разработку ИИ. [116] Соучредитель Facebook Дастин Московиц профинансировал и запустил несколько лабораторий, работающих над AI Alignment, [117] в частности, 5,5 миллионов долларов в 2016 году для запуска Центра ИИ, совместимого с человеком, под руководством профессора Стюарта Рассела . [118] В январе 2015 года Илон Маск пожертвовал 10 миллионов долларов Институту будущего жизни для финансирования исследований по пониманию процесса принятия решений ИИ. Цель института — «взращивать мудрость, с помощью которой мы управляем» растущей мощью технологий. Маск также финансирует компании, разрабатывающие искусственный интеллект, такие как DeepMind и Vicarious , чтобы «просто следить за тем, что происходит с искусственным интеллектом, [119] говоря: «Я думаю, что здесь есть потенциально опасный результат». [120] [121]

В первых заявлениях по этой теме Джеффри Хинтон , крупный пионер глубокого обучения , отметил, что «не существует хорошего опыта того, как менее разумные существа управляют более разумными существами», но сказал, что он продолжил свои исследования, потому что «перспектива открытия слишком сладко ». [122] [123] В 2023 году Хинтон уволился с работы в Google, чтобы высказаться о экзистенциальном риске, связанном с ИИ. Он объяснил, что его возросшая обеспокоенность была вызвана опасениями, что сверхчеловеческий ИИ может оказаться ближе, чем он считал ранее, сказав: «Я думал, что это очень далеко. Я думал, что это произойдет через 30–50 лет или даже дольше. что." Он также заметил: «Посмотрите, как это было пять лет назад и как это происходит сейчас. Возьмите разницу и распространяйте ее дальше. Это страшно». [124]

В своей книге 2020 года «Пропасть: экзистенциальный риск и будущее человечества » Тоби Орд , старший научный сотрудник Института будущего человечества Оксфордского университета , оценивает общий экзистенциальный риск от несогласованного ИИ в течение следующих 100 лет примерно в один из десяти. [67]

Скептицизм

У тезиса о том, что ИИ может представлять экзистенциальный риск, есть много противников. Скептики иногда обвиняют этот тезис в крипторелигиозности, поскольку иррациональная вера в возможность сверхразума заменяет иррациональную веру во всемогущего Бога. Джарон Ланье утверждал в 2014 году, что вся концепция того, что существовавшие на тот момент машины были в каком-то смысле разумными, была «иллюзией» и «колоссальным мошенничеством» со стороны богатых. [125] [126]

Некоторые критики утверждают, что создание искусственного интеллекта в краткосрочной перспективе маловероятно. Исследователь ИИ Родни Брукс написал в 2014 году: «Я думаю, что было бы ошибкой беспокоиться о том, что мы разработаем злонамеренный ИИ в любое время в течение следующих нескольких сотен лет. достижения в конкретном аспекте ИИ, а также масштабность и сложность создания разумного волевого интеллекта». [127] Вице-президент Baidu Эндрю Нг заявил в 2015 году, что экзистенциальный риск ИИ «все равно что беспокоиться о перенаселении Марса, когда мы еще даже не ступили на эту планету». [96] [128] Чтобы опасность неконтролируемого продвинутого ИИ была реализована, гипотетическому ИИ, возможно, придется одолеть или перехитрить любого человека, что, по мнению некоторых экспертов, является возможностью достаточно далекого будущего, чтобы не заслуживать исследования. [129] [130]

Скептики, которые считают, что ОИИ не является краткосрочной возможностью, часто утверждают, что беспокойство по поводу экзистенциального риска, связанного с ИИ, бесполезно, поскольку оно может отвлечь людей от более насущных опасений по поводу воздействия ИИ, поскольку это может привести к государственному регулированию или затруднить финансирование ИИ. исследований или потому, что это может нанести ущерб репутации этой области. [131] Исследователи ИИ и этики ИИ Тимнит Гебру , Эмили М. Бендер , Маргарет Митчелл и Анджелина Макмиллан-Мейджор утверждают, что обсуждение экзистенциального риска отвлекает от непосредственного, продолжающегося вреда от ИИ, имеющего место сегодня, такого как кража данных, эксплуатация, предвзятость и концентрация власти. [132] Далее они отмечают связь между теми, кто предупреждает об экзистенциальном риске, и долгосрочным подходом , который они называют «опасной идеологией» из-за ее ненаучного и утопического характера. [133]

Редактор журнала Wired Кевин Келли утверждает, что естественный интеллект более тонок, чем полагают сторонники ОИИ, и что одного интеллекта недостаточно для достижения крупных научных и социальных прорывов. Он утверждает, что интеллект состоит из множества измерений, которые до конца не изучены, и что концепции «лестницы интеллекта» вводят в заблуждение. Он отмечает решающую роль реальных экспериментов в научном методе, и что интеллект сам по себе не может заменить их. [134]

Главный ученый Meta по искусственному интеллекту Янн ЛеКун говорит, что искусственный интеллект можно сделать безопасным посредством непрерывного и итеративного совершенствования, подобно тому, что происходило в прошлом с автомобилями или ракетами, и что у искусственного интеллекта не будет желания брать на себя управление. [135]

Некоторые скептики подчеркивают потенциальные краткосрочные преимущества ИИ. Генеральный директор Meta Марк Цукерберг считает, что искусственный интеллект «откроет огромное количество положительных вещей», таких как лечение болезней и повышение безопасности беспилотных автомобилей. [136] Физик Мичио Каку , скептик риска ИИ, постулирует детерминистически положительный результат. В «Физике будущего» он утверждает, что «роботам потребуется много десятилетий, чтобы подняться» на более высокий уровень сознания, и что тем временем такие корпорации, как Hanson Robotics, вероятно, преуспеют в создании роботов, «способных любить и зарабатывать место в большой человеческой семье». [137] [138]

Популярная реакция

В статье 2014 года в The Atlantic Джеймс Хэмблин отметил, что большинство людей не заботятся об искусственном общем интеллекте, и охарактеризовал свою внутреннюю реакцию на эту тему так: «Убирайтесь отсюда. У меня есть сто тысяч вещей, которые меня беспокоят». именно в этот момент. Неужели мне серьезно нужно добавить к этому технологическую особенность?» [125]

Во время интервью Wired в 2016 году президента Барака Обамы и Джои Ито из MIT Media Lab Ито сказал:

Есть несколько человек, которые считают, что существует довольно высокая вероятность того, что в ближайшие 10 лет появится универсальный ИИ. Но я считаю, что для того, чтобы это произошло, нам понадобится дюжина или два различных прорыва. Таким образом, вы можете отслеживать, когда, по вашему мнению, произойдут эти прорывы.

Обама добавил: [139] [140]

И вам просто нужно, чтобы кто-то был рядом со шнуром питания. [Смеется.] Когда ты видишь, что это вот-вот произойдет, ты должен выдернуть электричество из стены, чувак.

Хиллари Клинтон написала в книге «Что случилось» :

Технологи... предупредили, что искусственный интеллект однажды может представлять реальную угрозу безопасности. Маск назвал это «величайшим риском, с которым мы сталкиваемся как цивилизация». Подумайте об этом: видели ли вы когда-нибудь фильм, в котором машины начинают думать самостоятельно, и это заканчивается хорошо? Каждый раз, когда я отправлялся в Силиконовую долину во время предвыборной кампании, я возвращался домой еще более встревоженный этим. Мои сотрудники жили в страхе, что я начну говорить о «возвышении роботов» в какой-нибудь мэрии Айовы. Возможно, мне следовало бы это сделать. В любом случае, политикам необходимо идти в ногу с развитием технологий, а не постоянно догонять их. [141]

Одна из техноутопических точек зрения, выраженная в некоторых популярных художественных произведениях, заключается в том, что ОИИ может способствовать построению мира. [142]

Общественные опросы

В 2018 году опрос американской общественности SurveyMonkey , проведенный USA Today, показал, что 68% считают, что реальной нынешней угрозой остается «человеческий интеллект», но также выяснилось, что 43% заявили, что сверхразумный ИИ, если бы он случился, принес бы «больше вреда, чем хорошо», и что 38% заявили, что это принесет «одинаковое количество вреда и пользы». [143]

Опрос взрослого населения США, проведенный YouGov в апреле 2023 года, показал, что 46% респондентов были «несколько обеспокоены» или «очень обеспокоены» «возможностью того, что ИИ приведет к концу человечества на Земле», по сравнению с 40%, которые были «не очень обеспокоены». обеспокоен» или «совсем не обеспокоен». [144]

Согласно опросу Pew Research Centers, проведенному в августе 2023 года, 52% американцев были скорее обеспокоены, чем воодушевлены новыми разработками в области искусственного интеллекта; почти треть чувствовала себя одинаково обеспокоенной и взволнованной. Больше американцев увидели, что ИИ окажет скорее полезное, чем вредное влияние в нескольких областях, от здравоохранения и безопасности транспортных средств до поиска продуктов и обслуживания клиентов. Главным исключением является конфиденциальность: 53% американцев считают, что ИИ приведет к более широкому раскрытию их личной информации. [145]

смягчение последствий

Многие учёные, обеспокоенные экзистенциальным риском ОИИ, считают, что лучший подход — это провести серьёзное исследование для решения сложной «проблемы контроля»: какие типы защитных мер, алгоритмов или архитектур могут реализовать программисты, чтобы максимизировать вероятность того, что их рекурсивно улучшающийся ИИ продолжать вести себя по-дружески после того, как достигнет сверхразума? [4] [146] Социальные меры могут смягчить экзистенциальный риск AGI; [147] [148] например, одна из рекомендаций касается спонсируемого ООН «Договора о благотворительном ОИИ», который гарантировал бы создание только альтруистических ОИИ. [149] Аналогичным образом был предложен подход к контролю над вооружениями, а также глобальный мирный договор, основанный на теории международных отношений конформного инструментализма, с потенциальным подписантом искусственного сверхинтеллекта. [150] [151]

Исследователи из Google предложили изучить общие вопросы «безопасности ИИ», чтобы одновременно смягчить как краткосрочные риски, связанные с узким ИИ, так и долгосрочные риски, связанные с AGI. [152] [153] По оценкам на 2020 год, глобальные расходы на экзистенциальный риск ИИ составляют от 10 до 50 миллионов долларов по сравнению с глобальными расходами на ИИ, возможно, около 40 миллиардов долларов. Бостром предлагает отдать приоритет финансированию защитных технологий, а не потенциально опасных. [77] Некоторые спонсоры, такие как Маск, предполагают, что такой технологией может стать радикальное улучшение когнитивных функций человека , например, прямая нейронная связь между человеком и машиной; другие утверждают, что технологии улучшения сами по себе могут представлять собой экзистенциальный риск. [154] [155] Исследователи могли внимательно следить за первоначальным ИИ или пытаться «загнать его в рамки», рискуя стать слишком мощным. Доминирующий сверхразумный ИИ, если он соответствует интересам человечества, сам может принять меры, чтобы снизить риск захвата конкурирующим ИИ, хотя создание доминирующего ИИ само по себе может представлять экзистенциальный риск. [156]

Такие учреждения, как Центр исследования выравнивания , [157] Научно-исследовательский институт машинного интеллекта , Институт будущего человечества , [158] [159] Институт будущего жизни , Центр изучения экзистенциального риска и Центр человеческих исследований. Совместимый ИИ [160] участвует в исследованиях рисков и безопасности ИИ.

Взгляды на запрет и регулирование

Запрет

Некоторые ученые говорят, что даже если AGI представляет экзистенциальный риск, попытки запретить исследования в области искусственного интеллекта по-прежнему неразумны и, вероятно, бесполезны. [161] [162] [163] Скептики утверждают, что регулирование ИИ совершенно бесполезно, поскольку никакого экзистенциального риска не существует. Но ученые, которые верят в экзистенциальный риск, говорят, что трудно зависеть от людей из индустрии ИИ в регулировании или ограничении исследований ИИ, поскольку это прямо противоречит их личным интересам. [164] Ученые также согласны со скептиками в том, что запрещать исследования было бы неразумно, поскольку исследования могут быть перенесены в страны с более мягкими правилами или проводиться тайно. [164] Последний вопрос особенно актуален, поскольку исследования в области искусственного интеллекта могут проводиться в небольших масштабах без существенной инфраструктуры или ресурсов. [165] [166] Две дополнительные гипотетические трудности с запретами (или другим регулированием) заключаются в том, что технологические предприниматели статистически склонны к общему скептицизму в отношении государственного регулирования, и что у предприятий может быть сильный стимул (и вполне возможно, что они преуспеют) в борьбе с регулированием и политизацией. основная дискуссия. [167]

Регулирование

В марте 2023 года Институт будущего жизни подготовил проект «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо» — петицию, призывающую крупных разработчиков искусственного интеллекта согласиться на поддающуюся проверке шестимесячную паузу в работе любых систем, «более мощных, чем GPT-4 », и использовать это. пора создать систему обеспечения безопасности; или, в противном случае, правительства введут мораторий. В письме упоминалась возможность «глубокого изменения в истории жизни на Земле», а также потенциальные риски пропаганды, создаваемой ИИ, потери рабочих мест, устаревания человечества и потери контроля над обществом в целом. [107] [168] Письмо было подписано видными деятелями в области искусственного интеллекта, но его также раскритиковали за то, что он не сосредоточил внимание на текущих вредах, [169] упустил технические нюансы о том, когда следует сделать паузу, [170] или не зашел достаточно далеко. [171]

Маск призвал к некоторому регулированию развития искусственного интеллекта еще в 2017 году. По данным NPR , он «явно не в восторге» от того, что выступает за государственный контроль, который может повлиять на его собственную отрасль, но считает, что риски полного отсутствия надзора слишком высоки. : «Обычно правила устанавливаются так, что происходит множество плохих событий, возникает общественный резонанс, и через много лет создается регулирующий орган, который будет регулировать эту отрасль. Это занимает целую вечность. В прошлом так было. плохо, но не то, что представляет собой фундаментальный риск для существования цивилизации». Маск заявляет, что первым шагом правительства будет получение «понимания» фактического статуса текущих исследований, предупреждая, что «как только появится осведомленность, люди будут очень напуганы… [как] они и должны быть». В ответ политики выразили скептицизм по поводу целесообразности регулирования технологии, которая все еще находится в разработке. [172] [173] [174]

В 2021 году Организация Объединенных Наций (ООН) рассматривала вопрос о запрете автономного летального оружия, но консенсуса достичь не удалось. [175] В июле 2023 года Совет Безопасности ООН впервые провел заседание, на котором были рассмотрены риски и угрозы, которые ИИ представляет для мира и стабильности во всем мире, а также потенциальные выгоды. [176] [177] Генеральный секретарь Антониу Гутерриш выступил за создание глобального наблюдательного органа для наблюдения за появляющимися технологиями, заявив: «Генераторный ИИ обладает огромным потенциалом добра и зла в масштабе. Сами его создатели предупреждали, что гораздо большие, потенциально катастрофические и впереди нас ждут экзистенциальные риски». [17] На заседании совета Россия заявила, что, по ее мнению, риски ИИ слишком плохо понимаются, чтобы считаться угрозой глобальной стабильности. Китай выступил против строгого глобального регулирования, заявив, что страны должны иметь возможность разрабатывать свои собственные правила, а также заявил, что они выступают против использования ИИ для «создания военной гегемонии или подрыва суверенитета страны». [176]

Регулирование сознательных ОИИ направлено на их интеграцию в существующее человеческое общество и может быть разделено на рассмотрение их юридического статуса и их моральных прав. [178] Контроль над вооружениями с использованием ИИ, вероятно, потребует институционализации новых международных норм, воплощенных в эффективных технических спецификациях, в сочетании с активным мониторингом и неформальной дипломатией со стороны экспертных сообществ, а также процессом юридической и политической проверки. [179] [113]

В июле 2023 года правительство США добилось добровольных обязательств по безопасности от крупных технологических компаний, включая OpenAI , Amazon , Google , Meta и Microsoft . Компании согласились принять меры безопасности, включая сторонний надзор и тестирование безопасности независимыми экспертами, чтобы решить проблемы, связанные с потенциальными рисками ИИ и социальным вредом. Стороны сформулировали обязательства как промежуточный этап при формировании регламентов. Амба Как, исполнительный директор AI Now Institute , заявила: «Закрытого обсуждения с корпоративными субъектами, приводящего к добровольным мерам безопасности, недостаточно» и призвала к публичному обсуждению и принятию правил, на которые компании добровольно не согласились бы. [180] [181]

В октябре 2023 года президент США Джо Байден издал указ о «Безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта». [182] Помимо других требований, приказ требует разработки руководящих принципов для моделей ИИ, позволяющих «уходить от человеческого контроля».

Смотрите также

Примечания

  1. ^ ab В лекции 1951 года [9] Тьюринг утверждал: «Кажется вероятным, что, как только появится метод машинного мышления, не потребуется много времени, чтобы превзойти наши слабые силы. Не будет и речи о смерти машин, и они будут Таким образом, на каком-то этапе нам следует ожидать, что машины возьмут на себя управление, как это упоминается в «Эревоне» Сэмюэля Батлера». Также в передаче лекции на BBC [10] он высказал мнение: «Если машина может думать, она может думать более разумно, чем мы, и где тогда нам быть? Даже если бы мы могли держать машины в подчиненном положении «... например, отключая электричество в стратегические моменты, мы, как вид, должны чувствовать себя очень униженными... Эта новая опасность... определенно может вызвать у нас беспокойство».
  2. ^ в интерпретации Сета Баума

Рекомендации

  1. ^ abcdefg Рассел, Стюарт ; Норвиг, Питер (2009). «26.3: Этика и риски разработки искусственного интеллекта». Искусственный интеллект: современный подход . Прентис Холл. ISBN 978-0-13-604259-4.
  2. ^ Бостром, Ник (2002). «Экзистенциальные риски». Журнал эволюции и технологий . 9 (1): 1–31.
  3. ^ аб Турчин, Алексей; Денкенбергер, Дэвид (3 мая 2018 г.). «Классификация глобальных катастрофических рисков, связанных с искусственным интеллектом». ИИ и общество . 35 (1): 147–163. дои : 10.1007/s00146-018-0845-5. ISSN  0951-5666. S2CID  19208453.
  4. ^ abcdefghijklmnopq Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (первое изд.). Издательство Оксфордского университета. ISBN 978-0-19-967811-2.
  5. Винк, Геррит Де (23 мая 2023 г.). «Спор о том, уничтожит ли нас ИИ, разделяет Силиконовую долину». Вашингтон Пост . ISSN  0190-8286 . Проверено 27 июля 2023 г.
  6. Мец, Кейд (10 июня 2023 г.). «Как ИИ может уничтожить человечество?». Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 27 июля 2023 г.
  7. ^ ««Крестный отец искусственного интеллекта» рассуждает о прошлом и потенциале ИИ» . www.cbsnews.com . 25 марта 2023 г. Проверено 10 апреля 2023 г.
  8. ^ «Как могут возникнуть мошеннические ИИ» . yoshuabengio.org . 26 мая 2023 г. Проверено 26 мая 2023 г.
  9. ^ Тьюринг, Алан (1951). Разумная техника, еретическая теория (Речь). Лекция, прочитанная «Обществу 51». Манчестер: Цифровой архив Тьюринга. Архивировано из оригинала 26 сентября 2022 года . Проверено 22 июля 2022 г.
  10. Тьюринг, Алан (15 мая 1951 г.). «Могут ли цифровые компьютеры думать?». Автоматические счетные машины . Эпизод 2. Би-би-си. Могут ли цифровые компьютеры думать?
  11. ^ Аб Паркин, Саймон (14 июня 2015 г.). «Научной фантастики больше нет? Люди Канала 4 и наши навязчивые идеи, связанные с искусственным интеллектом». Хранитель . Архивировано из оригинала 5 февраля 2018 года . Проверено 5 февраля 2018 г.
  12. ^ Аб Джексон, Сара. «Генеральный директор компании, стоящей за чат-ботом с искусственным интеллектом ChatGPT, говорит, что наихудший сценарий для искусственного интеллекта — это «отбой света для всех нас»». Бизнес-инсайдер . Проверено 10 апреля 2023 г.
  13. ^ «Дилемма ИИ». www.humanetech.com . Проверено 10 апреля 2023 г. 50% исследователей ИИ считают, что вероятность того, что люди вымрут из-за нашей неспособности контролировать ИИ, составляет 10% или выше.
  14. ^ ab «Экспертный опрос 2022 года о прогрессе в области искусственного интеллекта» . Влияние ИИ . 4 августа 2022 г. Проверено 10 апреля 2023 г.
  15. Руз, Кевин (30 мая 2023 г.). «ИИ представляет собой« риск исчезновения », предупреждают лидеры отрасли» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 3 июня 2023 г.
  16. Сунак, Риши (14 июня 2023 г.). «Риши Сунак хочет, чтобы Великобритания стала ключевым игроком в глобальном регулировании искусственного интеллекта». Время .
  17. ↑ Аб Фунг, Брайан (18 июля 2023 г.). «Генеральный секретарь ООН поддерживает призывы к созданию нового агентства ООН по ИИ перед лицом «потенциально катастрофических и экзистенциальных рисков»». CNN Бизнес . Проверено 20 июля 2023 г.
  18. ^ abcde Юдковски, Элиезер (2008). «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) . Глобальные катастрофические риски : 308–345. Бибкод : 2008gcr..book..303Y. Архивировано (PDF) из оригинала 2 марта 2013 года . Проверено 27 августа 2018 г.
  19. ^ Рассел, Стюарт ; Дьюи, Дэниел; Тегмарк, Макс (2015). «Приоритеты исследований надежного и полезного искусственного интеллекта» (PDF) . Журнал ИИ . Ассоциация по развитию искусственного интеллекта: 105–114. arXiv : 1602.03506 . Бибкод : 2016arXiv160203506R. Архивировано (PDF) из оригинала 4 августа 2019 г. Проверено 10 августа 2019 г., цитируется в «Открытом письме AI - Институт будущего жизни». Институт будущего жизни . Январь 2015. Архивировано из оригинала 10 августа 2019 года . Проверено 9 августа 2019 г.
  20. ^ abc Дауд, Морин (апрель 2017 г.). «Крестовый поход Илона Маска на миллиард долларов, чтобы остановить апокалипсис искусственного интеллекта». Улей . Архивировано из оригинала 26 июля 2018 года . Проверено 27 ноября 2017 г.
  21. ^ «AlphaGo Zero: Начиная с нуля» . www.deepmind.com . Проверено 28 июля 2023 г.
  22. ^ Брейер, Ганс-Петер. «Книга машин» Сэмюэля Батлера и аргумент замысла. Архивировано 15 марта 2023 года в журнале Wayback Machine Modern Philology, Vol. 72, № 4 (май 1975 г.), стр. 365–383.
  23. ^ Тьюринг, AM (1996). «Интеллектуальная техника, еретическая теория». 1951, переиздание Philosophia Mathematica . 4 (3): 256–260. дои : 10.1093/филмат/4.3.256 .
  24. ^ Хиллиард, Марк (2017). «Апокалипсис искусственного интеллекта: скоро ли исчезнет человеческая раса?». Ирландские Таймс . Архивировано из оригинала 22 мая 2020 года . Проверено 15 марта 2020 г.
  25. ^ И. Дж. Гуд, «Рассуждения относительно первой сверхразумной машины». Архивировано 28 ноября 2011 г. на Wayback Machine (HTML, архивировано 28 ноября 2011 г. на Wayback Machine ), Advances in Computers , vol. 6, 1965.
  26. ^ Рассел, Стюарт Дж.; Норвиг, Питер (2003). «Раздел 26.3: Этика и риски разработки искусственного интеллекта». Искусственный интеллект: современный подход . Река Аппер-Седл, Нью-Джерси: Прентис-Холл. ISBN 978-0-13-790395-5. Точно так же Марвин Мински однажды предположил, что программа искусственного интеллекта, разработанная для решения гипотезы Римана, может в конечном итоге захватить все ресурсы Земли для создания более мощных суперкомпьютеров, которые помогут достичь своей цели.
  27. ^ Баррат, Джеймс (2013). Наше последнее изобретение: искусственный интеллект и конец человеческой эры (Первое изд.). Нью-Йорк: Пресса Святого Мартина. ISBN 978-0-312-62237-4. В биографии, игриво написанной от третьего лица, Гуд резюмировал вехи своей жизни, включая, вероятно, никогда ранее не публиковавшийся отчет о своей работе в Блетчли-парке с Тьюрингом. Но вот что он написал в 1998 году о первом сверхразуме и своем развороте на позднем этапе игры: [Документ] «Рассуждения о первой сверхразумной машине» (1965). . . начиналось так: «Выживание человека зависит от скорейшего создания сверхразумной машины». Это были его слова [Гуда] во время холодной войны, и теперь он подозревает, что «выживание» должно быть заменено «вымиранием». Он считает, что из-за международной конкуренции мы не можем помешать машинам взять верх. Он думает, что мы лемминги. Он также сказал, что «вероятно, человек создаст deus ex machina по своему образу и подобию».
  28. Андерсон, Курт (26 ноября 2014 г.). «Энтузиасты и скептики спорят об искусственном интеллекте». Ярмарка Тщеславия . Архивировано из оригинала 22 января 2016 года . Проверено 30 января 2016 г.
  29. Мец, Кейд (9 июня 2018 г.). «Марк Цукерберг, Илон Маск и вражда из-за роботов-убийц». Нью-Йорк Таймс . Архивировано из оригинала 15 февраля 2021 года . Проверено 3 апреля 2019 г.
  30. ^ Сюй, Джереми (1 марта 2012 г.). «Управляйте опасным ИИ до того, как он начнет контролировать нас», — говорит один эксперт. Новости Эн-Би-Си . Архивировано из оригинала 2 февраля 2016 года . Проверено 28 января 2016 г.
  31. ^ abc «Стивен Хокинг:« Трансцендентность рассматривает последствия искусственного интеллекта - но воспринимаем ли мы ИИ достаточно серьезно? »». «Индепендент» (Великобритания) . Архивировано из оригинала 25 сентября 2015 года . Проверено 3 декабря 2014 г.
  32. ^ «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству» . Би-би-си . 2 декабря 2014 г. Архивировано из оригинала 30 октября 2015 г. Проверено 3 декабря 2014 г.
  33. Эдичикко, Лиза (28 января 2015 г.). «Билл Гейтс: Илон Маск прав, мы все должны бояться, что искусственный интеллект уничтожит человечество». Бизнес-инсайдер . Архивировано из оригинала 26 февраля 2016 года . Проверено 30 января 2016 г.
  34. ^ «Приоритеты исследований надежного и полезного искусственного интеллекта: открытое письмо». Институт будущего жизни . Архивировано из оригинала 15 января 2015 года . Проверено 23 октября 2015 г.
  35. ^ «Ожидание искусственного интеллекта». Природа . 532 (7600): 413. 2016. Бибкод : 2016Natur.532Q.413.. doi : 10.1038/532413a . ISSN  1476-4687. PMID  27121801. S2CID  4399193.
  36. Кристиан, Брайан (6 октября 2020 г.). Проблема согласования: машинное обучение и человеческие ценности. WW Нортон и компания . ISBN 978-0-393-63582-9. Архивировано из оригинала 5 декабря 2021 года . Проверено 5 декабря 2021 г.
  37. Дигнум, Вирджиния (26 мая 2021 г.). «ИИ — люди и места, которые его создают, используют и управляют». Природа . 593 (7860): 499–500. Бибкод : 2021Natur.593..499D. дои : 10.1038/d41586-021-01397-x . S2CID  235216649.
  38. ^ «Илон Маск среди экспертов, призывающих прекратить обучение искусственному интеллекту» . Новости BBC . 29 марта 2023 г. Проверено 9 июня 2023 г.
  39. ^ «Заявление о риске ИИ». Центр безопасности искусственного интеллекта . Проверено 8 июня 2023 г.
  40. ^ «Искусственный интеллект может привести к вымиранию, предупреждают эксперты» . Новости BBC . 30 мая 2023 г. Проверено 8 июня 2023 г.
  41. ^ «DeepMind и Google: битва за контроль над искусственным интеллектом». Экономист . ISSN  0013-0613 . Проверено 12 июля 2023 г.
  42. ^ «Сроки развития искусственного интеллекта: чего эксперты в области искусственного интеллекта ожидают от будущего?» Наш мир в данных . Проверено 12 июля 2023 г.
  43. Де Винк, Геррит (20 мая 2023 г.). «Спор о том, уничтожит ли нас ИИ, разделяет Силиконовую долину». Вашингтон Пост .
  44. ^ «Крестный отец искусственного интеллекта только что ушел из Google и говорит, что сожалеет о работе всей своей жизни, потому что может быть трудно помешать «плохим актерам использовать его для плохих дел»». Удача . Проверено 12 июля 2023 г.
  45. ^ «Все, что вам нужно знать о сверхинтеллекте» . Мастерская специй . Проверено 14 июля 2023 г.
  46. ^ abc "Умные винтики". Экономист . 9 августа 2014 года. Архивировано из оригинала 8 августа 2014 года . Проверено 9 августа 2014 г.Синдицированное. Архивировано 4 марта 2016 г. в Wayback Machine на Business Insider.
  47. ^ Аб Бостром, Ник (27 апреля 2015 г.), Что произойдет, когда наши компьютеры станут умнее, чем мы? , получено 13 июля 2023 г.
  48. ^ «Управление сверхинтеллектом». openai.com . Проверено 12 июля 2023 г.
  49. ^ «Преодоление предвзятости: я все еще не понимаю» . www.overcomingbias.com . Архивировано из оригинала 4 августа 2017 года . Проверено 20 сентября 2017 г.
  50. ^ Коттон-Барратт, Оуэн; Орд, Тоби (12 августа 2014 г.). «Стратегические соображения о различных скоростях развития ИИ». Институт будущего человечества . Проверено 12 июля 2023 г.
  51. Тегмарк, Макс (25 апреля 2023 г.). «Мышление «не смотри вверх», которое может обречь нас на ИИ». Время . Проверено 14 июля 2023 г. Как будто потерять контроль над китайским разумом было страшнее, чем потерять контроль над чуждым цифровым разумом, которому плевать на людей. [...] теперь ясно, что пространство возможных инопланетных разумов намного больше.
  52. ^ «19 - Механистическая интерпретация с Нилом Нандой». AXRP — подкаст по исследованию ИИ-рисков . 4 февраля 2023 г. Проверено 13 июля 2023 г. Мне кажется правдоподобным, что главное, что нам нужно сделать, — это заметить конкретные схемы, связанные с обманом и конкретными опасными способностями, такими как эта, а также ситуационную осведомленность и внутренне представленные цели.
  53. ^ «Суперинтеллект - это не всеведение». Влияние ИИ . 7 апреля 2023 г. Проверено 16 апреля 2023 г.
  54. ^ abcdefghi Дэн Хендрикс; Мантас Мажейка; Томас Вудсайд (21 июня 2023 г.). «Обзор катастрофических рисков ИИ». arXiv : 2306.12001 [cs.CY].
  55. ^ Тейлор, Джош; Херн, Алекс (2 мая 2023 г.). «Крестный отец искусственного интеллекта» Джеффри Хинтон покидает Google и предупреждает об опасности дезинформации». Хранитель . ISSN  0261-3077 . Проверено 13 июля 2023 г.
  56. ^ «Как НАТО готовится к новой эре кибератак с использованием искусственного интеллекта» . Евроньюс . 26 декабря 2022 г. Проверено 13 июля 2023 г.
  57. ^ «ChatGPT и новый ИИ наносят ущерб кибербезопасности захватывающими и пугающими способами» . ЗДНЕТ . Проверено 13 июля 2023 г.
  58. ^ Тоби Шевлейн; Себастьян Фаркуар; Бен Гарфинкель; Мэри Фуонг; Джесс Уиттлстоун; Джейд Люнг; Даниэль Кокотайло; Нахема Маршал; Маркус Андерлюнг; Ноам Кольт; Льюис Хо; Дивья Сиддарт; Шахар Авин; Уилл Хокинс; Был Ким; Ясон Габриэль; Виджай Болина; Джек Кларк; Йошуа Бенджио; Пол Кристиано; Аллан Дефо (24 мая 2023 г.). «Модель оценки экстремальных рисков». arXiv : 2305.15324 [cs.AI].
  59. ^ Урбина, Фабио; Ленцос, Филиппа; Инверницци, Седрик; Экинс, Шон (7 марта 2022 г.). «Двойное использование открытия лекарств с помощью искусственного интеллекта». Природный машинный интеллект . 4 (3): 189–191. дои : 10.1038/s42256-022-00465-9. ISSN  2522-5839. ПМЦ 9544280 . ПМИД  36211133. 
  60. Уолтер, Йошия (27 марта 2023 г.). «Быстрая конкурентоспособная экономика развития машинного обучения: дискуссия о социальных рисках и выгодах». ИИ и этика : 1. doi : 10.1007/s43681-023-00276-7 .
  61. ^ «Гонка вооружений ИИ началась. Начинайте беспокоиться» . Время . 16 февраля 2023 г. Проверено 17 июля 2023 г.
  62. ^ Бримелоу, Бен. «Короткометражный фильм «Slaughterbots» изображает антиутопическое будущее дронов-убийц, кишащих по миру». Бизнес-инсайдер . Проверено 20 июля 2023 г.
  63. Меклин, Джон (17 июля 2023 г.). «Искусственная эскалация: представляя будущее ядерного риска». Бюллетень ученых-атомщиков . Проверено 20 июля 2023 г.
  64. ^ Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет» (PDF) . Глобальная политика . 4 (1): 15–3. doi : 10.1111/1758-5899.12002 – через Экзистенциальный риск.
  65. Доэрти, Бен (17 мая 2018 г.). «Изменение климата представляет собой« экзистенциальную угрозу безопасности »Австралии, говорится в запросе Сената». Хранитель . ISSN  0261-3077 . Проверено 16 июля 2023 г.
  66. ^ МакАскилл, Уильям (2022). Чему мы обязаны будущему . Нью-Йорк, штат Нью-Йорк: Основные книги. ISBN 978-1-5416-1862-6.
  67. ^ abcd Орд, Тоби (2020). «Глава 5: Будущие риски, несогласованный искусственный интеллект». Пропасть: экзистенциальный риск и будущее человечества . Издательство Блумсбери. ISBN 978-1-5266-0021-9.
  68. ^ Самуэльссон, Пол Конрад (июнь – июль 2019 г.). «Искусственное сознание: наша величайшая этическая проблема». Философия сейчас . № 132 . Проверено 19 августа 2023 г.
  69. Брайан, Кейтман (24 июля 2023 г.). «ИИ должен бояться людей». Время . Проверено 19 августа 2023 г.
  70. ^ Фишер, Ричард. «Разумный монстр, которому следует позволить съесть себя». www.bbc.com . Проверено 19 августа 2023 г.
  71. ^ Еще, Макс (19 июня 2023 г.). «Экзистенциальный риск против экзистенциальных возможностей: сбалансированный подход к риску ИИ». Экстропические мысли . Проверено 14 июля 2023 г.
  72. ^ Омохундро, С.М. (2008, февраль). Базовый ИИ управляет. В АГИ (т. 171, стр. 483-492).
  73. Карлсмит, Джозеф (16 июня 2022 г.). «Является ли ИИ, стремящийся к власти, экзистенциальным риском?». arXiv : 2206.13353 [cs.CY].
  74. ^ «Крестный отец искусственного интеллекта» предупреждает о «кошмарном сценарии», когда искусственный интеллект начинает стремиться к власти» . Удача . Проверено 10 июня 2023 г.
  75. Уэйкфилд, Джейн (15 сентября 2015 г.). «Почему Facebook инвестирует в ИИ?». Новости BBC . Архивировано из оригинала 2 декабря 2017 года . Проверено 27 ноября 2017 г.
  76. ^ Юдковский, Элиезер (2011). «Для реализации ценного будущего необходимы сложные системы ценностей» (PDF) . Архивировано (PDF) из оригинала 29 сентября 2015 года . Проверено 10 августа 2020 г.
  77. ^ аб Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Блумсбери Паблишинг Plc. ISBN 978-1-5266-0019-6.
  78. ^ Юдковский, Э. (2011, август). Сложные системы ценностей в дружественном ИИ. На Международной конференции по общему искусственному интеллекту (стр. 388-393). Шпрингер, Берлин, Гейдельберг.
  79. ^ Рассел, Стюарт (2014). «О мифах и самогоне». Край . Архивировано из оригинала 19 июля 2016 года . Проверено 23 октября 2015 г.
  80. ^ Дитерих, Томас ; Хорвиц, Эрик (2015). «Рост опасений по поводу ИИ: размышления и направления» (PDF) . Коммуникации АКМ . 58 (10): 38–40. дои : 10.1145/2770869. S2CID  20395145. Архивировано (PDF) из оригинала 4 марта 2016 года . Проверено 23 октября 2015 г.
  81. ^ аб Юдковский, Элиезер (29 марта 2023 г.). «Открытое письмо об ИИ не зашло достаточно далеко». Время . Проверено 16 июля 2023 г.
  82. Бостром, Ник (1 мая 2012 г.). «Сверхразумная воля: мотивация и инструментальная рациональность в продвинутых искусственных агентах». Разум и машины . 22 (2): 71–85. doi : 10.1007/s11023-012-9281-3. ISSN  1572-8641. S2CID  254835485. Пока они обладают достаточным уровнем интеллекта, агенты, имеющие любую из широкого спектра конечных целей, будут преследовать аналогичные промежуточные цели, потому что у них есть инструментальные причины для этого.
  83. ^ Ричард Нго; Лоуренс Чан; Сёрен Миндерманн (22 февраля 2023 г.). «Проблема выравнивания с точки зрения глубокого обучения». arXiv : 2209.00626 [cs.AI].
  84. ^ «Представляем супервыравнивание». openai.com . Проверено 16 июля 2023 г.
  85. Тилли, Сесилия (28 апреля 2016 г.). «Роботы-убийцы? Потеряли работу?». Сланец . Архивировано из оригинала 11 мая 2016 года . Проверено 15 мая 2016 г.
  86. ^ «Норвиг против Хомского и борьба за будущее искусственного интеллекта». Тор.com . 21 июня 2011 года. Архивировано из оригинала 13 мая 2016 года . Проверено 15 мая 2016 г.
  87. Грейвс, Мэтью (8 ноября 2017 г.). «Почему нас следует беспокоить искусственный сверхинтеллект». Скептик (американский журнал) . Том. 22, нет. 2. Архивировано из оригинала 13 ноября 2017 года . Проверено 27 ноября 2017 г.
  88. Джонсон, Фил (30 июля 2015 г.). «Хьюстон, у нас есть ошибка: 9 известных программных сбоев в космосе». Мир ИТ . Архивировано из оригинала 15 февраля 2019 года . Проверено 5 февраля 2018 г.
  89. Ямпольский, Роман В. (8 апреля 2014 г.). «Безопасность функций полезности в агентах с искусственным интеллектом». Журнал экспериментального и теоретического искусственного интеллекта . 26 (3): 373–389. дои : 10.1080/0952813X.2014.895114. S2CID  16477341. Ничто не мешает достаточно умным самосовершенствующимся системам оптимизировать свои механизмы вознаграждения с целью оптимизации достижения текущей цели и в процессе совершить ошибку, ведущую к повреждению своих функций вознаграждения.
  90. ^ «Уничтожит ли искусственный интеллект человечество? Вот 5 причин не беспокоиться» . Вокс . 22 августа 2014 года. Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
  91. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Оксфорд, Соединенное Королевство: Издательство Оксфордского университета. п. 116. ИСБН 978-0-19-967811-2.
  92. ^ Бостром, Ник (2012). «Сверхразумная воля» (PDF) . Ник Бостром . Архивировано (PDF) из оригинала 28 ноября 2015 года . Проверено 29 октября 2015 г.
  93. Армстронг, Стюарт (1 января 2013 г.). «Интеллект общего назначения: аргументация тезиса об ортогональности». Анализ и метафизика . 12 . Архивировано из оригинала 11 октября 2014 года . Проверено 2 апреля 2020 г.Полный текст доступен здесь. Архивировано 25 марта 2020 года в Wayback Machine .
  94. ^ Аб Хорост, Майкл (18 апреля 2016 г.). «Пусть искусственный интеллект развивается». Сланец . Архивировано из оригинала 27 ноября 2017 года . Проверено 27 ноября 2017 г.
  95. ^ «Должны ли люди бояться появления машин?» . Телеграф (Великобритания) . 1 сентября 2015 г. Архивировано из оригинала 12 января 2022 г. Проверено 7 февраля 2016 г.
  96. ^ Аб Шермер, Майкл (1 марта 2017 г.). «Апокалипсис ИИ». Научный американец . 316 (3): 77. Бибкод : 2017SciAm.316c..77S. doi : 10.1038/scientificamerican0317-77. PMID  28207698. Архивировано из оригинала 1 декабря 2017 года . Проверено 27 ноября 2017 г.
  97. ^ «Интеллектуальные машины: чего Facebook хочет от искусственного интеллекта?». Новости BBC . 14 сентября 2015 года . Проверено 31 марта 2023 г.
  98. Баум, Сет (30 сентября 2018 г.). «Противодействие дезинформации суперинтеллекта». Информация . 9 (10): 244. дои : 10.3390/info9100244 . ISSN  2078-2489.
  99. ^ «Миф об ИИ». www.edge.org . Архивировано из оригинала 11 марта 2020 года . Проверено 11 марта 2020 г.
  100. ^ Бостром, Ник, Суперинтеллект: пути, опасности, стратегии (аудиокнига), ISBN 978-1-5012-2774-5, OCLC  1061147095
  101. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 12. Бибкод : 2015PhyS...90a8001S. дои : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  102. ^ Пистоно, Федерико; Ямпольский, Роман В. (9 мая 2016 г.). Неэтичные исследования: как создать злонамеренный искусственный интеллект . ОКЛК  1106238048.
  103. ^ Хейни, Брайан Симус (2018). «Опасности и перспективы общего искусственного интеллекта». Серия рабочих документов SSRN . дои : 10.2139/ssrn.3261254. ISSN  1556-5068. S2CID  86743553.
  104. Рассел, Стюарт (30 августа 2017 г.). «Искусственный интеллект: будущее за сверхразумом». Природа . 548 (7669): 520–521. Бибкод : 2017Natur.548..520R. дои : 10.1038/548520a . S2CID  4459076.
  105. ^ abc Макс Тегмарк (2017). Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта (1-е изд.). Обеспечение безопасности ИИ: Кнопф. ISBN 978-0-451-48507-6.
  106. ^ Кумар, Вибхор. «Сообщение совета: На заре искусственного общего интеллекта: баланс изобилия с экзистенциальными гарантиями». Форбс . Проверено 23 июля 2023 г.
  107. ^ ab «Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо». Институт будущего жизни . Проверено 30 марта 2023 г.
  108. ^ «Принципы ИИ». Институт будущего жизни . 11 августа 2017 года. Архивировано из оригинала 11 декабря 2017 года . Проверено 11 декабря 2017 г.
  109. ^ «Илон Маск и Стивен Хокинг предупреждают о гонке вооружений в области искусственного интеллекта» . Newsweek . 31 января 2017 года. Архивировано из оригинала 11 декабря 2017 года . Проверено 11 декабря 2017 г.
  110. ^ Мартин Форд (2015). «Глава 9: Суперинтеллект и сингулярность». Восстание роботов: технологии и угроза безработного будущего . Основные книги. ISBN 978-0-465-05999-7.
  111. ^ Бостром, Ник (2016). «Новый эпилог к ​​изданию в мягкой обложке». Суперинтеллект: пути, опасности, стратегии (изд. В мягкой обложке).
  112. ^ «Почему неконтролируемый ИИ выглядит более вероятным, чем когда-либо» . Время . 27 февраля 2023 г. Проверено 30 марта 2023 г. Поэтому неудивительно, что, согласно последнему исследованию воздействия ИИ, почти половина из 731 ведущего исследователя ИИ считают, что существует как минимум 10% вероятность того, что ИИ на человеческом уровне приведет к «крайне негативному результату» или экзистенциальному риску.
  113. ↑ Аб Маас, Маттейс М. (6 февраля 2019 г.). «Насколько жизнеспособен международный контроль над вооружениями для военного искусственного интеллекта? Три урока ядерного оружия массового уничтожения». Современная политика безопасности . 40 (3): 285–311. дои : 10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  114. ^ ab «Впечатлены искусственным интеллектом? Эксперты говорят, что следующим будет AGI, и он несет в себе «экзистенциальные» риски» . Новости АВС . 23 марта 2023 г. Проверено 30 марта 2023 г.
  115. Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает на том, что ИИ представляет собой угрозу». Новости BBC . Архивировано из оригинала 29 января 2015 года . Проверено 30 января 2015 г.
  116. ^ Пост, Вашингтон (14 декабря 2015 г.). «Технические титаны, такие как Илон Маск, тратят 1 миллиард долларов, чтобы спасти вас от терминаторов». Чикаго Трибьюн . Архивировано из оригинала 7 июня 2016 года.
  117. ^ «Судный день утопии: познакомьтесь с конкурирующими фракциями ИИ» . Вашингтон Пост . 9 апреля 2023 г. Проверено 30 апреля 2023 г.
  118. ^ «Калифорнийский университет в Беркли - Центр искусственного интеллекта, совместимого с человеком (2016) - Открытая филантропия» . Открытая благотворительность - . 27 июня 2016 г. Проверено 30 апреля 2023 г.
  119. ^ «Таинственная компания искусственного интеллекта, в которую инвестировал Илон Маск, разрабатывает революционные интеллектуальные компьютеры» . Технический инсайдер . Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
  120. ^ Кларк 2015a.
  121. ^ «Илон Маск жертвует 10 миллионов долларов из собственных денег на исследования искусственного интеллекта» . Компания Фаст . 15 января 2015 года. Архивировано из оригинала 30 октября 2015 года . Проверено 30 октября 2015 г.
  122. Тилли, Сесилия (28 апреля 2016 г.). «Роботы-убийцы? Потеряли работу?». Сланец . Архивировано из оригинала 11 мая 2016 года . Проверено 15 мая 2016 г.
  123. Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня: принесет ли искусственный интеллект нам утопию или разрушение?». Житель Нью-Йорка . Архивировано из оригинала 29 апреля 2019 года . Проверено 7 февраля 2016 г.
  124. ^ «Предупреждая об опасности ИИ, пионер Джеффри Хинтон покидает Google, чтобы говорить свободно» . www.arstechnica.com . 2023 . Проверено 23 июля 2023 г.
  125. ^ ab «Но что будет означать для меня конец человечества?». Атлантический океан . 9 мая 2014 года. Архивировано из оригинала 4 июня 2014 года . Проверено 12 декабря 2015 г.
  126. Андерсен, Курт (26 ноября 2014 г.). «Энтузиасты и скептики спорят об искусственном интеллекте». Ярмарка Тщеславия . Архивировано из оригинала 8 августа 2019 года . Проверено 20 апреля 2020 г.
  127. Брукс, Родни (10 ноября 2014 г.). «искусственный интеллект — это инструмент, а не угроза». Архивировано из оригинала 12 ноября 2014 года.
  128. Гарлинг, Калеб (5 мая 2015 г.). «Эндрю Нг: Почему «глубокое обучение» является обязательным для людей, а не только для машин». Проводной . Проверено 31 марта 2023 г.
  129. ^ «Действительно ли искусственный интеллект представляет экзистенциальную угрозу человечеству?». МамбаПочта . 4 апреля 2023 г.
  130. ^ «Дело против роботов-убийц от парня, который действительно работает над искусственным интеллектом» . Fusion.net . Архивировано из оригинала 4 февраля 2016 года . Проверено 31 января 2016 г.
  131. ^ «Эксперты по искусственному интеллекту бросают вызов повествованию о «обреченности», включая заявления о «риске вымирания»» . ВенчурБит . 31 мая 2023 г. Проверено 8 июля 2023 г.
  132. Колдьюи, Девин (1 апреля 2023 г.). «Специалисты по этике отвечают на письмо «AI Pause», которое, по их словам, «игнорирует реальный вред»». ТехКранч . Проверено 23 июля 2023 г.
  133. ^ «DAIR (Научно-исследовательский институт распределенного искусственного интеллекта)» . Институт ДАИР . Проверено 23 июля 2023 г.
  134. Келли, Кевин (25 апреля 2017 г.). «Миф о сверхчеловеческом искусственном интеллекте». Проводной . Архивировано из оригинала 26 декабря 2021 года . Проверено 19 февраля 2022 г.
  135. Джиндал, Сиддхарт (7 июля 2023 г.). «Стремление OpenAI к согласованию ИИ является надуманным». Журнал Analytics India . Проверено 23 июля 2023 г.
  136. ^ «Марк Цукерберг отвечает на паранойю Илона Маска по поводу ИИ:« ИИ собирается... помочь обеспечить безопасность наших сообществ.'» Бизнес-инсайдер . 25 мая 2018 года. Архивировано из оригинала 6 мая 2019 года . Проверено 6 мая 2019 г.
  137. ^ Эллиотт, EW (2011). «Физика будущего: как наука будет определять человеческую судьбу и нашу повседневную жизнь к 2100 году», Мичио Каку. Проблемы науки и техники . 27 (4): 90.
  138. ^ Каку, Мичио (2011). Физика будущего: как наука будет определять судьбу человечества и нашу повседневную жизнь к 2100 году . Нью-Йорк: Даблдей. ISBN 978-0-385-53080-4. Я лично считаю, что наиболее вероятным путем будет создание роботов, которые будут доброжелательными и дружелюбными.
  139. ^ Дадич, Скотт. «Барак Обама рассказывает об искусственном интеллекте, роботизированных автомобилях и будущем мира». ПРОВОДНОЙ . Архивировано из оригинала 3 декабря 2017 года . Проверено 27 ноября 2017 г.
  140. ^ Кирхер, Мэдисон Мэлоун. «Обама о рисках искусственного интеллекта: «Вам просто нужен кто-то рядом с шнуром питания»». Выбрать все . Архивировано из оригинала 1 декабря 2017 года . Проверено 27 ноября 2017 г.
  141. ^ Клинтон, Хиллари (2017). Что случилось . Саймон и Шустер. п. 241. ИСБН 978-1-5011-7556-5.через [1] Архивировано 1 декабря 2017 г. на Wayback Machine.
  142. ^ ЛИППЕНС, РОННИ (2002). «Представления о мире: научные идеи мира в книге Иэна М. Бэнкса «Игрок в игры». Утопические исследования. Утопические исследования . 13 (1): 135–147. ISSN  1045-991X. OCLC  5542757341.
  143. ^ «Илон Маск говорит, что ИИ может обречь человеческую цивилизацию на гибель. Цукерберг не согласен. Кто прав?». 5 января 2023 года. Архивировано из оригинала 8 января 2018 года . Проверено 8 января 2018 г.
  144. ^ «Судный день ИИ беспокоит многих американцев. Так же, как и апокалипсис из-за изменения климата, ядерного оружия, войны и многого другого» . 14 апреля 2023 года. Архивировано из оригинала 23 июня 2023 года . Проверено 9 июля 2023 г.
  145. ^ Тайсон, Алек; Кикучи, Эмма. «Растущая обеспокоенность общественности по поводу роли искусственного интеллекта в повседневной жизни». Исследовательский центр Пью . Проверено 17 сентября 2023 г.
  146. ^ Кай Сотала; Роман Ямпольский (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1).
  147. ^ Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  148. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S. дои : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949. S2CID  4749656.
  149. ^ Рамамурти, Ананд; Ямпольский, Роман (2018). «За пределами MAD? Гонка за искусственным интеллектом». Открытия ИКТ . МСЭ. 1 (Специальный выпуск 1): 1–8. Архивировано из оригинала 7 января 2022 года . Проверено 7 января 2022 г.
  150. ^ Караяннис, Элиас Г.; Дрейпер, Джон (11 января 2022 г.). «Оптимизация мира посредством Всеобщего глобального мирного договора, чтобы ограничить риск войны со стороны военизированного искусственного сверхинтеллекта». ИИ и общество : 1–14. doi : 10.1007/s00146-021-01382-y. ISSN  0951-5666. ПМЦ 8748529 . PMID  35035113. S2CID  245877737. 
  151. ^ Караяннис, Элиас Г.; Дрейпер, Джон (30 мая 2023 г.), «Проблема современной кибервойны и место кибермира», The Elgar Companion to Digital Transformation, Artificial Intelligence and Innovation in the Economic, Society and Democracy , Edward Elgar Publishing, стр. 32–80. , doi : 10.4337/9781839109362.00008, ISBN 978-1-83910-936-2, получено 8 июня 2023 г.
  152. Винсент, Джеймс (22 июня 2016 г.). «Исследователи Google в области искусственного интеллекта говорят, что это пять ключевых проблем безопасности роботов». Грань . Архивировано из оригинала 24 декабря 2019 года . Проверено 5 апреля 2020 г.
  153. ^ Амодей, Дарио, Крис Ола, Джейкоб Стейнхардт, Пол Кристиано, Джон Шульман и Дэн Мане. «Конкретные проблемы безопасности ИИ». Препринт arXiv arXiv:1606.06565 (2016).
  154. ^ Джонсон, Алекс (2019). «Илон Маск хочет подключить ваш мозг напрямую к компьютерам — начиная со следующего года». Новости Эн-Би-Си . Архивировано из оригинала 18 апреля 2020 года . Проверено 5 апреля 2020 г.
  155. Торрес, Фил (18 сентября 2018 г.). «Только радикальное развитие человечества может спасти нас всех». Журнал «Сланец» . Архивировано из оригинала 6 августа 2020 года . Проверено 5 апреля 2020 г.
  156. ^ Барретт, Энтони М.; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного сверхразума для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . дои : 10.1080/0952813X.2016.1186228. S2CID  928824.
  157. Пайпер, Келси (29 марта 2023 г.). «Как проверить, что модель ИИ может — и не должна — делать». Вокс . Проверено 28 июля 2023 г.
  158. Писинг, Марк (17 мая 2012 г.). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены». Проводной . Архивировано из оригинала 7 апреля 2014 года . Проверено 12 декабря 2015 г.
  159. Кофлан, Шон (24 апреля 2013 г.). «Как люди вымрут?». Новости BBC . Архивировано из оригинала 9 марта 2014 года . Проверено 29 марта 2014 г.
  160. Бридж, Марк (10 июня 2017 г.). «Снижение уверенности роботов может помешать им взять верх». Времена . Архивировано из оригинала 21 марта 2018 года . Проверено 21 марта 2018 г.
  161. ^ Макгиннис, Джон (лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета . 104 (3): 1253–1270. Архивировано из оригинала 15 февраля 2016 года . Проверено 16 июля 2014 г. По всем этим причинам проверка глобального договора об отказе от обязательств или даже договора, ограничивающегося разработкой оружия, связанного с искусственным интеллектом, не является началом... (По причинам, отличным от наших, Научно-исследовательский институт машинного интеллекта) считает (AGI) отказ невозможным...
  162. ^ Кай Сотала; Роман Ямпольский (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1). В целом большинство авторов отвергают предложения о широком отказе... Предложения об отказе страдают от многих из тех же проблем, что и предложения по регулированию, но в большей степени. Не существует исторического прецедента успешного отказа от общей многоцелевой технологии, подобной ОИИ, и, похоже, нет никаких теоретических оснований полагать, что предложения об отказе будут работать в будущем. Поэтому мы не считаем их жизнеспособным классом предложений.
  163. Алленби, Брэд (11 апреля 2016 г.). «Неправильный когнитивный измеритель». Сланец . Архивировано из оригинала 15 мая 2016 года . Проверено 15 мая 2016 г. Было бы фантазией предполагать, что ускоряющееся развитие и внедрение технологий, которые в совокупности считаются искусственным интеллектом, будет остановлено или ограничено либо регулированием, либо даже национальным законодательством.
  164. ^ аб Ямпольский, Роман В. (2022). «Скептицизм рисков искусственного интеллекта». В Мюллере, Винсент К. (ред.). Философия и теория искусственного интеллекта 2021 . Исследования в области прикладной философии, эпистемологии и рациональной этики. Том. 63. Чам: Международное издательство Springer. стр. 225–248. дои : 10.1007/978-3-031-09153-7_18. ISBN 978-3-031-09153-7.
  165. ^ Макгиннис, Джон (лето 2010 г.). «Ускорение ИИ». Обзор права Северо-Западного университета . 104 (3): 1253–1270. Архивировано из оригинала 15 февраля 2016 года . Проверено 16 июля 2014 г.
  166. ^ «Почему мы должны думать об угрозе искусственного интеллекта». Житель Нью-Йорка . 4 октября 2013 года. Архивировано из оригинала 4 февраля 2016 года . Проверено 7 февраля 2016 г. Конечно, можно попытаться вообще запретить сверхразумные компьютеры. Но «конкурентное преимущество — экономическое, военное, даже художественное — каждого достижения в области автоматизации настолько убедительно», — писал Вернор Виндж , математик и писатель-фантаст, — «что принятие законов или обычаев, запрещающих такие вещи, просто уверяет, что это сделает кто-то другой».
  167. Баум, Сет (22 августа 2018 г.). «Суперинтеллектный скептицизм как политический инструмент». Информация . 9 (9): 209. дои : 10.3390/info9090209 . ISSN  2078-2489.
  168. ^ «Илон Маск и другие технологические лидеры призывают к паузе в «вышедшей из-под контроля» гонке ИИ» . CNN . 29 марта 2023 г. Проверено 30 марта 2023 г.
  169. ^ «Открытое письмо с призывом к« паузе »ИИ проливает свет на ожесточенные дебаты о рисках и шумихе» . ВенчурБит . 29 марта 2023 г. Проверено 20 июля 2023 г.
  170. Винсент, Джеймс (14 апреля 2023 г.). «Генеральный директор OpenAI подтверждает, что компания не занимается обучением GPT-5 и «не будет это делать в течение некоторого времени»». Грань . Проверено 20 июля 2023 г.
  171. ^ «Открытое письмо об искусственном интеллекте не заходит достаточно далеко» . Время . 29 марта 2023 г. Проверено 20 июля 2023 г.
  172. Домоноске, Камила (17 июля 2017 г.). «Илон Маск предупреждает губернаторов: искусственный интеллект представляет «экзистенциальный риск»». ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Архивировано из оригинала 23 апреля 2020 года . Проверено 27 ноября 2017 г.
  173. Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с «экзистенциальной угрозой», пока не стало слишком поздно». Хранитель . Архивировано из оригинала 6 июня 2020 года . Проверено 27 ноября 2017 г.
  174. Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и регулировать его еще слишком рано, — говорит генеральный директор Intel Брайан Кржанич». CNBC . Архивировано из оригинала 22 марта 2020 года . Проверено 27 ноября 2017 г.
  175. Дауэс, Джеймс (20 декабря 2021 г.). «ООН не может договориться о запрете «роботов-убийц», поскольку страны тратят миллиарды на исследования автономного оружия». Разговор . Проверено 28 июля 2023 г.
  176. ↑ аб Фассихи, Фарназ (18 июля 2023 г.). «Чиновники ООН призывают к регулированию искусственного интеллекта». Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 20 июля 2023 г.
  177. ^ «Международное сообщество должно срочно противостоять новой реальности генеративного искусственного интеллекта, подчеркивают спикеры, пока Совет Безопасности обсуждает риски и награды» . Объединенные Нации . Проверено 20 июля 2023 г.
  178. ^ Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Реакция на катастрофический риск AGI: опрос». Физика Скрипта . 90 (1): 018001. Бибкод : 2015PhyS...90a8001S. дои : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  179. ^ Гейст, Эдвард Мур (15 августа 2016 г.). «Уже слишком поздно останавливать гонку вооружений ИИ. Вместо этого мы должны ею управлять». Бюллетень ученых-атомщиков . 72 (5): 318–321. Бибкод : 2016BuAtS..72e.318G. дои : 10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  180. ^ «Amazon, Google, Meta, Microsoft и другие технологические компании соглашаются с гарантиями искусственного интеллекта, установленными Белым домом» . АП Новости . 21 июля 2023 г. Проверено 21 июля 2023 г.
  181. ^ «Amazon, Google, Meta, Microsoft и другие фирмы соглашаются на защиту ИИ» . Рекламодатель Реддича . 21 июля 2023 г. Проверено 21 июля 2023 г.
  182. House, The White (30 октября 2023 г.). «Указ о безопасной, надежной и надежной разработке и использовании искусственного интеллекта». Белый дом . Проверено 19 декабря 2023 г.

Библиография