stringtranslate.com

Суперинтеллект: пути, опасности, стратегии

«Суперинтеллект: пути, опасности, стратегии» — книга философа Ника Бострома, вышедшая в 2014 году . В нем исследуется, какможно создать сверхинтеллект , каковы могут быть его особенности и мотивы. [2] В нем утверждается, что сверхразум, если он будет создан, будет трудно контролировать и что он сможет захватить мир для достижения своих целей. В книге также представлены стратегии, которые помогут создать сверхразумы, чьи цели принесут пользу человечеству. [3] Это особенно повлияло на то, что подняло обеспокоенность по поводу экзистенциального риска, исходящего от искусственного интеллекта . [4]

Краткое содержание

Неизвестно, появится ли искусственный интеллект человеческого уровня через несколько лет, позднее в этом столетии, или только в будущих столетиях. Независимо от первоначальных сроков, как только будет разработан машинный интеллект человеческого уровня, «сверхразумная» система, которая «значительно превосходит когнитивные способности человека практически во всех областях интересов», скорее всего, появится на удивление быстро. Таким сверхразумом будет очень трудно управлять.

Хотя конечные цели сверхинтеллектов могут сильно различаться, функциональный сверхинтеллект будет спонтанно генерировать в качестве естественных подцелей « инструментальные цели », такие как самосохранение и целостность содержания целей, когнитивное развитие и приобретение ресурсов. Например, агент, единственной конечной целью которого является решение гипотезы Римана (известной нерешенной математической гипотезы ), может создать и действовать в соответствии с подцелью преобразования всей Земли в некую форму компьютрониума (гипотетического материала, оптимизированного для вычислений), чтобы помочь в расчет. Сверхразум будет активно сопротивляться любым внешним попыткам отключить сверхинтеллект или иным образом помешать достижению его подцели. Чтобы предотвратить такую ​​экзистенциальную катастрофу , необходимо успешно решить « проблему управления ИИ » для первого сверхразума. Решение может включать в себя внедрение сверхразума с целями, совместимыми с выживанием и благополучием человечества. Решить проблему управления на удивление сложно, поскольку большинство целей при переводе в машинно-реализуемый код приводит к непредвиденным и нежелательным последствиям.

Сова на обложке книги отсылает к аналогии, которую Бостром называет «Неоконченной басней о воробьях». [5] Группа воробьев решает найти птенца совы и вырастить его в качестве своего слуги. [6] Они с нетерпением представляют себе, «какой легкой была бы жизнь», если бы у них была сова, которая помогала бы им строить гнезда, защищать воробьев и освобождать их для досуговой жизни. Воробьи начинают трудные поиски совиного яйца; только «Скронкфинкль», «одноглазый воробей с капризным темпераментом», предлагает задуматься над сложным вопросом, как приручить сову, прежде чем привести ее «к нам». Остальные воробьи возражают; поиск яйца совы сам по себе уже будет достаточно трудным: «Почему бы сначала не найти сову, а потом проработать мелкие детали?» Бостром заявляет, что «неизвестно, чем закончится история», но свою книгу он посвящает Скронкфинклу. [5] [4]

Прием

Книга заняла 17-е место в списке самых продаваемых научных книг по версии The New York Times за август 2014 года . [7] В том же месяце бизнес-магнат Илон Маск попал в заголовки газет, согласившись с книгой, что искусственный интеллект потенциально более опасен, чем ядерное оружие . [8] [9] [10] Работа Бострома по сверхразуму также повлияла на обеспокоенность Билла Гейтса экзистенциальными рисками, с которыми человечество столкнется в следующем столетии. [11] [12] В интервью генеральному директору Baidu Робину Ли в марте 2015 года Гейтс сказал, что «очень рекомендует» Superintelligence . [13] По данным журнала New Yorker , философы Питер Сингер и Дерек Парфит «восприняли это как важную работу». [4] Сэм Альтман написал в 2015 году, что эта книга — лучшее, что он когда-либо читал о рисках ИИ. [14]

Научный редактор Financial Times обнаружил, что сочинение Бострома «иногда переходит в непрозрачный язык, который выдает его опыт профессора философии», но убедительно демонстрирует, что риск, связанный со сверхинтеллектом, достаточно велик, чтобы общество уже сейчас начало думать о способах наделения будущего машинным интеллектом. с положительными значениями. [15] В обзоре The Guardian отмечалось, что «даже самые сложные машины, созданные до сих пор, интеллектуальны лишь в ограниченном смысле» и что «ожидания того, что ИИ вскоре превзойдет человеческий интеллект, впервые оправдались в 1960-х годах», но обзор находит общий язык с Бостромом, говоря, что «было бы опрометчиво полностью отвергать такую ​​возможность». [3]

Некоторые коллеги Бострома предполагают, что ядерная война представляет собой большую угрозу человечеству, чем сверхинтеллект, равно как и будущая перспектива использования нанотехнологий и биотехнологий в качестве оружия . [3] The Economist заявил, что «Бостром вынужден потратить большую часть книги на обсуждение предположений, основанных на правдоподобных предположениях... но книга, тем не менее, ценна. Последствия появления на Земле второго разумного вида достаточно далеко идущие, чтобы заслужить усердно думать, даже если перспектива действительно сделать это кажется отдаленной». [2] Рональд Бэйли написал в либертарианской книге «Разум », что Бостром приводит веские аргументы в пользу того, что решение проблемы управления ИИ является «важнейшей задачей нашего века». [16] По словам Тома Чиверса из Daily Telegraph , книгу трудно читать, но, тем не менее, она полезна. [6] Рецензент журнала «Экспериментальный и теоретический искусственный интеллект» порвал с другими, заявив, что «стиль письма книги ясен», и похвалил книгу за то, что она избегает «чрезмерно технического жаргона». [17] Рецензент журнала «Философия» счел « Сверхинтеллект» «более реалистичным», чем книга Рэя Курцвейла « Сингулярность близка» . [18]

Смотрите также

Рекомендации

  1. ^ "Сверхумный швед схвачен ОУП" . Книготорговец . 21 ноября 2013 г.
  2. ^ ab "Умные винтики". Экономист . 9 августа 2014 года . Проверено 9 августа 2014 г.
  3. ^ abc Хендерсон, Каспар (17 июля 2014 г.). «Суперинтеллект Ника Бострома и «Трудная поездка в будущее» Джеймса Лавлока - обзор». Хранитель . Проверено 30 июля 2014 г.
  4. ^ abc Хачадурян, Раффи (2015). «Изобретение Судного дня». Житель Нью-Йорка . Проверено 29 марта 2020 г.
  5. ^ Аб Адамс, Тим (12 июня 2016 г.). «Ник Бостром: «Мы как маленькие дети, играющие с бомбой»». Наблюдатель . Проверено 29 марта 2020 г.
  6. ^ аб Чиверс, Том (10 августа 2014 г.). «Суперинтеллект Ника Бострома, обзор:« тяжелое чтение »». Телеграф . Проверено 16 августа 2014 г.
  7. ^ «Самые продаваемые научные книги». Нью-Йорк Таймс . 8 сентября 2014 года . Проверено 9 ноября 2014 г.
  8. Дин, Джеймс (5 августа 2014 г.). «Искусственный интеллект «может уничтожить человечество»». Времена . Проверено 5 августа 2014 г.
  9. ^ Аугенбраун, Элиена (4 августа 2014 г.). «Илон Маск написал в Твиттере, что искусственный интеллект может быть «более опасным, чем ядерное оружие»». Новости ЦБК . Проверено 5 августа 2014 г.
  10. Брэттон, Бенджамин Х. (23 февраля 2015 г.). «Выездной ИИ: за пределами теста Тьюринга». Нью-Йорк Таймс . Проверено 4 марта 2015 г.
  11. Мак, Эрик (28 января 2015 г.). «Билл Гейтс говорит, что вам следует беспокоиться об искусственном интеллекте». Форбс . Проверено 19 февраля 2015 г.
  12. Ламби, Эндрю (28 января 2015 г.). «Билл Гейтс обеспокоен появлением машин». Фискальный Таймс . Проверено 19 февраля 2015 г.
  13. Кайзер Куо (31 марта 2015 г.). «Генеральный директор Baidu Робин Ли берет интервью у Билла Гейтса и Илона Маска на форуме в Боао, 29 марта 2015 г.» . YouTube . Проверено 8 апреля 2015 г.
  14. ^ Блэк, Мелия Рассел, Джулия. «Он играл в шахматы с Питером Тилем, спарринговал с Илоном Маском и однажды, предположительно, остановил авиакатастрофу: в мире Сэма Альтмана, где правда страннее вымысла». Бизнес-инсайдер . Проверено 15 августа 2023 г.{{cite web}}: CS1 maint: несколько имен: список авторов ( ссылка )
  15. Куксон, Клайв (13 июля 2014 г.). «Суперинтеллект: пути, опасности, стратегии, Ник Бостром» . Файнэншл Таймс. Архивировано из оригинала 6 августа 2014 года . Проверено 30 июля 2014 г.
  16. Бэйли, Рональд (12 сентября 2014 г.). «Уничтожат ли сверхразумные машины человечество?». Причина . Проверено 16 сентября 2014 г.
  17. ^ Томас, Джоэл (июль 2015 г.). «В защиту философии: обзор Ника Бострома». Журнал экспериментального и теоретического искусственного интеллекта . 28 (6): 1089–1094. дои : 10.1080/0952813X.2015.1055829 .
  18. Ричмонд, Шелдон (8 июля 2015 г.). «Суперинтеллект: пути, опасности, стратегии». Философия . 91 (1): 125–130. дои : 10.1017/S0031819115000340. S2CID  171005535.