stringtranslate.com

Сценарии последствий ИИ

Некоторые ученые полагают, что достижения в области искусственного интеллекта , или ИИ, в конечном итоге приведут к полуапокалиптической постдефицитной и посттрудовой экономике, где интеллектуальные машины смогут превзойти людей почти в каждой, если не в каждой, области . [1] Вопросы о том, как может выглядеть такой мир, и являются ли конкретные сценарии утопиями или антиутопиями , являются предметом активных дискуссий. [2]

Фон

Большинство ученых полагают, что исследования ИИ в какой-то момент приведут к созданию машин, которые будут столь же разумны или более разумны, чем люди, во всех областях интересов. [3] Нет физического закона, который бы запрещал частицам организовываться таким образом, чтобы выполнять даже более сложные вычисления, чем расположение частиц в человеческом мозге; поэтому сверхразум физически возможен. [4] [5] В дополнение к потенциальным алгоритмическим улучшениям по сравнению с человеческим мозгом, цифровой мозг может быть на много порядков больше и быстрее человеческого мозга, который был ограничен в размерах эволюцией, чтобы быть достаточно малым, чтобы пройти через родовые пути. [6] Хотя нет единого мнения о том, когда искусственный интеллект превзойдет людей, многие ученые утверждают, что когда бы это ни произошло, появление на планете второго вида разумной жизни будет иметь далеко идущие последствия. [4] [7] Ученые часто не соглашаются друг с другом как о том, какие типы сценариев после ИИ наиболее вероятны , так и о том, какие типы сценариев после ИИ были бы наиболее желательными . Наконец, некоторые несогласные утверждают, что ИИ никогда не станет таким же разумным, как люди, например, потому что человеческая раса, скорее всего, уже уничтожит себя до того, как исследования успеют продвинуться достаточно далеко, чтобы создать искусственный интеллект. [8]

Постулаты: роботизированный труд и постдефицитная экономика

Все следующие «сценарии последствий ИИ» последствий произвольно-продвинутой разработки ИИ в решающей степени зависят от двух переплетенных тезисов. Первый тезис заключается в том, что в какой-то момент в будущем некий экономический рост будет продолжаться до тех пор, пока не будет достигнута экономика «постдефицита», которая могла бы, если только она не будет чрезвычайно гиперконцентрированной, без усилий обеспечить чрезвычайно комфортный уровень жизни для населения, равного или, в разумных пределах, превышающего нынешнее человеческое население, даже не требуя от основной части населения участия в рабочей силе . Этот экономический рост может быть достигнут за счет продолжения существующих тенденций роста и совершенствования существующих технологий или за счет будущих прорывов в новых технологиях, таких как нанотехнологии и автоматизация посредством робототехники и футуристического передового искусственного интеллекта. Второй тезис заключается в том, что достижения в области искусственного интеллекта сделают людей ненужными для функционирования экономики: человеческий труд снизится в относительной экономической ценности, если роботов будет легче производить массово, чем людей, они будут более настраиваемыми, чем люди, и если они станут более умными и способными, чем люди. [8] [9] [10]

Космический дар и пределы роста

Вселенная может быть пространственно бесконечной; однако, доступная Вселенная ограничена космологическим горизонтом событий около 16 миллиардов световых лет. [11] [12] Некоторые физики считают правдоподобным, что ближайшая инопланетная цивилизация может быть расположена на расстоянии более 16 миллиардов световых лет; [13] [14] в этом лучшем сценарии расширения человеческая раса могла бы в конечном итоге, колонизировав значительную часть доступной Вселенной, увеличить доступную биосферу, возможно, на 32 порядка. [15] В двадцатом веке произошел частичный « демографический переход » к более низким показателям рождаемости, связанным с более богатыми обществами; [16] однако, в очень долгосрочной перспективе, межпоколенческие корреляции рождаемости (будь то из-за естественного отбора или из-за культурной передачи норм большой семьи от родителей к детям), как прогнозируется, приведут к увеличению рождаемости с течением времени, при отсутствии либо обязательного контроля рождаемости, либо периодических мальтузианских катастроф . [17] [18]

Сценарии

Либертарианство

Либертарианские сценарии постулируют, что интеллектуальные машины, загруженные люди, киборги и неулучшенные люди будут мирно сосуществовать в рамках, ориентированных на уважение прав собственности. Поскольку производительность промышленности больше не ограничивается дефицитным человеческим трудом, стоимость земли резко возрастает по сравнению с ценой товаров; даже оставшиеся « луддиты »-люди, которые владели или унаследовали землю, должны иметь возможность продать или сдать в аренду небольшой ее участок более производительным роботам в обмен на постоянную ренту, достаточную для того, чтобы легко и бесконечно удовлетворять все их основные финансовые потребности. [8] Такие люди могут жить столько, сколько захотят, и вольны заниматься практически любой деятельностью, которую только могут себе представить, для удовольствия или для самореализации, без финансовых проблем. Передовые технологии открывают совершенно новые способы мышления и опыта, тем самым пополняя палитру возможных чувств. Люди в будущем могут даже испытывать бесконечные «градиенты блаженства». [19]

Эволюция движется к большей сложности, большей элегантности, большему знанию, большему интеллекту, большей красоте, большему творчеству и большим уровням тонких атрибутов, таких как любовь. В каждой монотеистической традиции Бог также описывается как все эти качества, только без каких-либо ограничений: бесконечное знание, бесконечный интеллект, бесконечная красота, бесконечное творчество, бесконечная любовь и так далее. Конечно, даже ускоряющийся рост эволюции никогда не достигает бесконечного уровня, но поскольку он взрывается экспоненциально, он, безусловно, быстро движется в этом направлении. Так что эволюция неумолимо движется к этой концепции Бога, хотя никогда не достигает этого идеала. Поэтому мы можем считать освобождение нашего мышления от строгих ограничений его биологической формы по сути духовным начинанием. [19] [20]

Такие децентрализованные сценарии могут быть нестабильными в долгосрочной перспективе, поскольку самые жадные элементы сверхразумных классов будут иметь как средства, так и мотив узурпировать собственность неулучшенных классов. Даже если механизмы обеспечения законных прав собственности являются нерушимыми и не имеют лазеек, все еще может существовать постоянная опасность того, что люди и киборги будут «обмануты» самыми умными из сверхразумных машин, невольно передавая свою собственность. Страдания могут быть широко распространены, поскольку разумные существа без собственности могут умереть, и никакой механизм не мешает существу воспроизводиться до пределов его собственных наследуемых ресурсов, в результате чего множество потомков этого существа будут с трудом сводить концы с концами, еле сводя концы с концами. [8] [10] [21]

Представьте себе бег на беговой дорожке под крутым уклоном — сердце колотится, мышцы болят, легкие задыхаются. Взгляд на таймер: ваш следующий перерыв, который также станет вашей смертью, наступит через 49 лет, 3 месяца, 20 дней, 4 часа, 56 минут и 12 секунд. Вы пожалеете, что родились. [9]

Коммунизм

Рэй Курцвейл утверждает, что цели коммунизма будут достигнуты благодаря передовым технологическим разработкам в 21 веке, где пересечение низких производственных затрат, материального изобилия и философии открытого исходного кода в программном обеспечении и оборудовании позволит реализовать принцип « от каждого по способностям, каждому по потребностям ». [22]

Доброжелательный диктатор

В этом районе сюрреалистично парит пышный остров
Утопия arche04 , 2010

В этом сценарии постулируйте, что сверхразумный искусственный интеллект берет под контроль общество, но действует благотворным образом. Его программисты, несмотря на то, что были в сжатые сроки, решили квазифилософские проблемы, которые некоторым казались неразрешимыми, и создали ИИ со следующей целью: использовать свой сверхразум, чтобы выяснить, как выглядит человеческая утопия, проанализировав человеческое поведение, человеческий мозг и человеческие гены; а затем реализовать эту утопию. ИИ приходит к тонкому и сложному определению человеческого процветания. Ценя разнообразие и признавая, что у разных людей разные предпочтения, ИИ делит Землю на разные сектора. Нанесение вреда другим, создание оружия, уклонение от наблюдения или попытка создать конкурирующий сверхразум запрещены во всем мире; кроме этого, каждый сектор волен устанавливать свои собственные законы; например, религиозный человек может выбрать жизнь в «благочестивом секторе», соответствующем его религии, где строго соблюдаются соответствующие религиозные правила. Во всех секторах были устранены болезни, бедность, преступность, похмелье, наркомания и все другие невольные страдания. Многие сектора могут похвастаться передовой архитектурой и зрелищами, которые «заставляют типичные научно-фантастические видения бледнеть в сравнении с ними». [8] Жизнь — это «всеохватывающий круиз удовольствия», [8] как будто это «Рождество 365 дней в году». [23]

Проведя интенсивную неделю в секторе знаний, изучая основные законы физики, открытые искусственным интеллектом, вы можете решить на выходных отвлечься в гедонистическом секторе, а затем расслабиться на несколько дней на пляжном курорте в секторе дикой природы. [8]

Тем не менее, многие люди недовольны, пишет Тегмарк. У людей нет свободы в формировании своей коллективной судьбы. Некоторые хотят свободы иметь столько детей, сколько хотят. Другие возмущаются наблюдением со стороны ИИ или раздражаются из-за запретов на оружие и создание дальнейших машин сверхразума. Другие могут пожалеть о сделанном выборе или обнаружить, что их жизнь кажется пустой и поверхностной. [8]

Бостром утверждает, что кодекс этики ИИ в идеале должен в определенных отношениях улучшить текущие нормы морального поведения, так же, как мы считаем, что современная мораль превосходит мораль ранних эпох рабства. Напротив, Эрнест Дэвис из Нью-Йоркского университета считает такой подход слишком опасным, заявляя: «Я чувствую себя в большей безопасности в руках сверхразума, который руководствуется моралью 2014 года или, если на то пошло, моралью 1700 года, чем в руках того, кто решает рассмотреть этот вопрос самостоятельно». [24]

Искусственный интеллект привратника

В сценариях ИИ «Привратник» ИИ может действовать, чтобы предотвратить создание конкурирующих сверхразумов, но в остальном ошибается в сторону того, чтобы позволить людям создавать свою собственную судьбу. [8] Бен Герцель из OpenCog отстаивал сценарий «Нянька ИИ», в котором ИИ дополнительно берет на себя некоторую ответственность за предотвращение самоуничтожения людей, например, замедляя технический прогресс, чтобы дать обществу время для более вдумчивого и обдуманного развития. [8] [25] В третьем сценарии сверхразумный ИИ «Защитник» дает людям иллюзию контроля, скрывая или стирая все знания о своем существовании, но работает за кулисами, чтобы гарантировать положительные результаты. Во всех трех сценариях, хотя человечество получает больше контроля (или, по крайней мере, иллюзию контроля), человечество в конечном итоге прогрессирует медленнее, чем если бы ИИ был неограничен в своей готовности обрушить все преимущества и непреднамеренные последствия своих передовых технологий на человеческую расу. [8]

Коробочный ИИ

Пандора пытается закрыть ящик
Ящик Пандоры
(гравюра XIX века)

Люди спрашивают, каковы отношения между людьми и машинами, и мой ответ таков: они совершенно очевидны: машины — наши рабы. [26]

—  Том Диттерих , президент AAAI

Сценарий ящика ИИ постулирует, что сверхразумный ИИ может быть «заключен в ящик», а его действия могут быть ограничены людьми-привратниками; люди, отвечающие за это, попытаются воспользоваться некоторыми научными прорывами ИИ или способностями к рассуждению, не позволяя ИИ захватить мир. Успешное привратничество может быть сложным; чем умнее ИИ, тем больше вероятность, что ИИ сможет найти хитрый способ использовать « социальный взлом » и убедить привратников позволить ему сбежать или даже найти непредвиденный физический способ побега. [27] [28]

Слияние человека и искусственного интеллекта

Курцвейл утверждает, что в будущем «не будет никакого различия, после сингулярности, между человеком и машиной или между физической и виртуальной реальностью» [29] .

Вымирание человечества

Если бы доминирующая сверхразумная машина пришла к выводу, что выживание человека — это ненужный риск или пустая трата ресурсов, результатом стало бы вымирание человечества . Это могло бы произойти, если бы машина, запрограммированная без уважения к человеческим ценностям, неожиданно приобрела сверхразум посредством рекурсивного самосовершенствования или сумела бы вырваться из своего заключения в сценарии AI Box. Это также могло бы произойти, если бы первый сверхразумный ИИ был запрограммирован с неполным или неточным пониманием человеческих ценностей, либо потому, что задача привить ИИ человеческие ценности была слишком сложной или невозможной; из-за ошибочной первоначальной реализации ИИ; или из-за ошибок, случайно внесенных либо его программистами-людьми, либо самим самосовершенствующимся ИИ в ходе совершенствования своей кодовой базы. Бостром и другие утверждают, что вымирание человечества, вероятно, является «путем по умолчанию», по которому в настоящее время идет общество, при отсутствии существенного подготовительного внимания к безопасности ИИ. Полученный ИИ может не быть разумным и может не придавать никакой ценности разумной жизни; Получившийся в результате пустой мир, лишенный жизни, может быть похож на «Диснейленд без детей». [9]

Зоопарк

Джерри Каплан , автор книги « Люди не нуждаются в применении: руководство по богатству и работе в эпоху искусственного интеллекта» , предлагает сценарий, в котором людей разводят или содержат в заповеднике, точно так же, как люди сохраняют исчезающие виды, такие как шимпанзе. [30] Соучредитель Apple и скептик в отношении искусственного интеллекта Стив Возняк заявил в 2015 году, что захват роботами на самом деле «будет полезен для человеческой расы», поскольку он считает, что люди станут избалованными питомцами роботов. [31]

Альтернативы ИИ

Некоторые ученые сомневаются, что «переломные» сверхразумные машины когда-либо появятся. Гордон Белл из Microsoft Research заявил, что «популяция уничтожит себя до наступления технологической сингулярности ». Гордон Мур , первооткрыватель одноименного закона Мура , заявил: «Я скептик. Я не верю, что подобное может произойти, по крайней мере, в течение долгого времени. И я не знаю, почему я так считаю». Эволюционный психолог Стивен Пинкер заявил: «Тот факт, что вы можете визуализировать будущее в своем воображении, не является доказательством того, что это вероятно или даже возможно». [32]

Билл Джой из Sun Microsystems в своем эссе от апреля 2000 года «Почему будущее не нуждается в нас » выступил за всеобщий «добровольный отказ» от общего искусственного интеллекта и других рискованных технологий. [33] [34] Большинство экспертов считают, что отказ крайне маловероятен. Скептик ИИ Орен Этциони заявил, что у исследователей и ученых нет иного выбора, кроме как продвигать разработки ИИ: «Китай говорит, что хочет быть лидером в области ИИ, Путин сказал то же самое. Так что глобальная гонка началась». [35]

Ссылки

  1. ^ "Человечество должно опасаться достижений искусственного интеллекта". Debating Matters . Получено 2023-01-14 .
  2. ^ «Дебаты о разумном ИИ Google затмевают более насущные проблемы, такие как предрассудки». South China Morning Post . 2022-06-15 . Получено 2023-01-14 .
  3. ^ Мюллер, Винсент С. и Ник Бостром. «Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов». Фундаментальные вопросы искусственного интеллекта. Springer International Publishing, 2016. 553-570.
  4. ^ ab "Стивен Хокинг: «Трансцендентность» рассматривает последствия искусственного интеллекта, но достаточно ли мы серьезно относимся к ИИ?" . The Independent (Великобритания) . Архивировано из оригинала 2014-05-02 . Получено 4 декабря 2017 г. .
  5. ^ "Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству". BBC . 2 декабря 2014 г. Получено 4 декабря 2017 г.
  6. ^ Грейвс, Мэтью (8 ноября 2017 г.). «Почему нас должен беспокоить искусственный суперинтеллект». Skeptic (журнал США) . Том 22, № 2. Получено 4 декабря 2017 г.
  7. ^ "Clever cogs". The Economist . 9 августа 2014 г. Получено 4 декабря 2017 г.
  8. ^ abcdefghijk Тегмарк, Макс (2017). "Глава 5: Последствия: Следующие 10 000 лет". Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта (первое издание). Нью-Йорк: Knopf. ISBN 9781101946596. OCLC  973137375.
  9. ^ abc Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии . Oxford University Press.
  10. ^ ab Робин Хэнсон (2016). Эпоха Эм: работа, любовь и жизнь, когда роботы правят Землей . Oxford University Press .
  11. ^ Чиркович, Милан М. «Прогноз на следующую эпоху: прикладная космология и долгосрочная судьба разумных существ». Основы физики 34.2 (2004): 239-261.
  12. ^ Олсон, С. Джей. «Однородная космология с агрессивно расширяющимися цивилизациями». Classical and Quantum Gravity 32.21 (2015): 215025.
  13. ^ Тегмарк, Макс. «Наша математическая вселенная». Allen Lane-Penguin Books, Лондон (2014).
  14. ^ Джон Гриббин . Один во Вселенной . Нью-Йорк, Wiley, 2011.
  15. ^ Рассел, Стюарт (30 августа 2017 г.). «Искусственный интеллект: будущее сверхразумно». Nature . 548 (7669): 520–521. Bibcode :2017Natur.548..520R. doi : 10.1038/548520a .
  16. ^ Myrskylä, Mikko; Kohler, Hans-Peter; Billari, Francesco C. (6 августа 2009 г.). «Достижения в развитии обращают вспять снижение рождаемости». Nature . 460 (7256): 741–743. Bibcode :2009Natur.460..741M. doi :10.1038/nature08230. PMID  19661915. S2CID  4381880.
  17. ^ Колк, М.; Коунден, Д.; Энквист, М. (29 января 2014 г.). «Корреляции в рождаемости между поколениями: может ли низкая рождаемость сохраняться?». Труды Королевского общества B: Биологические науки . 281 (1779): 20132561. doi :10.1098/rspb.2013.2561. PMC 3924067. PMID  24478294 . 
  18. ^ Бергер, Оскар; ДеЛонг, Джон П. (28 марта 2016 г.). «Что, если снижение рождаемости не является постоянным? Необходимость эволюционно обоснованного подхода к пониманию низкой рождаемости». Philosophical Transactions of the Royal Society B: Biological Sciences . 371 (1692): 20150157. doi :10.1098/rstb.2015.0157. PMC 4822437 . PMID  27022084. 
  19. ^ ab Jordan, Gregory E (2006). «Апология трансгуманистической религии». Журнал эволюции и технологий . 15 (1): 55–72.
  20. ^ Курцвейл, Рэй. Сингулярность близка . Gerald Duckworth & Co, 2010.
  21. ^ Пул, Стивен (15 июня 2016 г.). «Обзор Age of Em – ужасное будущее, когда роботы правят Землей». The Guardian . Получено 4 декабря 2017 г.
  22. Рэй Курцвейл (1 февраля 2012 г.). Курцвейл: Технологии достигнут целей коммунизма. FORA TV.
  23. ^ «Искусственный интеллект: можем ли мы его контролировать?». Financial Times . 14 июня 2016 г. Получено 4 декабря 2017 г.
  24. ^ Дэвис, Эрнест (март 2015 г.). «Этические принципы для сверхразума». Искусственный интеллект . 220 : 121–124. doi : 10.1016/j.artint.2014.12.003 .
  25. ^ Герцель, Бен. «Следует ли человечеству создать глобальную няньку ИИ, чтобы отсрочить сингулярность, пока она не будет лучше понята?». Журнал исследований сознания . 19 (1–2): 96–111.
  26. ^ «По мере взросления робота Ватсона из Jeopardy! Насколько мы должны его бояться?». Нью-Йорк . 20 мая 2015 г. Получено 4 декабря 2017 г.
  27. ^ «Управляйте опасным ИИ, прежде чем он начнет управлять нами, говорит один эксперт». NBC News . 1 марта 2012 г. Получено 4 декабря 2017 г.
  28. ^ Виндж, Вернор (1993). «Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху». Vision-21: Междисциплинарная наука и инженерия в эпоху киберпространства : 11–22. Bibcode :1993vise.nasa...11V. Я утверждаю, что ограничение по своей сути непрактично. В случае физического ограничения: представьте себя ограниченным в своем доме с ограниченным доступом к данным извне, к вашим хозяевам. Если бы эти хозяева думали со скоростью — скажем — в миллион раз медленнее, чем вы, нет никаких сомнений, что за годы (ваше время) вы могли бы придумать «полезный совет», который, между прочим, освободил бы вас.
  29. ^ «Ученые: в будущем люди и машины сольются». www.cnn.com . 15 июля 2008 г. Получено 4 декабря 2017 г.
  30. Уэйкфилд, Джейн (28 сентября 2015 г.). «Нам действительно нужно бояться ИИ?». BBC News . Получено 4 декабря 2017 г.
  31. ^ Гиббс, Сэмюэл (25 июня 2015 г.). «Соучредитель Apple Стив Возняк говорит, что люди будут домашними животными роботов». The Guardian . Получено 7 января 2018 г. .
  32. ^ "Tech Luminaries Address Singularity". IEEE Spectrum: Technology, Engineering, and Science News . 1 июня 2008 г. Получено 4 декабря 2017 г.
  33. ^ «Почему будущее не нуждается в нас». WIRED . 1 апреля 2000 г. Получено 4 декабря 2017 г.
  34. ^ "Коврик для мыши, который ревел". SFGate . 14 марта 2000 г. Получено 4 декабря 2017 г.
  35. ^ «Илон Маск говорит, что ИИ может погубить человеческую цивилизацию. Цукерберг не согласен. Кто прав?». USA TODAY . 2 января 2018 г. Получено 8 января 2018 г.

Смотрите также