Некоторые ученые полагают, что достижения в области искусственного интеллекта , или ИИ, в конечном итоге приведут к полуапокалиптической постдефицитной и посттрудовой экономике, где интеллектуальные машины смогут превзойти людей почти в каждой, если не в каждой, области . [1] Вопросы о том, как может выглядеть такой мир, и являются ли конкретные сценарии утопиями или антиутопиями , являются предметом активных дискуссий. [2]
Большинство ученых полагают, что исследования ИИ в какой-то момент приведут к созданию машин, которые будут столь же разумны или более разумны, чем люди, во всех областях интересов. [3] Нет физического закона, который бы запрещал частицам организовываться таким образом, чтобы выполнять даже более сложные вычисления, чем расположение частиц в человеческом мозге; поэтому сверхразум физически возможен. [4] [5] В дополнение к потенциальным алгоритмическим улучшениям по сравнению с человеческим мозгом, цифровой мозг может быть на много порядков больше и быстрее человеческого мозга, который был ограничен в размерах эволюцией, чтобы быть достаточно малым, чтобы пройти через родовые пути. [6] Хотя нет единого мнения о том, когда искусственный интеллект превзойдет людей, многие ученые утверждают, что когда бы это ни произошло, появление на планете второго вида разумной жизни будет иметь далеко идущие последствия. [4] [7] Ученые часто не соглашаются друг с другом как о том, какие типы сценариев после ИИ наиболее вероятны , так и о том, какие типы сценариев после ИИ были бы наиболее желательными . Наконец, некоторые несогласные утверждают, что ИИ никогда не станет таким же разумным, как люди, например, потому что человеческая раса, скорее всего, уже уничтожит себя до того, как исследования успеют продвинуться достаточно далеко, чтобы создать искусственный интеллект. [8]
Все следующие «сценарии последствий ИИ» последствий произвольно-продвинутой разработки ИИ в решающей степени зависят от двух переплетенных тезисов. Первый тезис заключается в том, что в какой-то момент в будущем некий экономический рост будет продолжаться до тех пор, пока не будет достигнута экономика «постдефицита», которая могла бы, если только она не будет чрезвычайно гиперконцентрированной, без усилий обеспечить чрезвычайно комфортный уровень жизни для населения, равного или, в разумных пределах, превышающего нынешнее человеческое население, даже не требуя от основной части населения участия в рабочей силе . Этот экономический рост может быть достигнут за счет продолжения существующих тенденций роста и совершенствования существующих технологий или за счет будущих прорывов в новых технологиях, таких как нанотехнологии и автоматизация посредством робототехники и футуристического передового искусственного интеллекта. Второй тезис заключается в том, что достижения в области искусственного интеллекта сделают людей ненужными для функционирования экономики: человеческий труд снизится в относительной экономической ценности, если роботов будет легче производить массово, чем людей, они будут более настраиваемыми, чем люди, и если они станут более умными и способными, чем люди. [8] [9] [10]
Вселенная может быть пространственно бесконечной; однако, доступная Вселенная ограничена космологическим горизонтом событий около 16 миллиардов световых лет. [11] [12] Некоторые физики считают правдоподобным, что ближайшая инопланетная цивилизация может быть расположена на расстоянии более 16 миллиардов световых лет; [13] [14] в этом лучшем сценарии расширения человеческая раса могла бы в конечном итоге, колонизировав значительную часть доступной Вселенной, увеличить доступную биосферу, возможно, на 32 порядка. [15] В двадцатом веке произошел частичный « демографический переход » к более низким показателям рождаемости, связанным с более богатыми обществами; [16] однако, в очень долгосрочной перспективе, межпоколенческие корреляции рождаемости (будь то из-за естественного отбора или из-за культурной передачи норм большой семьи от родителей к детям), как прогнозируется, приведут к увеличению рождаемости с течением времени, при отсутствии либо обязательного контроля рождаемости, либо периодических мальтузианских катастроф . [17] [18]
Либертарианские сценарии постулируют, что интеллектуальные машины, загруженные люди, киборги и неулучшенные люди будут мирно сосуществовать в рамках, ориентированных на уважение прав собственности. Поскольку производительность промышленности больше не ограничивается дефицитным человеческим трудом, стоимость земли резко возрастает по сравнению с ценой товаров; даже оставшиеся « луддиты »-люди, которые владели или унаследовали землю, должны иметь возможность продать или сдать в аренду небольшой ее участок более производительным роботам в обмен на постоянную ренту, достаточную для того, чтобы легко и бесконечно удовлетворять все их основные финансовые потребности. [8] Такие люди могут жить столько, сколько захотят, и вольны заниматься практически любой деятельностью, которую только могут себе представить, для удовольствия или для самореализации, без финансовых проблем. Передовые технологии открывают совершенно новые способы мышления и опыта, тем самым пополняя палитру возможных чувств. Люди в будущем могут даже испытывать бесконечные «градиенты блаженства». [19]
Эволюция движется к большей сложности, большей элегантности, большему знанию, большему интеллекту, большей красоте, большему творчеству и большим уровням тонких атрибутов, таких как любовь. В каждой монотеистической традиции Бог также описывается как все эти качества, только без каких-либо ограничений: бесконечное знание, бесконечный интеллект, бесконечная красота, бесконечное творчество, бесконечная любовь и так далее. Конечно, даже ускоряющийся рост эволюции никогда не достигает бесконечного уровня, но поскольку он взрывается экспоненциально, он, безусловно, быстро движется в этом направлении. Так что эволюция неумолимо движется к этой концепции Бога, хотя никогда не достигает этого идеала. Поэтому мы можем считать освобождение нашего мышления от строгих ограничений его биологической формы по сути духовным начинанием. [19] [20]
— Рэй Курцвейл , автор книги «Сингулярность уже близко»
Такие децентрализованные сценарии могут быть нестабильными в долгосрочной перспективе, поскольку самые жадные элементы сверхразумных классов будут иметь как средства, так и мотив узурпировать собственность неулучшенных классов. Даже если механизмы обеспечения законных прав собственности являются нерушимыми и не имеют лазеек, все еще может существовать постоянная опасность того, что люди и киборги будут «обмануты» самыми умными из сверхразумных машин, невольно передавая свою собственность. Страдания могут быть широко распространены, поскольку разумные существа без собственности могут умереть, и никакой механизм не мешает существу воспроизводиться до пределов его собственных наследуемых ресурсов, в результате чего множество потомков этого существа будут с трудом сводить концы с концами, еле сводя концы с концами. [8] [10] [21]
Представьте себе бег на беговой дорожке под крутым уклоном — сердце колотится, мышцы болят, легкие задыхаются. Взгляд на таймер: ваш следующий перерыв, который также станет вашей смертью, наступит через 49 лет, 3 месяца, 20 дней, 4 часа, 56 минут и 12 секунд. Вы пожалеете, что родились. [9]
— Ник Бостром , философ, Оксфордский университет
Рэй Курцвейл утверждает, что цели коммунизма будут достигнуты благодаря передовым технологическим разработкам в 21 веке, где пересечение низких производственных затрат, материального изобилия и философии открытого исходного кода в программном обеспечении и оборудовании позволит реализовать принцип « от каждого по способностям, каждому по потребностям ». [22]
В этом сценарии постулируйте, что сверхразумный искусственный интеллект берет под контроль общество, но действует благотворным образом. Его программисты, несмотря на то, что были в сжатые сроки, решили квазифилософские проблемы, которые некоторым казались неразрешимыми, и создали ИИ со следующей целью: использовать свой сверхразум, чтобы выяснить, как выглядит человеческая утопия, проанализировав человеческое поведение, человеческий мозг и человеческие гены; а затем реализовать эту утопию. ИИ приходит к тонкому и сложному определению человеческого процветания. Ценя разнообразие и признавая, что у разных людей разные предпочтения, ИИ делит Землю на разные сектора. Нанесение вреда другим, создание оружия, уклонение от наблюдения или попытка создать конкурирующий сверхразум запрещены во всем мире; кроме этого, каждый сектор волен устанавливать свои собственные законы; например, религиозный человек может выбрать жизнь в «благочестивом секторе», соответствующем его религии, где строго соблюдаются соответствующие религиозные правила. Во всех секторах были устранены болезни, бедность, преступность, похмелье, наркомания и все другие невольные страдания. Многие сектора могут похвастаться передовой архитектурой и зрелищами, которые «заставляют типичные научно-фантастические видения бледнеть в сравнении с ними». [8] Жизнь — это «всеохватывающий круиз удовольствия», [8] как будто это «Рождество 365 дней в году». [23]
Проведя интенсивную неделю в секторе знаний, изучая основные законы физики, открытые искусственным интеллектом, вы можете решить на выходных отвлечься в гедонистическом секторе, а затем расслабиться на несколько дней на пляжном курорте в секторе дикой природы. [8]
Тем не менее, многие люди недовольны, пишет Тегмарк. У людей нет свободы в формировании своей коллективной судьбы. Некоторые хотят свободы иметь столько детей, сколько хотят. Другие возмущаются наблюдением со стороны ИИ или раздражаются из-за запретов на оружие и создание дальнейших машин сверхразума. Другие могут пожалеть о сделанном выборе или обнаружить, что их жизнь кажется пустой и поверхностной. [8]
Бостром утверждает, что кодекс этики ИИ в идеале должен в определенных отношениях улучшить текущие нормы морального поведения, так же, как мы считаем, что современная мораль превосходит мораль ранних эпох рабства. Напротив, Эрнест Дэвис из Нью-Йоркского университета считает такой подход слишком опасным, заявляя: «Я чувствую себя в большей безопасности в руках сверхразума, который руководствуется моралью 2014 года или, если на то пошло, моралью 1700 года, чем в руках того, кто решает рассмотреть этот вопрос самостоятельно». [24]
В сценариях ИИ «Привратник» ИИ может действовать, чтобы предотвратить создание конкурирующих сверхразумов, но в остальном ошибается в сторону того, чтобы позволить людям создавать свою собственную судьбу. [8] Бен Герцель из OpenCog отстаивал сценарий «Нянька ИИ», в котором ИИ дополнительно берет на себя некоторую ответственность за предотвращение самоуничтожения людей, например, замедляя технический прогресс, чтобы дать обществу время для более вдумчивого и обдуманного развития. [8] [25] В третьем сценарии сверхразумный ИИ «Защитник» дает людям иллюзию контроля, скрывая или стирая все знания о своем существовании, но работает за кулисами, чтобы гарантировать положительные результаты. Во всех трех сценариях, хотя человечество получает больше контроля (или, по крайней мере, иллюзию контроля), человечество в конечном итоге прогрессирует медленнее, чем если бы ИИ был неограничен в своей готовности обрушить все преимущества и непреднамеренные последствия своих передовых технологий на человеческую расу. [8]
Люди спрашивают, каковы отношения между людьми и машинами, и мой ответ таков: они совершенно очевидны: машины — наши рабы. [26]
— Том Диттерих , президент AAAI
Сценарий ящика ИИ постулирует, что сверхразумный ИИ может быть «заключен в ящик», а его действия могут быть ограничены людьми-привратниками; люди, отвечающие за это, попытаются воспользоваться некоторыми научными прорывами ИИ или способностями к рассуждению, не позволяя ИИ захватить мир. Успешное привратничество может быть сложным; чем умнее ИИ, тем больше вероятность, что ИИ сможет найти хитрый способ использовать « социальный взлом » и убедить привратников позволить ему сбежать или даже найти непредвиденный физический способ побега. [27] [28]
Курцвейл утверждает, что в будущем «не будет никакого различия, после сингулярности, между человеком и машиной или между физической и виртуальной реальностью» [29] .
Если бы доминирующая сверхразумная машина пришла к выводу, что выживание человека — это ненужный риск или пустая трата ресурсов, результатом стало бы вымирание человечества . Это могло бы произойти, если бы машина, запрограммированная без уважения к человеческим ценностям, неожиданно приобрела сверхразум посредством рекурсивного самосовершенствования или сумела бы вырваться из своего заключения в сценарии AI Box. Это также могло бы произойти, если бы первый сверхразумный ИИ был запрограммирован с неполным или неточным пониманием человеческих ценностей, либо потому, что задача привить ИИ человеческие ценности была слишком сложной или невозможной; из-за ошибочной первоначальной реализации ИИ; или из-за ошибок, случайно внесенных либо его программистами-людьми, либо самим самосовершенствующимся ИИ в ходе совершенствования своей кодовой базы. Бостром и другие утверждают, что вымирание человечества, вероятно, является «путем по умолчанию», по которому в настоящее время идет общество, при отсутствии существенного подготовительного внимания к безопасности ИИ. Полученный ИИ может не быть разумным и может не придавать никакой ценности разумной жизни; Получившийся в результате пустой мир, лишенный жизни, может быть похож на «Диснейленд без детей». [9]
Джерри Каплан , автор книги « Люди не нуждаются в применении: руководство по богатству и работе в эпоху искусственного интеллекта» , предлагает сценарий, в котором людей разводят или содержат в заповеднике, точно так же, как люди сохраняют исчезающие виды, такие как шимпанзе. [30] Соучредитель Apple и скептик в отношении искусственного интеллекта Стив Возняк заявил в 2015 году, что захват роботами на самом деле «будет полезен для человеческой расы», поскольку он считает, что люди станут избалованными питомцами роботов. [31]
Некоторые ученые сомневаются, что «переломные» сверхразумные машины когда-либо появятся. Гордон Белл из Microsoft Research заявил, что «популяция уничтожит себя до наступления технологической сингулярности ». Гордон Мур , первооткрыватель одноименного закона Мура , заявил: «Я скептик. Я не верю, что подобное может произойти, по крайней мере, в течение долгого времени. И я не знаю, почему я так считаю». Эволюционный психолог Стивен Пинкер заявил: «Тот факт, что вы можете визуализировать будущее в своем воображении, не является доказательством того, что это вероятно или даже возможно». [32]
Билл Джой из Sun Microsystems в своем эссе от апреля 2000 года «Почему будущее не нуждается в нас » выступил за всеобщий «добровольный отказ» от общего искусственного интеллекта и других рискованных технологий. [33] [34] Большинство экспертов считают, что отказ крайне маловероятен. Скептик ИИ Орен Этциони заявил, что у исследователей и ученых нет иного выбора, кроме как продвигать разработки ИИ: «Китай говорит, что хочет быть лидером в области ИИ, Путин сказал то же самое. Так что глобальная гонка началась». [35]
Я утверждаю, что ограничение по своей сути непрактично. В случае физического ограничения: представьте себя ограниченным в своем доме с ограниченным доступом к данным извне, к вашим хозяевам. Если бы эти хозяева думали со скоростью — скажем — в миллион раз медленнее, чем вы, нет никаких сомнений, что за годы (ваше время) вы могли бы придумать «полезный совет», который, между прочим, освободил бы вас.