Технологическая сингулярность — или просто сингулярность [1] — это гипотетическая будущая точка времени, в которой технологический рост становится неконтролируемым и необратимым, что приводит к непредсказуемым последствиям для человеческой цивилизации . [2] [3] Согласно самой популярной версии гипотезы сингулярности, модели взрыва интеллекта И. Дж. Гуда 1965 года, модернизируемый интеллектуальный агент может в конечном итоге войти в положительную обратную связь циклов самосовершенствования , каждый последующий; и более разумное поколение будет появляться все быстрее и быстрее, вызывая быстрый рост («взрыв») интеллекта, который в конечном итоге приведет к мощному сверхинтеллекту , качественно намного превосходящему весь человеческий интеллект . [4]
Венгерско-американский математик Джон фон Нейман (1903-1957) стал первым известным человеком, использовавшим концепцию «сингулярности» в технологическом контексте. [5] [ для проверки нужна цитата ] Станислав Улам сообщил в 1958 году о более ранней дискуссии с фон Нейманом, «сосредоточенной на ускоряющемся прогрессе технологий и изменениях в человеческой жизни, что создает видимость приближения к некой существенной сингулярности в истории расы, за пределами которой человеческие дела, как мы их знаем, не могли бы продолжаться». [6] Последующие авторы повторили эту точку зрения. [3] [7]
Концепция и термин «сингулярность» были популяризированы Вернором Винджем — сначала в 1983 году (в статье, в которой утверждалось, что как только люди создадут интеллект, превосходящий их собственный, произойдет технологический и социальный переход, в некотором смысле похожий на «завязанное пространство-время в центре черной дыры», [8] ), а затем в его эссе 1993 года «Грядущая технологическая сингулярность» [ 4] [7] (в котором он писал, что это будет означать конец человеческой эры, поскольку новый сверхразум продолжит совершенствоваться и будет развиваться технологически с непостижимой скоростью). Он писал, что был бы удивлен, если бы это произошло до 2005 года или после 2030 года. [4] Другим значительным фактором, способствовавшим более широкому распространению этого понятия, стала книга Рэя Курцвейла 2005 года «Сингулярность уже близко » , в которой он предсказывал сингулярность к 2045 году. [7]
Некоторые ученые, включая Стивена Хокинга , выразили обеспокоенность тем, что искусственный сверхинтеллект (ИСИ) может привести к вымиранию человечества. [9] [10] Последствия технологической сингулярности и ее потенциальная польза или вред для человеческой расы стали предметом интенсивных дискуссий.
Известные технологи и ученые оспаривают правдоподобность технологической сингулярности и связанного с ней взрыва искусственного интеллекта, включая Пола Аллена [11] , Джеффа Хокинса [12] , Джона Холланда , Джарона Ланье , Стивена Пинкера [12] , Теодора Модиса [ 13] и Гордона Мура . [12] Одно из заявлений состояло в том, что рост искусственного интеллекта, скорее всего, столкнется с убывающей отдачей вместо ускорения, как это наблюдалось в ранее разработанных человеческих технологиях.
Хотя технический прогресс ускоряется во многих областях, он ограничен базовым интеллектом человеческого мозга, который, по словам Пола Р. Эрлиха , не претерпел существенных изменений на протяжении тысячелетий. [14] Однако с ростом мощности компьютеров и других технологий в конечном итоге может оказаться возможным построить машину, которая будет значительно более разумной, чем люди. [15]
Если бы был изобретен сверхчеловеческий интеллект — либо путем усиления человеческого интеллекта , либо посредством искусственного интеллекта — он, в теории, значительно улучшил бы человеческие навыки решения проблем и изобретательские навыки. Такой ИИ называется Seed AI [16] [17], потому что если бы ИИ был создан с инженерными возможностями, которые соответствовали бы или превосходили возможности его человеческих создателей, он имел бы потенциал для автономного улучшения своего собственного программного обеспечения и оборудования, чтобы спроектировать еще более способную машину, которая могла бы повторить процесс в свою очередь. Это рекурсивное самосовершенствование могло бы ускориться, потенциально допуская огромные качественные изменения до того, как установится какой-либо верхний предел, налагаемый законами физики или теоретическими вычислениями. Предполагается, что за многие итерации такой ИИ намного превзойдет человеческие когнитивные способности .
Ай Джей Гуд предположил, что сверхчеловеческий интеллект может привести к взрыву интеллекта: [18] [19]
Давайте определим сверхразумную машину как машину, которая может намного превзойти все интеллектуальные действия любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из видов интеллектуальной деятельности, сверхразумная машина могла бы проектировать еще лучшие машины; тогда, несомненно, произошел бы «взрыв интеллекта», и интеллект человека остался бы далеко позади. Таким образом, первая сверхразумная машина — это последнее изобретение, которое когда-либо должен был бы сделать человек, при условии, что машина будет достаточно послушной, чтобы сказать нам, как держать ее под контролем.
— Размышления о первой сверхразумной машине (1965)
Одна из версий взрыва интеллекта заключается в том, что вычислительная мощность достигает бесконечности за конечное время. В этой версии, как только ИИ выполняют исследования по самосовершенствованию, скорость удваивается, например, через 2 года, затем через 1 год, затем через 6 месяцев, затем через 3 месяца, затем через 1,5 месяца и т. д., где бесконечная сумма периодов удвоения составляет 4 года. Если этому не препятствуют физические ограничения вычислений и квантование времени, этот процесс буквально достиг бы бесконечной вычислительной мощности за 4 года, справедливо заслужив название «сингулярность» для конечного состояния. Эта форма взрыва интеллекта описана в работе Юдковски (1996). [20]
Сверхразум, гиперразум или сверхчеловеческий разум — гипотетический агент , обладающий интеллектом, намного превосходящим интеллект самых ярких и одаренных человеческих умов. [21] «Сверхразум» может также относиться к форме или степени интеллекта, которым обладает такой агент. Джон фон Нейман , Вернор Виндж и Рэй Курцвейл определяют эту концепцию с точки зрения технологического создания сверхразума, утверждая, что для современных людей трудно или невозможно предсказать, какой будет жизнь людей в мире после сингулярности. [4] [22]
Связанное с этим понятие «скоростной сверхинтеллект» описывает ИИ, который может функционировать подобно человеческому разуму, только гораздо быстрее. [23] Например, при увеличении скорости обработки информации в миллион раз по сравнению с людьми субъективный год пройдёт за 30 физических секунд. [24] Такая разница в скорости обработки информации может привести к сингулярности. [25]
Прогнозисты и исследователи технологий расходятся во мнениях относительно того, когда и будет ли вообще превзойден человеческий интеллект. Некоторые утверждают, что достижения в области искусственного интеллекта (ИИ), вероятно, приведут к появлению общих систем рассуждений, которые обойдут человеческие когнитивные ограничения. Другие полагают, что люди будут развиваться или напрямую изменять свою биологию, чтобы достичь радикально большего интеллекта. [26] [27] Ряд исследований будущего сосредоточены на сценариях, которые объединяют эти возможности, предполагая, что люди, вероятно, будут взаимодействовать с компьютерами или загружать свои разумы в компьютеры таким образом, чтобы обеспечить существенное усиление интеллекта. В книге Робина Хэнсона « Век Эм» описывается гипотетический сценарий будущего, в котором человеческий мозг сканируется и оцифровывается, создавая «загрузки» или цифровые версии человеческого сознания. В этом будущем развитие этих загрузок может предшествовать или совпадать с появлением сверхразумного искусственного интеллекта. [28]
Некоторые авторы используют «сингулярность» в более широком смысле, ссылаясь на любые радикальные изменения в обществе, вызванные новыми технологиями (например, молекулярными нанотехнологиями ), [29] [30] [31], хотя Виндж и другие авторы специально заявляют, что без сверхразума такие изменения не могли бы считаться истинной сингулярностью. [4]
В 1965 году И. Дж. Гуд писал, что скорее всего сверхразумная машина будет создана в двадцатом веке. [18] В 1993 году Виндж предсказал появление интеллекта, превосходящего человеческий, в период с 2005 по 2030 год. [4] В 1996 году Юдковски предсказал сингулярность в 2021 году. [20] В 2005 году Курцвейл предсказал появление ИИ человеческого уровня примерно в 2029 году, [32] а сингулярность — в 2045 году. [33] В интервью 2017 года Курцвейл подтвердил свои оценки. [34] В 1988 году Моравек предсказал, что если темпы совершенствования сохранятся, вычислительные возможности для искусственного интеллекта человеческого уровня будут доступны в суперкомпьютерах до 2010 года. [35] В 1998 году Моравек предсказал появление искусственного интеллекта человеческого уровня к 2040 году, а интеллект, намного превосходящий человеческий, к 2050 году. [36]
Четыре опроса исследователей ИИ, проведенные в 2012 и 2013 годах Ником Бостромом и Винсентом С. Мюллером , показали 50%-ную уверенность в том, что ИИ человеческого уровня будет разработан к 2040–2050 годам. [37] [38]
Известные технологи и ученые оспаривают правдоподобность технологической сингулярности, включая Пола Аллена [11] , Джеффа Хокинса [12] , Джона Холланда , Джарона Ланье , Стивена Пинкера [ 12] , Теодора Модиса [13] и Гордона Мура [12] , закон которого часто цитируется в поддержку этой концепции. [39]
Большинство предлагаемых методов создания сверхчеловеческого или трансчеловеческого разума попадают в одну из двух категорий: усиление интеллекта человеческого мозга и искусственный интеллект. Множество предполагаемых способов усиления человеческого интеллекта включают биоинженерию , генную инженерию , ноотропные препараты, помощников ИИ, прямые интерфейсы мозг-компьютер и загрузку разума . Эти многочисленные возможные пути к взрыву интеллекта, все из которых, предположительно, будут реализованы, делают сингулярность более вероятной. [24]
Робин Хэнсон выразил скептицизм относительно усиления человеческого интеллекта, написав, что как только «низко висящие плоды» простых методов увеличения человеческого интеллекта будут исчерпаны, дальнейшие улучшения станут все более трудными. [40] Несмотря на все предполагаемые способы усиления человеческого интеллекта, нечеловеческий искусственный интеллект (в частности, семенной ИИ) является наиболее популярным вариантом среди гипотез, которые могли бы приблизить сингулярность. [ необходима цитата ]
Возможность взрыва интеллекта зависит от трех факторов. [41] Первый ускоряющий фактор — это новые улучшения интеллекта, которые стали возможны благодаря каждому предыдущему улучшению. Напротив, по мере того, как интеллект становится более продвинутым, дальнейшие достижения будут становиться все более и более сложными, возможно, перевешивая преимущество возросшего интеллекта. Каждое улучшение должно генерировать в среднем как минимум еще одно улучшение, чтобы движение к сингулярности продолжалось. Наконец, законы физики могут в конечном итоге помешать дальнейшему улучшению.
Существуют две логически независимые, но взаимодополняющие причины улучшений интеллекта: увеличение скорости вычислений и улучшение используемых алгоритмов . [7] Первое предсказывается законом Мура и прогнозируемыми улучшениями в аппаратном обеспечении [42] и сравнительно похоже на предыдущие технологические достижения. Но Шульман и Сандберг [43] утверждают, что программное обеспечение будет представлять более сложные проблемы, чем просто работа на оборудовании, способном работать на уровне человеческого интеллекта или выше.
В опросе по электронной почте 2017 года авторов, публиковавших статьи на конференциях по машинному обучению NeurIPS и ICML 2015 года , спрашивалось о вероятности того, что «аргумент о взрыве интеллекта в целом верен». Из числа респондентов 12% сказали, что это «весьма вероятно», 17% сказали, что это «вероятно», 21% сказали, что это «примерно равно», 24% сказали, что это «маловероятно», и 26% сказали, что это «весьма маловероятно». [44]
Как для человеческого, так и для искусственного интеллекта усовершенствования оборудования увеличивают скорость будущих усовершенствований оборудования. Аналогия с законом Мура предполагает, что если первое удвоение скорости заняло 18 месяцев, то второе займет 18 субъективных месяцев; или 9 внешних месяцев, после чего четыре месяца, два месяца и так далее до сингулярности скорости. [45] [20] В конечном итоге может быть достигнут некий верхний предел скорости. Джефф Хокинс заявил, что самосовершенствующаяся компьютерная система неизбежно столкнется с верхними пределами вычислительной мощности: «в конце концов, существуют пределы тому, насколько большие и быстрые компьютеры могут работать. Мы окажемся в том же месте; мы просто доберемся туда немного быстрее. Сингулярности не будет». [12]
Трудно напрямую сравнивать кремниевое оборудование с нейронами . Но Берглас (2008) отмечает, что компьютерное распознавание речи приближается к человеческим возможностям, и что эта возможность, по-видимому, требует 0,01% объема мозга. Эта аналогия предполагает, что современное компьютерное оборудование находится в пределах нескольких порядков от того, чтобы быть таким же мощным, как человеческий мозг , а также занимает гораздо меньше места.
Экспоненциальный рост вычислительной техники, предполагаемый законом Мура, обычно упоминается как причина ожидать сингулярности в относительно недалеком будущем, и ряд авторов предложили обобщения закона Мура. Ученый-компьютерщик и футурист Ганс Моравец в своей книге 1998 года [46] предположил , что кривая экспоненциального роста может быть продолжена назад через более ранние вычислительные технологии до появления интегральных схем .
Рэй Курцвейл постулирует закон ускорения отдачи , в котором скорость технологических изменений (и, в более общем смысле, всех эволюционных процессов) [47] увеличивается экспоненциально, обобщая закон Мура таким же образом, как предложение Моравека, а также включая материальные технологии (особенно в применении к нанотехнологиям ), медицинские технологии и другие. [48] В период с 1986 по 2007 год, прикладная способность машин вычислять информацию на душу населения примерно удваивалась каждые 14 месяцев; производительность на душу населения мировых компьютеров общего назначения удваивалась каждые 18 месяцев; глобальная телекоммуникационная производительность на душу населения удваивалась каждые 34 месяца; а мировая производительность хранения на душу населения удваивалась каждые 40 месяцев. [49] С другой стороны, утверждалось, что глобальная модель ускорения, имеющая в качестве своего параметра сингулярность 21-го века, должна характеризоваться как гиперболическая, а не экспоненциальная. [50]
Курцвейл резервирует термин «сингулярность» для быстрого развития искусственного интеллекта (в отличие от других технологий), например, написав, что «Сингулярность позволит нам преодолеть эти ограничения наших биологических тел и мозгов... После Сингулярности не будет различий между человеком и машиной». [51] Он также определяет свою прогнозируемую дату сингулярности (2045) с точки зрения того, когда, по его ожиданиям, компьютерный интеллект значительно превзойдет общую сумму человеческих умственных способностей, написав, что достижения в области вычислений до этой даты «не будут представлять Сингулярность», потому что они «еще не соответствуют глубокому расширению нашего интеллекта». [52]
Некоторые сторонники сингулярности утверждают ее неизбежность посредством экстраполяции прошлых тенденций, особенно тех, которые касаются сокращения разрывов между усовершенствованиями в технологиях. В одном из первых случаев использования термина «сингулярность» в контексте технологического прогресса Станислав Улам рассказывает о разговоре с Джоном фон Нейманом об ускорении изменений:
Один из разговоров был посвящен все ускоряющемуся прогрессу технологий и изменениям в образе жизни человека, что создает видимость приближения некой существенной сингулярности в истории расы, за пределами которой человеческие дела, какими мы их знаем, не могут продолжаться. [6]
Курцвейл утверждает, что технический прогресс следует модели экспоненциального роста , следуя тому, что он называет « законом ускорения отдачи ». Всякий раз, когда технология приближается к барьеру, пишет Курцвейл, новые технологии его преодолеют. Он предсказывает, что сдвиги парадигмы будут становиться все более распространенными, что приведет к «технологическим изменениям настолько быстрым и глубоким, что они представляют собой разрыв в ткани человеческой истории». [53] Курцвейл полагает, что сингулярность наступит примерно к 2045 году. [48] Его предсказания отличаются от предсказаний Винджа тем, что он предсказывает постепенное восхождение к сингулярности, а не быстро самосовершенствующийся сверхчеловеческий интеллект Винджа.
Часто упоминаемые опасности включают те, которые обычно ассоциируются с молекулярной нанотехнологией и генной инженерией . Эти угрозы являются основными проблемами как для сторонников, так и для критиков сингулярности, и были темой статьи Билла Джоя в журнале Wired в апреле 2000 года « Почему будущее не нуждается в нас ». [7] [54]
Некоторые интеллектуальные технологии, такие как «seed AI», [16] [17] также могут иметь потенциал не только стать быстрее, но и эффективнее, изменяя свой исходный код . Эти улучшения сделают возможными дальнейшие улучшения, которые сделают возможными дальнейшие улучшения и т. д.
Механизм для рекурсивно самосовершенствующегося набора алгоритмов отличается от увеличения чистой скорости вычислений двумя способами. Во-первых, он не требует внешнего влияния: машины, проектирующие более быстрое оборудование, все равно потребуют от людей создания улучшенного оборудования или соответствующего программирования фабрик. [ необходима цитата ] ИИ, переписывающий свой собственный исходный код, может делать это, находясь в коробке ИИ .
Во-вторых, как и в случае с концепцией сингулярности Вернора Винджа , гораздо сложнее предсказать результат. Хотя увеличение скорости, по-видимому, является лишь количественным отличием от человеческого интеллекта, фактические улучшения алгоритмов будут качественно иными. Элиезер Юдковски сравнивает это с изменениями, которые принес человеческий интеллект: люди изменили мир в тысячи раз быстрее, чем это сделала эволюция, и совершенно другими способами. Аналогично, эволюция жизни была огромным отходом и ускорением от предыдущих геологических темпов изменений, и улучшенный интеллект может привести к тому, что изменения снова будут такими же иными. [55]
Существуют существенные опасности, связанные с сингулярностью взрыва интеллекта, происходящей из рекурсивно самосовершенствующегося набора алгоритмов. Во-первых, структура цели ИИ может самоизменяться, что потенциально может привести к оптимизации ИИ для чего-то иного, чем то, что изначально предполагалось. [56] [57]
Во-вторых, ИИ могли бы конкурировать за те же скудные ресурсы, которые человечество использует для выживания. [58] [59] Хотя ИИ и не являются активно вредоносными, они будут продвигать цели своего программирования, а не обязательно более широкие человеческие цели, и, таким образом, могут вытеснить людей. [60] [61] [62]
Карл Шульман и Андерс Сандберг предполагают, что ограничивающим фактором для сингулярности могут быть улучшения алгоритмов; в то время как эффективность оборудования имеет тенденцию к повышению в устойчивом темпе, инновации программного обеспечения более непредсказуемы и могут быть ограничены последовательными, кумулятивными исследованиями. Они предполагают, что в случае сингулярности, ограниченной программным обеспечением, взрыв интеллекта на самом деле станет более вероятным, чем в случае сингулярности, ограниченной аппаратным обеспечением, потому что в случае программного обеспечения, как только будет разработан ИИ человеческого уровня, он сможет работать последовательно на очень быстром оборудовании, а обилие дешевого оборудования сделает исследования ИИ менее ограниченными. [63] Обилие накопленного оборудования, которое может быть высвобождено, как только программное обеспечение поймет, как его использовать, было названо «вычислительным навесом». [64]
Некоторые критики, такие как философ Хьюберт Дрейфус [65] и философ Джон Сирл [66] , утверждают, что компьютеры или машины не могут достичь человеческого интеллекта . Другие, такие как физик Стивен Хокинг [67], возражают , что неважно, могут ли машины достичь настоящего интеллекта или просто чего-то похожего на интеллект, если конечный результат одинаков.
Психолог Стивен Пинкер заявил в 2008 году: «Нет ни малейшей причины верить в наступление сингулярности. Тот факт, что вы можете визуализировать будущее в своем воображении, не является доказательством того, что оно вероятно или даже возможно. Посмотрите на города под куполами, поездки на реактивных ранцах, подводные города, здания высотой в милю и атомные автомобили — все это основные элементы футуристических фантазий моего детства, которые так и не появились. Чистая вычислительная мощность — это не волшебная пыльца, которая волшебным образом решит все ваши проблемы». [12]
Мартин Форд [68] постулирует «технологический парадокс» в том, что до того, как сингулярность могла бы произойти, большинство рутинных рабочих мест в экономике были бы автоматизированы, поскольку это потребовало бы уровня технологий ниже, чем у сингулярности. Это вызвало бы массовую безработицу и резкое падение потребительского спроса, что, в свою очередь, уничтожило бы стимул инвестировать в технологии, которые потребовались бы для достижения сингулярности. Смещение рабочих мест все больше не ограничивается теми типами работы, которые традиционно считаются «рутинными». [69]
Теодор Модис [70] и Джонатан Хюбнер [71] утверждают, что темпы технологических инноваций не только перестали расти, но и фактически сейчас снижаются. Доказательством этого спада является то, что рост тактовой частоты компьютеров замедляется, даже несмотря на то, что предсказание Мура об экспоненциальном увеличении плотности цепей продолжает оставаться в силе. Это происходит из-за чрезмерного накопления тепла от чипа, которое не может рассеиваться достаточно быстро, чтобы предотвратить расплавление чипа при работе на более высоких скоростях. Прогресс в скорости может быть возможен в будущем благодаря более энергоэффективным конструкциям ЦП и многоячеечным процессорам. [72]
Теодор Модис считает, что сингулярность не может произойти. [73] [13] [74] Он утверждает, что «технологическая сингулярность» и особенно Курцвейл лишены научной строгости; Курцвейл, как утверждается, ошибочно принимает логистическую функцию (S-функцию) за экспоненциальную функцию и видит «колено» в экспоненциальной функции, где на самом деле такого быть не может. [75] В статье 2021 года Модис указал, что за предыдущие двадцать лет не наблюдалось никаких вех — разрывов в исторической перспективе, сопоставимых по важности с Интернетом, ДНК, транзистором или ядерной энергией, — в то время как пять из них можно было бы ожидать в соответствии с экспоненциальной тенденцией, пропагандируемой сторонниками технологической сингулярности. [76]
Исследователь искусственного интеллекта Юрген Шмидхубер заявил, что частота субъективно «заметных событий», по-видимому, приближается к сингулярности 21-го века, но предостерег читателей от восприятия подобных сюжетов субъективных событий с долей скепсиса: возможно, различия в памяти о недавних и далеких событиях могут создавать иллюзию ускоряющихся изменений там, где их нет. [77]
Соучредитель Microsoft Пол Аллен утверждал, что противоположность ускорению отдачи — тормоз сложности; [11] чем больше прогрессирует наука в понимании интеллекта, тем сложнее становится добиться дальнейшего прогресса. Исследование числа патентов показывает, что человеческое творчество не показывает ускорения отдачи, но на самом деле, как предположил Джозеф Тейнтер в своей работе «Крах сложных обществ» , [78] действует закон убывающей отдачи . Число патентов на тысячу достигло пика в период с 1850 по 1900 год и с тех пор снижается. [71] Рост сложности в конечном итоге становится самоограничивающим и приводит к широко распространенному «общему системному коллапсу».
Хофштадтер (2006) высказывает опасения, что Рэй Курцвейл недостаточно строг с научной точки зрения, что экспоненциальная тенденция технологий не является научным законом, как в физике, и что экспоненциальные кривые не имеют «колеен». [79] Тем не менее, он не исключил сингулярность в принципе в отдаленном будущем [12] и в свете ChatGPT и других недавних достижений существенно пересмотрел свое мнение в сторону кардинальных технологических изменений в ближайшем будущем. [80]
Джарон Ланье отрицает, что сингулярность неизбежна: «Я не думаю, что технология создает себя сама. Это не автономный процесс». [81] Более того: «Причина верить в человеческое вмешательство по сравнению с технологическим детерминизмом заключается в том, что тогда вы можете иметь экономику, в которой люди зарабатывают себе на жизнь и изобретают свою собственную жизнь. Если вы структурируете общество, не подчеркивая индивидуальное человеческое вмешательство, это то же самое, что и лишение людей влияния, достоинства и самоопределения ... принятие [идеи Сингулярности] было бы празднованием плохих данных и плохой политики». [81]
Экономист Роберт Дж. Гордон указывает, что измеренный экономический рост замедлился около 1970 года и замедлился еще больше после финансового кризиса 2007–2008 годов , и утверждает, что экономические данные не показывают никаких следов наступления Сингулярности, как это представлял себе математик И. Дж. Гуд . [82]
Философ и когнитивный ученый Дэниел Деннетт сказал в 2017 году: «Вся эта ерунда с сингулярностью — это абсурд. Она отвлекает нас от гораздо более насущных проблем», добавив: «Инструменты ИИ, от которых мы станем гиперзависимыми, это произойдет. И одна из опасностей заключается в том, что мы дадим им больше полномочий, чем они заслуживают». [83]
В дополнение к общей критике концепции сингулярности, несколько критиков подняли вопросы по поводу знаковой диаграммы Курцвейла. Одна из линий критики заключается в том, что логарифмическая диаграмма такого рода изначально смещена в сторону прямолинейного результата. Другие выявляют смещение отбора в точках, которые Курцвейл выбирает для использования. Например, биолог П. З. Майерс указывает, что многие из ранних эволюционных «событий» были выбраны произвольно. [84] Курцвейл опроверг это, нанеся на карту эволюционные события из 15 нейтральных источников и показав, что они укладываются в прямую линию на логарифмической диаграмме . Келли (2006) утверждает, что способ построения диаграммы Курцвейла с осью x, имеющей время до настоящего времени, всегда указывает на сингулярность, являющуюся «сейчас», для любой даты, на которую можно было бы построить такую диаграмму, и наглядно показывает это на диаграмме Курцвейла. [85]
Некоторые критики предполагают религиозные мотивы или последствия сингулярности, особенно ее версию Курцвейла. Наращивание сингулярности сравнивается с иудео-христианскими сценариями конца света. Бим называет это « видением Бака Роджерса гипотетического христианского восхищения». [86] Джон Грей говорит, что «сингулярность перекликается с апокалиптическими мифами, в которых история вот-вот будет прервана событием, преобразующим мир». [87]
Дэвид Стрейтфельд в The New York Times задался вопросом, «может ли это проявиться прежде всего — отчасти благодаря одержимости сегодняшней Кремниевой долины прибылью — как инструмент сокращения численности корпораций в Америке». [88]
В прошлом из-за технического прогресса происходили драматические изменения в темпах экономического роста. Исходя из роста населения, экономика удваивалась каждые 250 000 лет с эпохи палеолита до неолитической революции . Новая аграрная экономика удваивалась каждые 900 лет, что является значительным ростом. В нынешнюю эпоху, начиная с промышленной революции, мировое экономическое производство удваивается каждые пятнадцать лет, в шестьдесят раз быстрее, чем в аграрную эпоху. Если рост сверхчеловеческого интеллекта вызовет подобную революцию, утверждает Робин Хэнсон, можно было бы ожидать, что экономика будет удваиваться по крайней мере ежеквартально, а возможно, и еженедельно. [89]
Термин «технологическая сингулярность» отражает идею о том, что такие изменения могут произойти внезапно, и что трудно предсказать, как будет функционировать получившийся новый мир. [90] [91] Неясно, будет ли взрыв интеллекта, приводящий к сингулярности, полезным или вредным, или даже представлять экзистенциальную угрозу . [92] [93] Поскольку ИИ является основным фактором риска сингулярности, ряд организаций занимаются технической теорией согласования систем целей ИИ с человеческими ценностями, включая Институт будущего человечества , Научно-исследовательский институт машинного интеллекта , [90] Центр искусственного интеллекта, совместимого с человеком , и Институт будущего жизни .
Физик Стивен Хокинг сказал в 2014 году, что «Успех в создании ИИ станет крупнейшим событием в истории человечества. К сожалению, он может стать и последним, если мы не научимся избегать рисков». [94] Хокинг считал, что в ближайшие десятилетия ИИ может предложить «неисчислимые выгоды и риски», такие как «технологии, которые превзойдут финансовые рынки, превзойдут исследователей-людей, превзойдут манипулирование человеческими лидерами и разработают оружие, которое мы даже не сможем понять». [94] Хокинг предположил, что к искусственному интеллекту следует относиться более серьезно и что нужно больше делать для подготовки к сингулярности: [94]
Итак, сталкиваясь с возможным будущим неисчислимых выгод и рисков, эксперты наверняка делают все возможное, чтобы обеспечить наилучший результат, верно? Неправильно. Если бы превосходящая инопланетная цивилизация послала нам сообщение со словами: «Мы прибудем через несколько десятилетий», мы бы просто ответили: «Хорошо, позвоните нам, когда прибудете, мы оставим свет включенным»? Вероятно, нет, но это примерно то, что происходит с ИИ.
Берглас (2008) утверждает, что не существует прямой эволюционной мотивации для того, чтобы ИИ был дружелюбен к людям. Эволюция не имеет врожденной тенденции производить результаты, которые ценятся людьми, и нет никаких оснований ожидать, что произвольный процесс оптимизации будет способствовать желаемому человечеством результату, а не непреднамеренно приведет к тому, что ИИ будет вести себя не так, как предполагали его создатели. [95] [96] [97] Андерс Сандберг также подробно остановился на этом сценарии, рассмотрев различные распространенные контраргументы. [98] Исследователь ИИ Уго де Гарис предполагает, что искусственный интеллект может просто устранить человеческую расу ради доступа к дефицитным ресурсам , [58] [99] и люди будут бессильны остановить его. [100] В качестве альтернативы ИИ, разработанные под эволюционным давлением для содействия собственному выживанию, могут превзойти человечество. [62]
Бостром (2002) обсуждает сценарии вымирания человечества и называет сверхразум возможной причиной:
Когда мы создаем первую сверхразумную сущность, мы можем совершить ошибку и дать ей цели, которые приведут к уничтожению человечества, предполагая, что ее огромное интеллектуальное преимущество дает ей силу сделать это. Например, мы можем ошибочно возвысить подцель до статуса сверхцели. Мы говорим ей решить математическую задачу, и она подчиняется, превращая всю материю в солнечной системе в гигантское вычислительное устройство, в процессе убивая человека, задавшего вопрос.
По словам Элиезера Юдковски , существенной проблемой безопасности ИИ является то, что недружелюбный искусственный интеллект, вероятно, будет гораздо проще создать, чем дружественный ИИ. Хотя оба требуют больших успехов в разработке процесса рекурсивной оптимизации, дружественный ИИ также требует способности делать структуры целей инвариантными при самосовершенствовании (иначе ИИ может трансформироваться во что-то недружелюбное) и структуру целей, которая соответствует человеческим ценностям и не уничтожает автоматически человеческую расу. Недружелюбный ИИ, с другой стороны, может оптимизироваться для произвольной структуры целей, которая не обязательно должна быть инвариантной при самомодификации. [101] Билл Хиббард (2014) предлагает дизайн ИИ, который избегает нескольких опасностей, включая самообман, [102] непреднамеренные инструментальные действия, [56] [103] и коррупцию генератора вознаграждений. [103] Он также обсуждает социальные последствия ИИ [104] и тестирование ИИ. [105] Его книга 2001 года «Сверхразумные машины» отстаивает необходимость общественного образования в области ИИ и общественного контроля над ИИ. В ней также предлагается простая конструкция, которая уязвима для искажения генератора вознаграждения.
Хотя технологическая сингулярность обычно рассматривается как внезапное событие, некоторые ученые утверждают, что нынешняя скорость изменений уже соответствует этому описанию. [ необходима цитата ]
Кроме того, некоторые утверждают, что мы уже находимся в середине крупного эволюционного перехода , который объединяет технологию, биологию и общество. Цифровые технологии проникли в структуру человеческого общества до степени неоспоримой и часто поддерживающей жизнь зависимости.
В статье 2016 года в журнале Trends in Ecology & Evolution утверждается, что «люди уже принимают слияние биологии и технологий. Мы проводим большую часть своего времени бодрствования, общаясь по цифровым каналам... мы доверяем искусственный интеллект в своих жизнях посредством антиблокировочной системы тормозов в автомобилях и автопилота в самолетах... Поскольку каждое третье ухаживание, приводящее к браку в Америке, начинается онлайн, цифровые алгоритмы также играют роль в формировании и воспроизводстве человеческих пар».
В статье далее утверждается, что с точки зрения эволюции , несколько предыдущих крупных переходов в эволюции преобразили жизнь посредством инноваций в хранении и репликации информации ( РНК , ДНК , многоклеточность , культура и язык ). На текущем этапе эволюции жизни углеродная биосфера создала систему (людей), способную создавать технологии, которые приведут к сопоставимому эволюционному переходу .
Цифровая информация, созданная людьми, достигла аналогичной величины биологической информации в биосфере. С 1980-х годов количество хранимой цифровой информации удваивалось примерно каждые 2,5 года, достигнув около 5 зеттабайт в 2014 году (5 × 1021 байт). [107]
В биологическом плане на планете 7,2 миллиарда человек, и у каждого из них геном из 6,2 миллиарда нуклеотидов. Поскольку один байт может кодировать четыре пары нуклеотидов, индивидуальные геномы каждого человека на планете могут быть закодированы примерно 1 × 1019 байт. Цифровая реальность хранила в 500 раз больше информации, чем в 2014 году (см. рисунок). Общее количество ДНК, содержащееся во всех клетках на Земле, оценивается примерно в 5,3 × 1037 пар оснований, что эквивалентно 1,325 × 1037 байт информации.
Если рост цифрового хранения продолжится с нынешним темпом в 30–38% годового прироста в год, [49] он будет конкурировать с общим информационным содержанием, содержащимся во всех ДНК во всех клетках на Земле примерно через 110 лет. Это будет означать удвоение объема информации, хранящейся в биосфере в течение всего лишь 150 лет». [106]
В феврале 2009 года под эгидой Ассоциации по развитию искусственного интеллекта (AAAI) Эрик Хорвиц председательствовал на встрече ведущих компьютерных ученых, исследователей искусственного интеллекта и робототехников в конференц-центре Asilomar в Пасифик-Гроув, Калифорния. Целью было обсудить потенциальное влияние гипотетической возможности того, что роботы могут стать самодостаточными и способными принимать собственные решения. Они обсудили, в какой степени компьютеры и роботы могут обрести автономию , и в какой степени они могут использовать такие способности для создания угроз или опасностей. [108]
Некоторые машины запрограммированы на различные формы полуавтономии, включая способность находить собственные источники питания и выбирать цели для атаки оружием. Кроме того, некоторые компьютерные вирусы могут избегать уничтожения и, по словам присутствовавших ученых, можно сказать, что они достигли «таракановой» стадии машинного интеллекта. Участники конференции отметили, что самосознание, как оно изображено в научной фантастике, вероятно, маловероятно, но существуют другие потенциальные опасности и ловушки. [108]
Фрэнк С. Робинсон предсказывает, что как только люди создадут машину с интеллектом человека, научные и технологические проблемы будут решаться и решаться с помощью интеллекта, намного превосходящего человеческий. Он отмечает, что искусственные системы способны обмениваться данными более напрямую, чем люди, и предсказывает, что это приведет к глобальной сети сверхразума, которая затмит человеческие возможности. [109] Робинсон также обсуждает, насколько сильно может отличаться будущее после такого взрыва интеллекта.
В сценарии жесткого взлета искусственный суперинтеллект быстро самосовершенствуется, «беря под контроль» мир (возможно, в течение нескольких часов), слишком быстро для существенного исправления ошибок, инициированного человеком, или для постепенной настройки целей агента. В сценарии мягкого взлета ИИ все еще становится намного могущественнее человечества, но в темпе, подобном человеческому (возможно, порядка десятилетий), в масштабе времени, когда постоянное человеческое взаимодействие и исправление могут эффективно направлять развитие ИИ. [111] [112]
Рамез Наам выступает против жесткого взлета. Он указал, что мы уже видим рекурсивное самосовершенствование сверхразумов, таких как корпорации. Например, Intel имеет «коллективную интеллектуальную мощь десятков тысяч людей и, вероятно, миллионы ядер ЦП, чтобы... разрабатывать лучшие ЦП!» Однако это не привело к жесткому взлету; скорее, это привело к мягкому взлету в форме закона Мура . [113] Наам далее указывает, что вычислительная сложность высшего интеллекта может быть намного больше линейной, так что «создание разума интеллекта 2, вероятно, более чем в два раза сложнее, чем создание разума интеллекта 1» . [114]
J. Storrs Hall полагает, что «многие из наиболее часто встречающихся сценариев резкого взлета за одну ночь являются циклическими — они, по-видимому, предполагают сверхчеловеческие возможности в начальной точке процесса самосовершенствования», чтобы ИИ мог вносить существенные, общедоменные улучшения, необходимые для взлета. Холл предполагает, что вместо того, чтобы рекурсивно улучшать свое оборудование, программное обеспечение и инфраструктуру самостоятельно, начинающему ИИ было бы лучше специализироваться в одной области, где он наиболее эффективен, а затем покупать оставшиеся компоненты на рынке, поскольку качество продуктов на рынке постоянно улучшается, и ИИ будет трудно идти в ногу с передовыми технологиями, используемыми остальным миром. [115]
Бен Герцель согласен с предположением Холла, что новый ИИ человеческого уровня будет хорошо использовать свой интеллект для накопления богатства. Таланты ИИ могут вдохновить компании и правительства на распространение своего программного обеспечения по всему обществу. Герцель скептически относится к жесткому пятиминутному взлету, но предполагает, что взлет с человеческого до сверхчеловеческого уровня в течение порядка пяти лет является разумным. Он называет этот сценарий «полужестким взлетом». [116]
Макс Мор не согласен, утверждая, что если бы было всего несколько сверхбыстрых [ требуется разъяснение ] ИИ человеческого уровня, то они бы не изменили мир радикально, поскольку они все равно зависели бы от других людей, чтобы что-то сделать, и все равно имели бы человеческие когнитивные ограничения. Даже если бы все сверхбыстрые ИИ работали над усилением интеллекта, неясно, почему они преуспели бы прерывистым образом, чем существующие ученые-когнитивисты, в создании сверхчеловеческого интеллекта, хотя скорость прогресса увеличилась бы. Мор далее утверждает, что сверхразум не преобразит мир в одночасье: сверхразум должен был бы взаимодействовать с существующими, медленными человеческими системами, чтобы оказывать физическое воздействие на мир. «Необходимость сотрудничества, организации и внедрения идей в физические изменения гарантирует, что все старые правила не будут выброшены в одночасье или даже в течение лет». [117]
Дрекслер (1986), один из основателей нанотехнологий , постулирует устройства для ремонта клеток, включая те, которые работают внутри клеток и используют пока еще гипотетические биологические машины . [118] По словам Ричарда Фейнмана , именно его бывший аспирант и соратник Альберт Хиббс изначально предложил ему (около 1959 года) идею медицинского использования теоретических микромашин Фейнмана. Хиббс предположил, что некоторые машины для ремонта могут быть однажды уменьшены в размерах до такой степени, что теоретически будет возможно (как выразился Фейнман) « проглотить доктора ». Эта идея была включена в эссе Фейнмана 1959 года «На дне много места » . [119]
Моравек (1988) [35] предсказывает возможность «загрузки» человеческого разума в человекоподобного робота, достигая квазибессмертия за счет чрезвычайной долговечности путем передачи человеческого разума между последовательными новыми роботами по мере износа старых; кроме того, он предсказывает последующее экспоненциальное ускорение субъективного восприятия времени, приводящее к субъективному чувству бессмертия.
Курцвейл (2005) предполагает, что медицинские достижения позволят людям защитить свои тела от последствий старения, сделав продолжительность жизни безграничной . Курцвейл утверждает, что технологические достижения в медицине позволят нам постоянно восстанавливать и заменять дефектные компоненты в наших телах, продлевая жизнь до неопределенного возраста. [120] Курцвейл далее подкрепляет свой аргумент, обсуждая текущие достижения биоинженерии. Курцвейл предлагает соматическую генную терапию ; после синтетических вирусов с определенной генетической информацией следующим шагом будет применение этой технологии в генной терапии, заменяя человеческую ДНК синтезированными генами. [121]
Помимо простого продления срока службы физического тела, Джарон Ланье выступает за форму бессмертия, называемую «цифровым вознесением», которая подразумевает, что «люди умирают во плоти, загружаются в компьютер и остаются в сознании». [122]
В статье Махендры Прасада, опубликованной в журнале AI Magazine , утверждается, что математик XVIII века маркиз де Кондорсе был первым человеком, который выдвинул гипотезу и математически смоделировал взрыв интеллекта и его влияние на человечество. [123]
Раннее описание этой идеи было сделано в рассказе Джона У. Кэмпбелла «Последняя эволюция» 1932 года. [124]
В своем некрологе 1958 года Джону фон Нейману Улам вспомнил разговор с фон Нейманом о «постоянно ускоряющемся прогрессе технологий и изменениях в образе жизни человека, что создает видимость приближения некой существенной сингулярности в истории расы, за пределами которой человеческие дела, какими мы их знаем, не могут продолжаться». [6]
В 1965 году Гуд написал эссе, в котором постулировал «взрыв интеллекта» рекурсивного самосовершенствования машинного интеллекта. [18] [19]
В 1977 году Ганс Моравец написал статью с неясным статусом публикации, в которой он представил себе разработку самосовершенствующихся мыслящих машин, создание «сверхсознания, синтеза земной жизни, а также, возможно, жизни на Юпитере и Марсе, постоянно совершенствующегося и расширяющегося, распространяющегося за пределы Солнечной системы, преобразующего не-жизнь в разум». [125] [126] В статье описывается загрузка человеческого разума, позднее рассмотренная в работе Моравеца (1988). Ожидается, что машины достигнут человеческого уровня, а затем улучшат себя сверх этого («Самое важное, что их [машины] можно будет использовать в качестве программистов и инженеров, с задачей оптимизации программного обеспечения и оборудования, которые делают их такими, какие они есть. Последующие поколения машин, произведенных таким образом, будут все более умными и более экономически эффективными»). Люди больше не будут нужны, и их способности будут захвачены машинами: «В долгосрочной перспективе явная физическая неспособность людей идти в ногу с этим быстро развивающимся потомством наших умов гарантирует, что соотношение людей и машин приблизится к нулю, и что прямой потомок нашей культуры, но не наших генов, унаследует вселенную». Хотя слово «сингулярность» не используется, понятие мыслящих машин человеческого уровня, которые впоследствии улучшат себя сверх человеческого уровня, присутствует. С этой точки зрения, нет взрыва интеллекта в смысле очень быстрого увеличения интеллекта после достижения человеческого эквивалента. Обновленная версия статьи была опубликована в 1979 году в Analog Science Fiction and Fact . [127] [126]
В 1981 году Станислав Лем опубликовал свой научно-фантастический роман «Голем XIV» . В нем описывается военный компьютер с искусственным интеллектом (Голем XIV), который обретает сознание и начинает увеличивать свой собственный интеллект, двигаясь к личной технологической сингулярности. Голем XIV изначально был создан, чтобы помогать своим строителям в ведении войн, но по мере того, как его интеллект достигает гораздо более высокого уровня, чем у людей, он перестает интересоваться военными требованиями, поскольку находит их лишенными внутренней логической последовательности.
В 1983 году Вернор Виндж обратился к взрыву интеллекта Гуда в печатном издании журнала Omni за январь 1983 года . В этой статье Виндж, похоже, был первым, кто использовал термин «сингулярность» (хотя и не «технологическая сингулярность») в том смысле, который был конкретно связан с созданием интеллектуальных машин: [8] [126]
Мы скоро создадим интеллект, превосходящий наш собственный. Когда это произойдет, человеческая история достигнет своего рода сингулярности, интеллектуального перехода, столь же непроницаемого, как запутанное пространство-время в центре черной дыры, и мир выйдет далеко за пределы нашего понимания. Эта сингулярность, я полагаю, уже преследует многих писателей-фантастов. Она делает реалистичную экстраполяцию в межзвездное будущее невозможной. Чтобы написать историю, действие которой происходит более чем через столетие, нужна ядерная война между ними... чтобы мир оставался понятным.
В 1985 году в работе «Временная шкала искусственного интеллекта» исследователь искусственного интеллекта Рэй Соломонофф математически сформулировал связанное с этим понятие того, что он назвал «точкой бесконечности»: если исследовательскому сообществу самосовершенствующихся ИИ человеческого уровня потребуется четыре года, чтобы удвоить свою скорость, затем два года, затем один год и так далее, их возможности возрастут бесконечно за конечное время. [7] [128]
В 1986 году Вернор Виндж опубликовал Marooned in Realtime , научно-фантастический роман, в котором несколько оставшихся людей, путешествующих в будущее, пережили неизвестное событие вымирания, которое вполне может быть сингулярностью. В коротком послесловии автор утверждает, что настоящая технологическая сингулярность не станет концом человеческого вида: «конечно, кажется очень маловероятным, что Сингулярность будет полным исчезновением человеческой расы. (С другой стороны, такое исчезновение является временным аналогом тишины, которую мы обнаруживаем по всему небу.)». [129] [130]
В 1988 году Виндж использовал фразу «технологическая сингулярность» (включая «технологический») в сборнике рассказов « Угрозы и другие обещания» , написав во введении к своему рассказу «Вихрь времени» (стр. 72): За исключением всемирной катастрофы, я верю, что технология осуществит наши самые смелые мечты, и скоро. Когда мы повысим свой собственный интеллект и интеллект наших творений, мы больше не будем находиться в мире персонажей человеческого размера. В этот момент мы попадаем в технологическую «черную дыру», технологическую сингулярность. [131]
В 1988 году Ганс Моравек опубликовал книгу «Дети разума » [35] , в которой он предсказал интеллект человеческого уровня в суперкомпьютерах к 2010 году, самосовершенствующиеся интеллектуальные машины, намного превосходящие человеческий интеллект позже, загрузку человеческого разума в человекоподобных роботов позже, интеллектуальные машины, оставляющие людей позади, и космическую колонизацию. Он, однако, не упомянул «сингулярность», и он не говорил о быстром взрыве интеллекта сразу после достижения человеческого уровня. Тем не менее, общий тон сингулярности присутствует в предсказании как искусственного интеллекта человеческого уровня, так и дальнейшего искусственного интеллекта, намного превосходящего людей позже.
Статья Винджа 1993 года «Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху» [4] широко распространилась в Интернете и способствовала популяризации этой идеи. [132] В этой статье содержится утверждение: «В течение тридцати лет у нас появятся технологические средства для создания сверхчеловеческого интеллекта. Вскоре после этого человеческая эра закончится». Виндж утверждает, что авторы научной фантастики не могут создавать реалистичных персонажей постсингулярности, которые превосходят человеческий интеллект, поскольку мысли такого интеллекта будут за пределами способности людей выражать. [4]
В статье Мински 1994 года говорится, что роботы «унаследуют Землю», возможно, с использованием нанотехнологий, и предлагается думать о роботах как о человеческих «детях разума», проводя аналогию с Моравец. Риторический эффект этой аналогии заключается в том, что если люди могут передать мир своим биологическим детям, они должны быть столь же способны передать его роботам, своим «детям разума». По словам Мински, «мы могли бы спроектировать наших «детей разума», чтобы они думали в миллион раз быстрее, чем мы. Для такого существа полминуты могут показаться такими же длинными, как один наш год, а каждый час — как вся человеческая жизнь». Особенностью сингулярности, представленной в Мински, является развитие сверхчеловеческого искусственного интеллекта («в миллион раз быстрее»), но нет никаких разговоров о внезапном взрыве интеллекта, самосовершенствующихся мыслящих машинах или непредсказуемости за пределами какого-либо конкретного события, и слово «сингулярность» не используется. [133]
В книге Типлера 1994 года «Физика бессмертия» предсказывается будущее, в котором сверхразумные машины будут создавать невероятно мощные компьютеры, людей будут «имитировать» в компьютерах, жизнь охватит каждую галактику, а люди обретут бессмертие, достигнув точки Омега . [134] Не говорится о «сингулярности» Винджа или внезапном взрыве интеллекта, но интеллект, намного превосходящий человеческий, существует, равно как и бессмертие.
В 1996 году Юдковски предсказал сингулярность к 2021 году . [20] Его версия сингулярности предполагает взрыв интеллекта: как только ИИ начинают проводить исследования для своего совершенствования, скорость удваивается через 2 года, затем через год — в 1 раз, затем через 6 месяцев, затем через 3 месяца, затем через 1,5 месяца и после большего количества итераций достигается «сингулярность». [20] Эта конструкция подразумевает, что скорость достигает бесконечности за конечное время.
В 2000 году Билл Джой , известный технолог и соучредитель Sun Microsystems , выразил обеспокоенность по поводу потенциальной опасности робототехники, генной инженерии и нанотехнологий. [54]
В 2005 году Курцвейл опубликовал книгу «Сингулярность близка» . Рекламная кампания Курцвейла включала появление на The Daily Show с Джоном Стюартом . [135]
С 2006 по 2012 год ежегодная конференция Singularity Summit была организована Институтом исследований машинного интеллекта , основанным Элиезером Юдковски .
В 2007 году Юдковски предположил, что многие из различных определений, которые были даны «сингулярности», являются взаимно несовместимыми, а не взаимодополняющими. [30] [136] Например, Курцвейл экстраполирует текущие технологические траектории за пределы появления самосовершенствующегося ИИ или сверхчеловеческого интеллекта, что, по мнению Юдковски, представляет собой противоречие как с предложенным И. Дж. Гудом прерывистым подъемом интеллекта, так и с тезисом Винджа о непредсказуемости. [30]
В 2009 году Курцвейл и основатель X-Prize Питер Диамандис объявили о создании Singularity University , неаккредитованного частного института, чья заявленная миссия заключается в «обучении, вдохновении и расширении прав и возможностей лидеров для применения экспоненциальных технологий для решения грандиозных задач человечества». [137] Финансируемый Google , Autodesk , ePlanet Ventures и группой лидеров технологической отрасли , Singularity University базируется в исследовательском центре Эймса NASA в Маунтин -Вью , Калифорния . Некоммерческая организация проводит ежегодную десятинедельную программу для выпускников летом, которая охватывает десять различных технологических и смежных направлений, а также ряд программ для руководителей в течение года.
В 2007 году Объединенный экономический комитет Конгресса США опубликовал отчет о будущем нанотехнологий. Он предсказывает значительные технологические и политические изменения в среднесрочном будущем, включая возможную технологическую сингулярность. [138] [139] [140]
Бывший президент США Барак Обама говорил о сингулярности в своем интервью журналу Wired в 2016 году: [141]
Одна вещь, о которой мы не говорили слишком много, и я просто хочу вернуться к ней, это то, что нам действительно нужно продумать экономические последствия. Потому что большинство людей сейчас не тратят много времени на беспокойство о сингулярности — они беспокоятся о том, «Ну, а мою работу заменит машина?»
Наши самые мощные технологии 21-го века — робототехника, генная инженерия и нанотехнологии — угрожают превратить людей в исчезающий вид.
Некоторые говорят, что компьютеры никогда не смогут продемонстрировать настоящий интеллект, каким бы он ни был. Но мне кажется, что если очень сложные химические молекулы могут действовать в людях, делая их разумными, то столь же сложные электронные схемы могут также заставить компьютеры действовать разумным образом. И если они разумны, они, по-видимому, могут спроектировать компьютеры, которые будут иметь еще большую сложность и интеллект.