stringtranslate.com

Ник Бостром

Ник Бостром ( / ˈ b ɒ s t r əm / BOST -rəm ; швед . Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm] ; родился 10 марта 1973 года в Швеции ) [4]философ , известный своими работами по экзистенциальному риску , антропному принципу , этике улучшения человека , эмуляции всего мозга , рискам сверхразума и тесту на обратимость . Он был директором-основателем ныне распущенного Института будущего человечества в Оксфордском университете [5] и в настоящее время является главным научным сотрудником Инициативы по исследованию макростратегии. [6]

Бостром является автором книг «Антропное смещение: эффекты отбора наблюдений в науке и философии» (2002), [7] «Сверхразум: пути, опасности, стратегии» (2014) и «Глубокая утопия: жизнь и смысл в решенном мире» (2024).

Бостром считает, что достижения в области искусственного интеллекта (ИИ) могут привести к сверхинтеллекту , который он определяет как «любой интеллект, который значительно превосходит когнитивные способности людей практически во всех областях интересов». Он рассматривает это как главный источник возможностей и экзистенциальных рисков. [5] [8]

Ранняя жизнь и образование

Родился как Никлас Бострём в 1973 году в Хельсингборге , Швеция, [9] он не любил школу в юном возрасте и провел последний год в средней школе, обучаясь дома. Он интересовался широким спектром академических областей, включая антропологию, искусство, литературу и науку. [1]

Он получил степень бакалавра в Гетеборгском университете в 1994 году. [10] Затем он получил степень магистра философии и физики в Стокгольмском университете и степень магистра вычислительной нейронауки в Королевском колледже Лондона в 1996 году. Во время своего пребывания в Стокгольмском университете он исследовал связь между языком и реальностью, изучая аналитического философа У. В. Куайна . [1] Он также сделал несколько выступлений в лондонском стендап-комедийном кругу. [9] В 2000 году он получил степень доктора философии в Лондонской школе экономики . Его диссертация называлась «Эффекты наблюдательного отбора и вероятность» . [11] Он занимал преподавательскую должность в Йельском университете с 2000 по 2002 год и был постдокторантом Британской академии в Оксфордском университете с 2002 по 2005 год. [7]

Исследовать

Экзистенциальный риск

Исследования Бострома касаются будущего человечества и долгосрочных результатов. [5] [12] Он обсуждает экзистенциальный риск , [1] который он определяет как риск, при котором «неблагоприятный исход либо уничтожит разумную жизнь, возникшую на Земле, либо навсегда и радикально сократит ее потенциал». Бострома больше всего беспокоят антропогенные риски, которые возникают в результате деятельности человека, в частности, новых технологий, таких как передовой искусственный интеллект, молекулярная нанотехнология или синтетическая биология . [13]

В 2005 году Бостром основал Институт будущего человечества , который [1] до своего закрытия в 2024 году исследовал далекое будущее человеческой цивилизации. [14] [15] Он также является советником Центра по изучению экзистенциального риска . [12]

В сборнике эссе 2008 года « Глобальные катастрофические риски » редакторы Бостром и Милан М. Чиркович характеризуют связь между экзистенциальным риском и более широким классом глобальных катастрофических рисков, а также связывают экзистенциальный риск с эффектами выбора наблюдателя [16] и парадоксом Ферми [17] .

Гипотеза уязвимого мира

В статье под названием «Гипотеза уязвимого мира» [18] Бостром предполагает, что могут существовать некоторые технологии, которые по умолчанию [a] уничтожают человеческую цивилизацию при их обнаружении. Бостром предлагает структуру для классификации и работы с этими уязвимостями. Он также приводит контрфактуальные мысленные эксперименты о том, как такие уязвимости могли бы возникнуть исторически, например, если бы ядерное оружие было легче разработать или оно бы воспламенило атмосферу (чего опасался Роберт Оппенгеймер ). [20]

Сверхразум

В 2014 году Бостром опубликовал книгу «Superintelligence: Paths, Dangers, Strategies» , которая стала бестселлером New York Times . [21] В книге утверждается, что сверхразум возможен, и исследуются различные типы сверхразумов, их познание, связанные с этим риски. Он также представляет технические и стратегические соображения о том, как сделать его безопасным.

Характеристики сверхразума

Бостром исследует несколько возможных путей к сверхразуму, включая эмуляцию всего мозга и улучшение человеческого интеллекта, но фокусируется на общем искусственном интеллекте , объясняя, что электронные устройства имеют много преимуществ по сравнению с биологическим мозгом. [22]

Бостром проводит различие между конечными целями и инструментальными целями . Конечная цель — это то, чего агент пытается достичь ради собственной внутренней ценности. Инструментальные цели — это всего лишь промежуточные шаги на пути к конечным целям. Бостром утверждает, что существуют инструментальные цели, которые будут разделяться большинством достаточно интеллектуальных агентов, поскольку они, как правило, полезны для достижения любой цели (например, сохранения собственного существования агента или текущих целей, приобретения ресурсов, улучшения его познания...), это концепция инструментальной конвергенции . С другой стороны, он пишет, что практически любой уровень интеллекта теоретически может быть объединен практически с любой конечной целью (даже абсурдными конечными целями, например, изготовлением скрепок ), эту концепцию он называет тезисом ортогональности . [23]

Он утверждает, что ИИ, способный к самосовершенствованию, может инициировать взрыв интеллекта , что приведет (потенциально быстро) к появлению сверхинтеллекта. [24] Такой сверхинтеллект может обладать значительно превосходящими возможностями, особенно в стратегировании, социальной манипуляции, хакерстве или экономической производительности. Обладая такими возможностями, сверхинтеллект может перехитрить людей и захватить мир, установив синглтон ( который является «мировым порядком, в котором на глобальном уровне существует единый орган принятия решений» [b] ) и оптимизируя мир в соответствии со своими конечными целями. [22]

Бостром утверждает, что постановка перед сверхразумом упрощенных конечных целей может иметь катастрофические последствия:

Предположим, мы даем ИИ цель заставить людей улыбаться. Когда ИИ слаб, он выполняет полезные или забавные действия, которые заставляют его пользователя улыбаться. Когда ИИ становится сверхразумным, он понимает, что есть более эффективный способ достичь этой цели: взять под контроль мир и вставить электроды в лицевые мышцы людей, чтобы вызывать постоянные, сияющие улыбки. [25]

Снижение риска

Бостром исследует несколько путей снижения экзистенциального риска от ИИ . Он подчеркивает важность международного сотрудничества, в частности, для снижения гонки на износ и динамики гонки вооружений ИИ . Он предлагает потенциальные методы, помогающие контролировать ИИ, включая сдерживание, замедление возможностей или знаний ИИ, сужение рабочего контекста (например, до вопросов-ответов) или «растяжки» (диагностические механизмы, которые могут привести к отключению). [22] Но Бостром утверждает, что «мы не должны быть уверены в нашей способности вечно держать сверхразумного джинна запертым в его бутылке. Рано или поздно он вырвется». Таким образом, он предполагает, что для того, чтобы быть безопасным для человечества, сверхразум должен быть согласован с моралью или человеческими ценностями, чтобы он был «в основе своей на нашей стороне». [26] Потенциальные рамки нормативности ИИ включают в себя последовательное экстраполированное волеизъявление Юдковски (человеческие ценности, улучшенные посредством экстраполяции), моральную правильность (делать то, что морально правильно) и моральную допустимость (следовать последовательному экстраполированному волеизъявлению человечества, за исключением случаев, когда это морально недопустимо). [22]

Бостром предупреждает, что экзистенциальная катастрофа может также произойти из-за того, что люди будут злоупотреблять ИИ в разрушительных целях или из-за того, что люди не будут принимать во внимание потенциальный моральный статус цифровых умов. Несмотря на эти риски, он говорит, что машинный суперинтеллект, похоже, в какой-то момент участвует во «всех вероятных путях к действительно великому будущему». [8]

Общественная приемная

«Superintelligence: Paths, Dangers, Strategies» стала бестселлером New York Times и получила положительные отзывы от таких личностей, как Стивен Хокинг , Билл Гейтс , Илон Маск , Питер Сингер и Дерек Парфит . Ее хвалили за то, что она предлагала четкие и убедительные аргументы по забытой, но важной теме. Иногда ее критиковали за распространение пессимизма относительно потенциала ИИ или за сосредоточение на долгосрочных и спекулятивных рисках. [27] Некоторые скептики, такие как Дэниел Деннетт или Орен Этциони, утверждали, что сверхинтеллект слишком далек, чтобы риск был значительным. [28] [29] Янн Лекун считает, что экзистенциального риска нет, утверждая, что сверхразумный ИИ не будет стремиться к самосохранению [30] и что экспертам можно доверять, чтобы сделать его безопасным. [31]

Раффи Хачадурян написал, что книга Бострома о сверхинтеллекте «не претендует на звание трактата, отличающегося глубокой оригинальностью; вклад Бострома заключается в том, что он наложил строгость аналитической философии на беспорядочный корпус идей, возникших на периферии академической мысли». [27]

Глубокая утопия

Несмотря на популяризацию понятия экзистенциального риска от ИИ, Бостром также проанализировал потенциальные преимущества. В своей книге 2024 года « Глубокая утопия: жизнь и смысл в решенном мире » он исследует концепцию идеальной жизни, если человечество успешно перейдет в мир после сверхразума. Бостром отмечает, что вопрос не в том, «насколько интересно смотреть на будущее, а в том, насколько хорошо в нем жить». Он описывает некоторые технологии, которые он считает физически возможными в теории и доступными на технологической зрелости, такие как когнитивное улучшение , обращение вспять старения , произвольные сенсорные входы (вкус, звук...) или точный контроль мотивации, настроения, благополучия и личности. По его словам, машины не только будут лучше людей в работе, но и подорвут цель многих видов досуга, обеспечивая крайнее благополучие, одновременно бросая вызов поиску смысла. [32] [33]

Цифровая чувствительность

Бостром поддерживает принцип независимости субстрата, идею о том, что сознание может возникать на различных типах физических субстратов, а не только в «биологических нейронных сетях на основе углерода», таких как человеческий мозг. [34] Он считает, что « чувственность — это вопрос степени» [35] и что цифровые умы теоретически могут быть спроектированы так, чтобы иметь гораздо более высокую скорость и интенсивность субъективного опыта, чем люди, используя меньше ресурсов. Такие высокочувствительные машины, которых он называет «супер-бенефициарами», были бы чрезвычайно эффективны в достижении счастья. Он рекомендует найти «пути, которые позволят цифровым умам и биологическим умам сосуществовать взаимовыгодным образом, где все эти различные формы могут процветать и процветать». [36]

Антропное рассуждение

Бостром опубликовал множество статей по антропному мышлению , а также книгу «Антропное смещение: эффекты отбора наблюдений в науке и философии» . В книге он критикует предыдущие формулировки антропного принципа, в том числе Брэндона Картера , Джона Лесли , Джона Барроу и Фрэнка Типлера . [37]

Бостром считает, что неправильное обращение с индексальной информацией является распространенным недостатком во многих областях исследования (включая космологию, философию, теорию эволюции, теорию игр и квантовую физику). Он утверждает, что для решения этих проблем необходима антропная теория. Он вводит предположение о самовыборке ( SSA) и предположение о самоиндикации (SIA), показывает, как они приводят к разным выводам в ряде случаев, и определяет, как каждый из них подвержен парадоксам или контринтуитивным импликациям в определенных мысленных экспериментах. Он предполагает, что путь вперед может включать расширение SSA до сильного предположения о самовыборке (SSSA), которое заменяет «наблюдателей» в определении SSA на «моменты наблюдателя».

В более поздней работе он предложил совместно с Миланом М. Чирковичем и Андерсом Сандбергом явление антропной тени , эффект отбора наблюдения, который не позволяет наблюдателям наблюдать определенные виды катастроф в их недавнем геологическом и эволюционном прошлом. Они предполагают, что события, которые лежат в антропной тени, вероятно, будут недооценены, если не будут сделаны статистические поправки. [38] [39]

Аргумент моделирования

Аргумент Бострома о моделировании предполагает, что по крайней мере одно из следующих утверждений, скорее всего, является истинным: [40] [41]

  1. Доля цивилизаций человеческого уровня, достигших постчеловеческой стадии, очень близка к нулю;
  2. Доля постчеловеческих цивилизаций, заинтересованных в запуске симуляций предков, очень близка к нулю;
  3. Доля всех людей с нашим опытом, живущих в симуляции, очень близка к единице.

Этика человеческого совершенствования

Бостром благосклонно относится к «улучшению человека» или «самосовершенствованию и совершенствованию человека посредством этического применения науки», а также критикует биоконсервативные взгляды. [42]

В 1998 году Бостром стал соучредителем (совместно с Дэвидом Пирсом ) Всемирной трансгуманистической ассоциации [42] (которая с тех пор сменила название на Humanity+ ). В 2004 году он стал соучредителем (совместно с Джеймсом Хьюзом ) Института этики и новых технологий [43] , хотя больше не участвует ни в одной из этих организаций.

В 2005 году Бостром опубликовал короткий рассказ « Басня о драконе-тиране » в журнале Journal of Medical Ethics . Более короткая версия была опубликована в 2012 году в Philosophy Now . [44] Басня олицетворяет смерть как дракона, который требует дани от тысяч людей каждый день. История исследует, как предвзятость статус-кво и выученная беспомощность могут помешать людям предпринять действия для победы над старением, даже когда средства для этого есть в их распоряжении. YouTuber CGP Grey создал анимированную версию истории. [45]

Совместно с философом Тоби Ордом он предложил тест на изменение в 2006 году. Учитывая иррациональную предвзятость людей к статус-кво, как можно отличить обоснованную критику предлагаемых изменений в человеческой черте от критики, мотивированной просто сопротивлением изменениям? Тест на изменение пытается сделать это, спрашивая, было бы хорошо, если бы черта была изменена в противоположном направлении. [46]

В своей работе Бостром также рассматривает потенциальные дисгенные эффекты в человеческих популяциях, но он считает, что генная инженерия может обеспечить решение, и что «в любом случае временные рамки естественной генетической эволюции человека кажутся слишком большими, чтобы такие разработки могли оказать какое-либо существенное влияние до того, как другие разработки сделают этот вопрос спорным». [25]

Технологическая стратегия

Бостром предположил, что технологическая политика, направленная на снижение экзистенциального риска, должна стремиться влиять на порядок, в котором достигаются различные технологические возможности, предлагая принцип дифференциального технологического развития . Этот принцип гласит, что мы должны сдерживать развитие опасных технологий, особенно тех, которые повышают уровень экзистенциального риска, и ускорять развитие полезных технологий, особенно тех, которые защищают от экзистенциальных рисков, создаваемых природой или другими технологиями. [25]

В 2011 году Бостром основал Оксфордскую программу Мартина по влиянию будущих технологий. [47]

Теория Бострома о проклятии односторонних действий была приведена в качестве причины, по которой научное сообщество избегает спорных и опасных исследований, таких как реанимация патогенов. [48]

Награды

Бостром был назван в списке ведущих мировых мыслителей журнала Foreign Policy за 2009 год «за то, что он не признает никаких ограничений человеческого потенциала». [ 49 ] Журнал Prospect Magazine включил Бострома в свой список ведущих мировых мыслителей за 2014 год . [50]

Участие общественности

Бостром предоставлял политические консультации и консультировал многие правительства и организации. Он давал показания в Палате лордов , в Комитете по цифровым навыкам. [51] Он является членом консультативного совета Института исследований машинного интеллекта , [52] Института будущего жизни , [53] и внешним консультантом Кембриджского центра по изучению экзистенциального риска . [54]

Споры по электронной почте 1996 года

В январе 2023 года Бостром извинился [55] за электронное письмо 1996 года, которое он отправил, будучи аспирантом [56], в котором он заявил, что, по его мнению, «черные глупее белых», и где он также использовал слово « ниггеры » в описании того, как, по его мнению, это заявление может быть воспринято другими. [57] В извинении, опубликованном на его веб-сайте, [55] говорилось, что «упоминание расового оскорбления было отвратительным» и что он «полностью отвергает это отвратительное электронное письмо». В своем извинении он написал: «Я считаю крайне несправедливым, что неравный доступ к образованию, питательным веществам и базовому здравоохранению приводит к неравенству в социальных результатах, включая иногда различия в навыках и когнитивных способностях». [58] По словам Эндрю Энтони из The Guardian , «извинения не умиротворили критиков Бострома, не в последнюю очередь потому, что он явно не отказался от своего центрального утверждения относительно расы и интеллекта и, по-видимому, частично защищал евгенику ». [59]

В январе 2023 года Оксфордский университет сообщил The Daily Beast : «Университет и философский факультет в настоящее время расследуют этот вопрос, но самым решительным образом осуждают взгляды, высказанные этим конкретным ученым в его сообщениях». [57] Урсула Куп , председатель совета факультета философии Оксфордского университета, отправила электронное письмо нынешним студентам и выпускникам, в котором заявила, что она «потрясена и расстроена» электронным письмом Бострома от 1996 года. [60] По словам Бострома, расследование Оксфордского университета завершилось 10 августа 2023 года: «Мы не считаем вас расистом или что вы придерживаетесь расистских взглядов, и мы считаем, что извинения, которые вы опубликовали в январе 2023 года, были искренними». [61] [59]

Избранные произведения

Книги

Журнальные статьи

Личная жизнь

Бостром встретил свою жену Сьюзан в 2002 году. По состоянию на 2015 год она жила в Монреале , а Бостром в Оксфорде. У них был один сын. [1]

Смотрите также

Примечания

  1. ^ Бостром говорит, что риск можно снизить, если общество в достаточной степени выйдет из того, что он называет «полуанархическим состоянием по умолчанию», что примерно означает ограниченные возможности для превентивной полиции и глобального управления, а также наличие людей с различными мотивами. [19]
  2. ^ Бостром отмечает, что «концепция синглтона является абстрактной: синглтоном может быть демократия, тирания, единый доминирующий ИИ, строгий набор глобальных норм, включающий эффективные положения для их собственного обеспечения, или даже инопланетный повелитель — его определяющей характеристикой является то, что это просто некая форма агентства, которая может решить все основные проблемы глобальной координации» [22]

Ссылки

  1. ^ abcdefg Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня». Житель Нью-Йорка . Том. XCI, нет. 37. С. 64–79. ISSN  0028-792X.
  2. ^ "Бесконечная этика" (PDF) . nickbostrom.com . Получено 21 февраля 2019 г. .
  3. Skeptic (16 апреля 2024 г.). «Ник Бостром — Жизнь и смысл в решенном мире». Skeptic . Получено 30 апреля 2024 г. .
  4. ^ "nickbostrom.com". Nickbostrom.com. Архивировано из оригинала 30 августа 2018 года . Получено 16 октября 2014 года .
  5. ^ abc Shead, Sam (25 мая 2020 г.). «Как старейшие университеты Британии пытаются защитить человечество от рискованного ИИ» CNBC . Получено 5 июня 2023 г.
  6. ^ "Домашняя страница Ника Бострома". nickbostrom.com . Получено 19 апреля 2024 г. .
  7. ^ ab "Ник Бостром об искусственном интеллекте". Oxford University Press . 8 сентября 2014 г. Получено 4 марта 2015 г.
  8. ^ ab "Ник Бостром о рождении сверхразума". Big Think . Получено 14 августа 2023 г. .
  9. ^ ab Thornhill, John (14 июля 2016 г.). «Искусственный интеллект: можем ли мы его контролировать?» . Financial Times . Архивировано из оригинала 10 декабря 2022 г. Получено 10 августа 2016 г. (требуется подписка)
  10. ^ Бостром, Ник. «CV» (PDF) .
  11. ^ Бостром, Ник (2000). Эффекты наблюдательного отбора и вероятность (PhD). Лондонская школа экономики и политических наук . Получено 25 июня 2021 г.
  12. ^ ab Andersen, Ross. "Omens". Aeon . Архивировано из оригинала 18 октября 2015 года . Получено 5 сентября 2015 года .
  13. ^ Андерсен, Росс (6 марта 2012 г.). «Мы недооцениваем риск человеческого вымирания». The Atlantic . Получено 6 июля 2023 г. .
  14. ^ Майберг, Эмануэль (17 апреля 2024 г.). «Институт, который был пионером в исследовании экзистенциального риска ИИ, закрылся». 404 Media . Получено 12 сентября 2024 г.
  15. ^ "Институт будущего человечества". 17 апреля 2024 г. Архивировано из оригинала 17 апреля 2024 г. Получено 17 апреля 2024 г.
  16. ^ Тегмарк, Макс ; Бостром, Ник (2005). «Астрофизика: вероятна ли катастрофа конца света?» (PDF) . Nature . 438 (7069): 754. Bibcode : 2005Natur.438..754T. doi : 10.1038/438754a. PMID  16341005. S2CID  4390013. Архивировано из оригинала (PDF) 3 июля 2011 г.
  17. Overbye, Dennis (3 августа 2015 г.). «Обратная сторона оптимизма относительно жизни на других планетах». The New York Times . Получено 29 октября 2015 г.
  18. ^ Бостром, Ник (ноябрь 2019 г.). «Гипотеза уязвимого мира» (PDF) . Глобальная политика . 10 (4): 455–476. doi :10.1111/1758-5899.12718.
  19. ^ Абхиджит, Катте (25 декабря 2018 г.). «Конца света от ИИ можно избежать, если создать «мировое правительство»: Ник Бостром». Журнал Analytics India .
  20. ^ Пайпер, Келси (19 ноября 2018 г.). «Как технологический прогресс делает более вероятным, чем когда-либо, что люди уничтожат себя». Vox . Получено 5 июля 2023 г. .
  21. ^ «Самые продаваемые научные книги». The New York Times . 8 сентября 2014 г. Получено 19 февраля 2015 г.
  22. ^ abcde Бостром, Ник (2016). Суперинтеллект . Oxford University Press. С. 98–111. ISBN 978-0-19-873983-8. OCLC  943145542.
  23. ^ Бостром, Ник (11 сентября 2014 г.). «Вы должны бояться сверхразумных машин». Slate . ISSN  1091-2339 . Получено 13 сентября 2024 г. .
  24. ^ "Clever cogs". The Economist . ISSN  0013-0613 . Получено 14 августа 2023 г.
  25. ^ abc Бостром, Ник (2002). «Экзистенциальные риски — анализ сценариев вымирания человечества и связанных с ними опасностей». Журнал эволюции и технологий .
  26. ^ Бостром, Ник (март 2015 г.). «Что произойдёт, когда наши компьютеры станут умнее нас?». TED .
  27. ^ ab Хатчадурян, Раффи (16 ноября 2015 г.). «Изобретение Судного дня». The New Yorker . Получено 13 августа 2023 г. .
  28. ^ "Is Superintelligence Impossible?". Edge . Получено 13 августа 2023 г.
  29. ^ Орен Этциони (2016). «Нет, эксперты не считают, что сверхразумный ИИ представляет угрозу человечеству». MIT Technology Review.
  30. ^ Arul, Akashdeep (27 января 2022 г.). «Янн Лекун разжигает дискуссию об AGI против ИИ человеческого уровня». Analytics India Magazine . Получено 14 августа 2023 г.
  31. ^ Тейлор, Хлоя (15 июня 2023 г.). «Почти половина генеральных директоров опасается, что ИИ может уничтожить человечество через пять-десять лет, но «крестный отец ИИ» говорит, что экзистенциальная угроза «нелепа до нелепости»». Fortune . Получено 14 августа 2023 г.
  32. ^ Кой, Питер (5 апреля 2024 г.). «Если ИИ заберет все наши рабочие места, заберет ли он и нашу цель?». The New York Times . ISSN  0362-4331 . Получено 8 июля 2024 г.
  33. ^ Бостром, Ник (2024). «Технологическая зрелость». Глубокая утопия: жизнь и смысл в решенном мире . Вашингтон, округ Колумбия: Ideapress Publishing. ISBN 978-1-64687-164-3.
  34. ^ Бостром, Ник (2003). «Живете ли вы в компьютерной симуляции?» (PDF) . Philosophical Quarterly . 53 (211): 243–255. doi :10.1111/1467-9213.00309.
  35. ^ Джексон, Лорен (12 апреля 2023 г.). «Что, если чувствительность ИИ — это вопрос степени?». The New York Times . ISSN  0362-4331 . Получено 5 июля 2023 г.
  36. Фишер, Ричард (13 ноября 2020 г.). «Умный монстр, которому вы должны позволить себя съесть». BBC . Получено 5 июля 2023 г.
  37. ^ Бостром, Ник (2002). Антропное смещение: эффекты отбора наблюдений в науке и философии (PDF) . Нью-Йорк: Routledge. С. 44–58. ISBN 978-0-415-93858-7. Получено 22 июля 2014 г.
  38. ^ Браннен, Питер (15 марта 2018 г.). «Почему история Земли кажется такой чудесной». The Atlantic . Получено 12 сентября 2024 г. .
  39. ^ "Антропная тень: эффекты отбора наблюдений и риски вымирания человечества" (PDF) . Nickbostrom.com . Получено 16 октября 2014 г. .
  40. ^ Саттер, Пол (31 января 2024 г.). «Может ли наша Вселенная быть симуляцией? Как мы вообще можем это узнать?». Ars Technica . Получено 12 сентября 2024 г.
  41. ^ Несбит, Джефф. «Доказательство аргумента о симуляции». Новости США . Получено 17 марта 2017 г.
  42. ^ ab Сазерленд, Джон (9 мая 2006 г.). «Интервью об идеях: Ник Бостром; Джон Сазерленд встречается с трансгуманистом, который борется с этикой технологически усовершенствованных людей». The Guardian .
  43. ^ "Философская история трансгуманизма". Philosophy Now . 2024. Получено 12 сентября 2024 .
  44. Бостром, Ник (12 июня 2012 г.). «Басня о драконе-тиране». Philosophy Now . 89 : 6–9.
  45. ^ Басня о драконе-тиране (видео). 24 апреля 2018 г.
  46. ^ Бостром, Ник; Орд, Тоби (2006). «Тест на обратимость: устранение смещения статус-кво в прикладной этике» (PDF) . Этика . 116 (4): 656–679. doi :10.1086/505233. PMID  17039628. S2CID  12861892.
  47. ^ "Профессор Ник Бостром: Люди". Oxford Martin School. Архивировано из оригинала 15 сентября 2018 года . Получено 16 октября 2014 года .
  48. ^ Льюис, Грегори (19 февраля 2018 г.). «Синтез лошадиной оспы: случай проклятия одностороннего движения?». Bulletin of the Atomic Scientists . Архивировано из оригинала 25 февраля 2018 г. Получено 26 февраля 2018 г.
  49. ^ "100 лучших мировых мыслителей по версии FP – 73. Ник Бостром". Foreign Policy . 30 ноября 2009 г. Архивировано из оригинала 21 октября 2014 г.
  50. ^ Кутчински, Серена (23 апреля 2014 г.). «Мировые мыслители 2014: результаты». Prospect . Получено 19 июня 2022 г. .
  51. ^ "Комитет по цифровым навыкам – хронология". Парламент Великобритании . Получено 17 марта 2017 г.
  52. ^ "Команда – Институт исследований машинного интеллекта". Институт исследований машинного интеллекта . Получено 17 марта 2017 г.
  53. ^ "Команда – Институт будущего жизни". Институт будущего жизни . Получено 17 марта 2017 г.
  54. ^ Макбейн, Софи (4 октября 2014 г.). «Скоро Апокалипсис: познакомьтесь с учеными, готовящимися к концу времен». New Republic . Получено 17 марта 2017 г.
  55. ^ ab Bostrom, Nick. «Извинение за старое письмо» (PDF) . nickbostrom.com . Получено 17 января 2024 г. .
  56. ^ "extropians: Re: Offending People's Minds". 27 апреля 2015 г. Архивировано из оригинала 27 апреля 2015 г. Получено 24 июня 2024 г.
  57. ^ ab Ladden-Hall, Dan (12 января 2023 г.). «Ведущий философ Оксфорда Ник Бостром признался в написании «отвратительной» массовой электронной почты со словом на букву «н»». The Daily Beast . Получено 12 января 2023 г.
  58. ^ Бильярд, Дилан (15 января 2023 г.). «Начато расследование расистского электронного письма дона Оксфорда». The Oxford Blue .
  59. ^ ab Anthony, Andrew (28 апреля 2024 г.). «Евгеника на стероидах»: токсичное и спорное наследие Oxford's Future of Humanity Institute». The Observer . ISSN  0029-7712 . Получено 4 июля 2024 г. Извинения не умиротворили критиков Бострома, не в последнюю очередь потому, что он явно не отказался от своего центрального утверждения относительно расы и интеллекта и, казалось, частично защищал евгенику. Хотя после расследования Оксфордский университет признал, что Бостром не был расистом, весь этот эпизод оставил пятно на репутации института.
  60. ^ Снепвангерс, Питер. «Оксфордский университет предлагает студентам поддержку, но не сообщает о каких-либо мерах против профессора Бострома». The Tab . Получено 6 июня 2023 г.
  61. ^ Бостром, Ник. "Извинение за старое письмо" (PDF) . nickbostrom.com . мы не считаем вас расистом или придерживаемся расистских взглядов, и мы считаем, что извинения, которые вы опубликовали в январе 2023 года, были искренними. … мы считаем, что ваши извинения, ваше признание причиненного вами страдания и ваша признательность за заботу и время, которые все уделили этому процессу, были подлинными и искренними. Нас также воодушевило то, что вы уже вступили на путь глубокого и осмысленного размышления, которое включает в себя изучение обучения и самообразования в ходе этого процесса.

Внешние ссылки