stringtranslate.com

Глобальный катастрофический риск

Впечатление художника от падения крупного астероида . Астероид стал причиной вымирания нептичьих динозавров . [1]

Глобальный катастрофический риск или сценарий конца света — это гипотетическое событие, которое может нанести ущерб благополучию человека в глобальном масштабе [2] даже поставить под угрозу или уничтожить современную цивилизацию . [3] Событие, которое может привести к исчезновению человечества или навсегда и резко ограничить существование или потенциал человечества, известно как « экзистенциальный риск ». [4]

За последние два десятилетия [ когда? ] Был создан ряд академических и некоммерческих организаций для исследования глобальных катастрофических и экзистенциальных рисков, разработки потенциальных мер по смягчению последствий и либо пропаганды, либо реализации этих мер. [5] [6] [7] [8]

Определение и классификация

Таблица масштабов и серьезности из статьи Бострома «Предотвращение экзистенциальных рисков как глобальный приоритет» [9]

Определение глобальных катастрофических рисков

Термину «глобальный катастрофический риск» «не хватает четкого определения» и обычно относится (в общих чертах) к риску, который может нанести «серьезный ущерб благополучию человека в глобальном масштабе». [10]

Человечество и раньше переживало крупные катастрофы. Некоторые из них нанесли серьезный ущерб, но носили лишь локальный характер – например, Черная смерть могла привести к гибели трети населения Европы, [11] 10% мирового населения в то время. [12] Некоторые из них были глобальными, но не такими серьезными — например, пандемия гриппа 1918 года унесла жизни примерно 3–6% населения мира. [13] Большинство глобальных катастрофических рисков не будут настолько интенсивными, чтобы уничтожить большую часть жизни на Земле, но даже если бы они это сделали, экосистема и человечество в конечном итоге восстановились бы (в отличие от экзистенциальных рисков ).

Точно так же в книге «Катастрофа: риск и ответ» Ричард Познер выделяет и группирует события, которые приводят к «полному свержению или разорению» в глобальном, а не «локальном или региональном» масштабе. Познер подчеркивает, что такие события заслуживают особого внимания с точки зрения затрат и выгод , поскольку они могут прямо или косвенно поставить под угрозу выживание человечества в целом. [14]

Определение экзистенциальных рисков

Экзистенциальные риски определяются как «риски, которые угрожают разрушением долгосрочного потенциала человечества». [15] Реализация экзистенциального риска ( экзистенциальной катастрофы [16] ) либо приведет к полному исчезновению человечества, либо необратимо зафиксирует радикально худшее положение дел. [9] [17] Экзистенциальные риски представляют собой подкласс глобальных катастрофических рисков, где ущерб носит не только глобальный , но и окончательный и постоянный характер, препятствуя восстановлению и тем самым затрагивая как нынешнее, так и все будущие поколения. [9]

Риски невымирания

Хотя вымирание является наиболее очевидным способом уничтожения долгосрочного потенциала человечества, существуют и другие, в том числе невосстановимый коллапс и невосстановимая антиутопия . [18] Катастрофа, достаточно серьезная, чтобы вызвать перманентный, необратимый коллапс человеческой цивилизации, будет представлять собой экзистенциальную катастрофу, даже если она не достигнет исчезновения. [18] Точно так же, если бы человечество попало под тоталитарный режим и не было бы шансов на выздоровление, то такая антиутопия также была бы экзистенциальной катастрофой. [19] Брайан Каплан пишет, что «возможно, вечность тоталитаризма была бы хуже, чем вымирание». [19] ( Роман Джорджа Оруэлла «Девятнадцать восемьдесят четыре» предлагает [20] пример. [21] ) Антиутопический сценарий разделяет ключевые черты вымирания и невосстановимого краха цивилизации: перед катастрофой человечество столкнулось с огромным диапазоном светлых будущих. выбирать из; после катастрофы человечество навсегда оказывается в ужасном состоянии. [18]

Потенциальные источники риска

Потенциальные глобальные катастрофические риски условно классифицируются как антропогенные и неантропогенные опасности. Примерами неантропогенных рисков являются событие столкновения с астероидом или кометой , извержение супервулкана , природная пандемия , смертельный гамма-всплеск , геомагнитная буря в результате выброса корональной массы , разрушающая электронное оборудование, естественное долгосрочное изменение климата , враждебные инопланетяне. жизнь или Солнце , превратившееся в красную гигантскую звезду и поглотившее Землю через миллиарды лет в будущем .

Разделение глобальных катастрофических рисков на три группы в зависимости от того, являются ли они в основном антропогенными, антропогенными воздействиями на природу или чисто естественными.

Антропогенные риски – это риски, вызванные деятельностью человека, включая риски, связанные с технологиями, управлением и изменением климата. Технологические риски включают создание искусственного интеллекта, несовместимого с человеческими целями, биотехнологии и нанотехнологии . Недостаточное или вредоносное глобальное управление создает риски в социальной и политической сфере, такие как глобальная война и ядерный холокост , биологическая война и биотерроризм с использованием генетически модифицированных организмов , кибервойна и кибертерроризм , разрушающие критически важную инфраструктуру , такую ​​​​как электрические сети , или радиологическая война с использованием такого оружия, как большие кобальтовые бомбы . Глобальные катастрофические риски в сфере управления системой Земли включают глобальное потепление , деградацию окружающей среды , исчезновение видов , голод в результате несправедливого распределения ресурсов, человеческое перенаселение , неурожаи и неустойчивое сельское хозяйство .

Методологические проблемы

Исследования природы и смягчения глобальных катастрофических рисков и экзистенциальных рисков сталкиваются с уникальным набором проблем и, как следствие, нелегко подчиняются обычным стандартам научной строгости. [18] Например, экспериментальное изучение этих рисков нецелесообразно и неэтично. Карл Саган выразил это по поводу ядерной войны: «Понимание долгосрочных последствий ядерной войны не является проблемой, поддающейся экспериментальной проверке». [22] Более того, многие катастрофические риски быстро меняются по мере развития технологий и изменения фоновых условий, таких как геополитические условия. Еще одной проблемой является общая сложность точного прогнозирования будущего в длительных временных масштабах, особенно в отношении антропогенных рисков, которые зависят от сложных политических, экономических и социальных систем человека. [18] В дополнение к известным и ощутимым рискам, могут произойти непредвиденные события исчезновения черного лебедя , что представляет собой дополнительную методологическую проблему. [18] [23]

Отсутствие исторического прецедента

Человечество никогда не переживало экзистенциальную катастрофу, и если бы она произошла, она обязательно была бы беспрецедентной. [18] Таким образом, экзистенциальные риски создают уникальные проблемы для прогнозирования, даже более серьезные, чем другие долгосрочные события, из-за эффектов отбора наблюдений . [24] В отличие от большинства событий, неспособность полного вымирания произойти в прошлом не является свидетельством против их вероятности в будущем, потому что в каждом мире, который пережил такое событие вымирания, нет наблюдателей, поэтому независимо от их частоты, ни одна цивилизация в своей истории не наблюдала экзистенциальных рисков. [24] Этих антропных проблем можно частично избежать, рассматривая доказательства, которые не имеют таких эффектов отбора, такие как кратеры от ударов астероидов на Луне, или непосредственно оценивая вероятное воздействие новых технологий. [9]

Чтобы понять динамику беспрецедентного, необратимого глобального цивилизационного коллапса (разновидность экзистенциального риска), может быть полезно изучить различные локальные цивилизационные коллапсы , которые происходили на протяжении всей истории человечества. [25] Например, такие цивилизации, как Римская империя, закончились потерей централизованного управления и крупной общецивилизационной потерей инфраструктуры и передовых технологий. Однако эти примеры показывают, что общества кажутся достаточно устойчивыми к катастрофам; например, средневековая Европа пережила Черную смерть , не пережив ничего, напоминающего коллапс цивилизации , несмотря на потерю от 25 до 50 процентов своего населения. [26]

Стимулы и координация

Существуют экономические причины, которые могут объяснить, почему так мало усилий уделяется снижению экзистенциального риска. Это глобальное общественное благо , поэтому нам следует ожидать, что рынки будут его недостаточно обеспечивать. [9] Даже если большая страна инвестирует в меры по снижению рисков, эта страна получит лишь небольшую часть выгод от этого. Более того, снижение экзистенциального риска является глобальным общественным благом, передаваемым из поколения в поколение, поскольку большинством выгод от снижения экзистенциального риска будут пользоваться будущие поколения, и хотя эти будущие люди теоретически, возможно, будут готовы платить значительные суммы за снижение экзистенциального риска, никакого механизма не существует. для такой транзакции существует. [9]

Когнитивные предубеждения

Многочисленные когнитивные искажения могут влиять на суждения людей о важности экзистенциальных рисков, включая нечувствительность к масштабу , гиперболическое дисконтирование , эвристику доступности , ошибку конъюнкции , эвристику аффекта и эффект чрезмерной уверенности . [27]

Нечувствительность к масштабу влияет на то, насколько плохими людьми считают вымирание человеческой расы. Например, когда люди мотивированы жертвовать деньги на альтруистические цели, сумма, которую они готовы пожертвовать, не увеличивается линейно с масштабом проблемы: люди примерно одинаково готовы предотвратить гибель 200 000 или 2000 птиц. [28] Точно так же люди часто больше обеспокоены угрозами для отдельных лиц, чем для более крупных групп. [27]

Элиезер Юдковский предполагает, что пренебрежение масштабами играет роль в восприятии общественностью экзистенциальных рисков: [29] [30]

Существенно большие цифры, такие как 500 миллионов смертей, и особенно качественно иные сценарии, такие как вымирание всего человеческого вида, похоже, вызывают другой образ мышления... Люди, которые никогда не мечтали бы причинить вред ребенку, слышат о экзистенциальном риске. и сказать: «Ну, возможно, человеческий вид на самом деле не заслуживает выживания».

Все прошлые предсказания о вымирании человечества оказались ложными. Некоторым это делает будущие предупреждения менее достоверными. Ник Бостром утверждает, что отсутствие вымирания человечества в прошлом является слабым доказательством того, что в будущем не будет вымирания человечества из-за предвзятости выживших и других антропогенных эффектов . [31]

Социобиолог Э. О. Уилсон утверждал, что: «Причина этого близорукого тумана, как утверждают биологи-эволюционисты, заключается в том, что на самом деле он был выгоден на протяжении всех, кроме последних нескольких тысячелетий из двух миллионов лет существования рода Homo ... Премия была сделана за пристальное внимание к ближайшему будущему и раннему воспроизводству, и мало что еще. Катастрофы такого масштаба, которые случаются только раз в несколько столетий, были забыты или превращены в миф». [32]

Предлагаемое смягчение последствий

Многоуровневая защита

Глубокоэшелонированная защита — это полезная основа для разделения мер по снижению риска на три уровня защиты: [33]

  1. Предотвращение : в первую очередь снижение вероятности возникновения катастрофы. Пример: Меры по предотвращению вспышек новых высокоинфекционных заболеваний.
  2. Ответ : Предотвращение масштабирования катастрофы на глобальный уровень. Пример: Меры по предотвращению эскалации мелкомасштабного обмена ядерными ударами в полномасштабную ядерную войну.
  3. Устойчивость : повышение устойчивости человечества (против вымирания) перед лицом глобальных катастроф. Пример: Меры по повышению продовольственной безопасности во время ядерной зимы.

Вымирание человечества наиболее вероятно, когда все три защиты слабы, то есть «из-за рисков, которые мы вряд ли сможем предотвратить, вряд ли сможем успешно отреагировать и вряд ли будем устойчивы к ним». [33]

Беспрецедентный характер экзистенциальных рисков создает особую проблему при разработке мер по снижению рисков, поскольку человечество не сможет извлечь уроки из истории предыдущих событий. [18]

Финансирование

Некоторые исследователи утверждают, что как исследования, так и другие инициативы, связанные с экзистенциальным риском, недостаточно финансируются. Ник Бостром утверждает, что больше исследований было проведено по «Звездному пути» , сноуборду или навозным жукам, чем по экзистенциальным рискам. Сравнения Бострома подверглись критике как «свободные». [34] [35] По состоянию на 2020 год годовой бюджет организации Конвенции по биологическому оружию составлял 1,4 миллиона долларов США. [36]

Планирование выживания

Некоторые ученые предлагают создать на Земле одно или несколько самодостаточных, отдаленных, постоянно заселенных поселений, специально созданных с целью выживания при глобальной катастрофе. [37] [38] [39] Экономист Робин Хэнсон утверждает, что убежище, в котором постоянно проживают всего 100 человек, значительно повысит шансы человечества на выживание во время ряда глобальных катастроф. [37] [40]

Хранение продуктов питания предлагается во всем мире, но денежная стоимость будет высокой. Более того, это, вероятно, будет способствовать нынешним миллионам смертей в год из-за недоедания . [41] В 2022 году группа под руководством Дэвида Денкенбергера смоделировала экономическую эффективность устойчивых продуктов питания с учетом безопасности искусственного общего интеллекта (AGI) и обнаружила «~ 98-99% уверенности» в более высоком предельном влиянии работы над устойчивыми продуктами питания. [42] Некоторые специалисты по выживанию снабжают места выживания запасами еды на несколько лет.

Глобальное семенное хранилище Шпицбергена находится на глубине 400 футов (120 м) внутри горы на острове в Арктике . Он предназначен для хранения 2,5 миллиардов семян из более чем 100 стран в качестве меры предосторожности для сохранения мирового урожая. Температура окружающей породы -6 °C (21 °F) (по состоянию на 2015 год), но в хранилище поддерживается температура -18 °C (0 °F) благодаря холодильникам, работающим на угле местного производства. [43] [44]

Более умозрительно, если общество продолжит функционировать и если биосфера останется пригодной для жизни, потребности нынешнего населения в калориях теоретически могут быть удовлетворены во время длительного отсутствия солнечного света при условии достаточного предварительного планирования. Предполагаемые решения включают выращивание грибов на биомассе мертвых растений, оставшихся после катастрофы, преобразование целлюлозы в сахар или подачу природного газа бактериям, переваривающим метан. [45] [46]

Глобальные катастрофические риски и глобальное управление

Недостаточное глобальное управление создает риски в социальной и политической сфере, но механизмы управления развиваются медленнее, чем технологические и социальные изменения. Правительства, частный сектор, а также широкая общественность обеспокоены отсутствием механизмов управления, позволяющих эффективно справляться с рисками, вести переговоры и выносить решения между различными и конфликтующими интересами. Это дополнительно подчеркивается пониманием взаимосвязанности глобальных системных рисков. [47] В отсутствие или в ожидании глобального управления национальные правительства могут действовать индивидуально, чтобы лучше понять, смягчить последствия и подготовиться к глобальным катастрофам. [48]

Планы действий в чрезвычайных климатических ситуациях

В 2018 году Римский клуб призвал к более активным действиям по изменению климата и опубликовал свой Чрезвычайный климатический план, в котором предлагаются десять пунктов действий по ограничению повышения глобальной средней температуры до 1,5 градусов по Цельсию. [49] Кроме того, в 2019 году Клуб опубликовал более подробный Планетарный план действий в чрезвычайной ситуации. [50]

Есть данные, позволяющие предположить, что коллективное участие в эмоциональных переживаниях, возникающих во время размышлений об уязвимости человеческого вида в контексте изменения климата, позволяет этому опыту быть адаптивным. Когда коллективное взаимодействие и обработка эмоциональных переживаний оказывают поддержку, это может привести к росту устойчивости, психологической гибкости, терпимости к эмоциональным переживаниям и участию в сообществе. [51]

Космическая колонизация

Колонизация космоса — предлагаемая альтернатива, позволяющая повысить шансы на выживание в случае сценария вымирания. [52] Решения такого масштаба могут потребовать крупномасштабных инженерных разработок .

Астрофизик Стивен Хокинг выступал за колонизацию других планет Солнечной системы, как только технологии достигнут достаточного прогресса, чтобы повысить шансы человечества на выживание в случае общепланетных событий, таких как глобальная термоядерная война. [53] [54]

Миллиардер Илон Маск пишет, что человечество должно стать многопланетным видом, чтобы избежать вымирания. [55] Маск использует свою компанию SpaceX для разработки технологий, которые, как он надеется, будут использоваться при колонизации Марса .

Перемещение Земли

Через несколько миллиардов лет Солнце превратится в красного гиганта , поглотив Землю. Этого можно избежать, переместив Землю дальше от Солнца, поддерживая температуру примерно постоянной. Этого можно достичь, изменив орбиты комет и астероидов так, чтобы они проходили близко к Земле и добавляли энергию на орбиту Земли. [56] Поскольку расширение Солнца происходит медленно, примерно одного такого столкновения каждые 6000 лет будет достаточно. [ нужна цитата ]

Скептики и оппоненты

Психолог Стивен Пинкер назвал экзистенциальный риск «бесполезной категорией», которая может отвлечь от реальных угроз, таких как изменение климата и ядерная война. [34]

Организации

« Бюллетень ученых-атомщиков» (основан в 1945 году) — одна из старейших глобальных организаций по управлению рисками, основанная после того, как общественность была встревожена потенциалом атомной войны после Второй мировой войны. Он изучает риски, связанные с ядерной войной и энергетикой, и, как известно, поддерживает Часы Судного дня , установленные в 1947 году. Институт Форсайта (основан в 1986 году) исследует риски нанотехнологий и их преимущества. Это была одна из первых организаций, изучавших непредвиденные последствия выхода безобидных технологий из строя в глобальном масштабе. Ее основал К. Эрик Дрекслер , постулировавший « серую слизь ». [57] [58]

Начиная с 2000 года, все большее число ученых, философов и технологических миллиардеров создавали организации, занимающиеся изучением глобальных рисков как внутри, так и за пределами академических кругов. [59]

В число независимых неправительственных организаций (НПО) входит Научно-исследовательский институт машинного интеллекта (основан в 2000 г.), целью которого является снижение риска катастрофы, вызванной искусственным интеллектом, [60] с донорами, в том числе Питером Тилем и Джедом Маккалебом . [61] Инициатива по борьбе с ядерной угрозой (основана в 2001 г.) направлена ​​на снижение глобальных угроз, связанных с ядерными, биологическими и химическими угрозами, а также на сдерживание ущерба после события. [8] Он поддерживает индекс безопасности ядерного материала. [62] Фонд «Спасательная шлюпка» (основан в 2009 г.) финансирует исследования по предотвращению технологической катастрофы. [63] Большая часть исследовательских денег финансирует проекты в университетах. [64] Глобальный институт катастрофических рисков (основан в 2011 г.) — это базирующийся в США некоммерческий беспартийный аналитический центр, основанный Сетом Баумом и Тони Барреттом. GCRI проводит исследования и разрабатывает политику в отношении различных рисков, включая искусственный интеллект, ядерную войну, изменение климата и воздействие астероидов. [65] Фонд «Глобальные вызовы» (основан в 2012 г.), базирующийся в Стокгольме и основанный Ласло Сомбатфалви , публикует ежегодный отчет о состоянии глобальных рисков. [66] [67] Институт будущего жизни (основан в 2014 г.) работает над снижением экстремальных и крупномасштабных рисков, связанных с преобразующими технологиями, а также направляет развитие и использование этих технологий на благо всей жизни посредством выделения грантов и пропаганды политики. в Соединенных Штатах, Европейском Союзе и Организации Объединенных Наций, а также образовательная деятельность. [7] Илон Маск , Виталик Бутерин и Яан Таллинн являются одними из крупнейших спонсоров. [68] Центр долгосрочных рисков (основан в 2016 г.), ранее известный как Институт фундаментальных исследований, — британская организация, занимающаяся снижением рисков астрономических страданий ( s-рисков ) от новых технологий. [69]

Университетские организации включают Институт будущего человечества (основан в 2005 г.), который исследует вопросы долгосрочного будущего человечества, особенно экзистенциального риска. [5] Он был основан Ником Бостромом и базируется в Оксфордском университете. [5] Центр изучения экзистенциального риска (основан в 2012 г.) — это организация на базе Кембриджского университета, которая изучает четыре основных технологических риска: искусственный интеллект, биотехнологии, глобальное потепление и военные действия. [6] Все риски созданы человеком, как объяснил Хью Прайс информационному агентству AFP: «Кажется разумным предсказание, что когда-нибудь в этом или следующем столетии интеллект вырвется из-под ограничений биологии». Он добавил, что когда это произойдет, «мы перестанем быть самыми умными существами в мире» и рискуем оказаться во власти «не вредоносных машин, а машин, чьи интересы не включают нас». [70] Стивен Хокинг был исполняющим обязанности советника. Альянс тысячелетия для человечества и биосферы — это организация, базирующаяся в Стэнфордском университете, которая занимается многими вопросами, связанными с глобальной катастрофой, объединяя представителей академических кругов в области гуманитарных наук. [71] [72] Он был основан Паулем Эрлихом , среди других. [73] В Стэнфордском университете также есть Центр международной безопасности и сотрудничества, который занимается политическим сотрудничеством в целях снижения риска глобальных катастроф. [74] Центр безопасности и новейших технологий был создан в январе 2019 года в Джорджтаунской школе дипломатической службы Уолша и будет заниматься политическими исследованиями новых технологий с первоначальным упором на искусственный интеллект. [75] Они получили грант в размере 55 миллионов долларов США от Good Ventures по предложению Open Philanthropy . [75]

Другие группы оценки рисков базируются на правительственных организациях или являются их частью. Всемирная организация здравоохранения (ВОЗ) включает в себя подразделение под названием «Глобальное оповещение и реагирование» (GAR), которое отслеживает глобальный эпидемический кризис и реагирует на него. [76] GAR помогает государствам-членам в обучении и координации мер реагирования на эпидемии. [77] Агентство США по международному развитию (USAID) осуществляет Программу борьбы с возникающими пандемическими угрозами, целью которой является предотвращение и сдерживание естественно возникающих пандемий в их источнике. [78] В Ливерморской национальной лаборатории Лоуренса есть подразделение, называемое Главным управлением глобальной безопасности, которое от имени правительства исследует такие вопросы, как биологическая безопасность и борьба с терроризмом. [79]

Смотрите также

Рекомендации

  1. ^ Шульте, П.; и другие. (5 марта 2010 г.). «Удар астероида Чиксулуб и массовое вымирание на границе мела и палеогена» (PDF) . Наука . 327 (5970): 1214–1218. Бибкод : 2010Sci...327.1214S. дои : 10.1126/science.1177265. PMID  20203042. S2CID  2659741.
  2. ^ Бостром, Ник (2008). Глобальные катастрофические риски (PDF) . Издательство Оксфордского университета. п. 1.
  3. ^ Ripple WJ, Вольф С., Ньюсом ТМ, Галетти М, Аламгир М, Крист Э, Махмуд М.И., Лоранс В.Ф. (13 ноября 2017 г.). «Предупреждение мировых ученых человечеству: второе уведомление». Бионаука . 67 (12): 1026–1028. дои : 10.1093/biosci/bix125 . hdl : 11336/71342 .
  4. ^ Бостром, Ник (март 2002 г.). «Экзистенциальные риски: анализ сценариев вымирания человечества и связанных с ними опасностей». Журнал эволюции и технологий . 9 .
  5. ^ abc «О ФХИ». Институт будущего человечества . Проверено 12 августа 2021 г.
  6. ^ ab «О нас». Центр изучения экзистенциального риска . Проверено 12 августа 2021 г.
  7. ^ ab «Институт будущего жизни». Институт будущего жизни . Проверено 5 мая 2014 г.
  8. ^ ab «Инициатива по ядерной угрозе». Инициатива по ядерной угрозе . Проверено 5 июня 2015 г.
  9. ^ abcdef Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет» (PDF) . Глобальная политика . 4 (1): 15–3. doi : 10.1111/1758-5899.12002 – через Экзистенциальный риск.
  10. ^ Бостром, Ник; Чиркович, Милан (2008). Глобальные катастрофические риски . Оксфорд: Издательство Оксфордского университета. п. 1. ISBN 978-0-19-857050-9.
  11. ^ Зиглер, Филип (2012). Черная смерть . Фабер и Фабер. п. 397. ИСБН 9780571287116.
  12. Мюльхаузер, Люк (15 марта 2017 г.). «Насколько значимой была промышленная революция?». lukemuelhauser.com . Проверено 3 августа 2020 г.
  13. ^ Таубенбергер, Джеффри; Моренс, Дэвид (2006). «Грипп 1918 года: мать всех пандемий». Новые инфекционные заболевания . 12 (1): 15–22. дои : 10.3201/eid1201.050979. ПМЦ 3291398 . ПМИД  16494711. 
  14. ^ Познер, Ричард А. (2006). Катастрофа: риск и реагирование . Оксфорд: Издательство Оксфордского университета. ISBN 978-0195306477.Введение: «Что такое катастрофа?»
  15. ^ Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Нью-Йорк: Хачетт. ISBN 9780316484916. Это эквивалент, хотя и более четкий, определения Ника Бострома : «Экзистенциальный риск — это риск, который угрожает преждевременным вымиранием разумной жизни, зародившейся на Земле, или постоянным и радикальным разрушением ее потенциала для желаемого будущего развития». Источник: Бостром, Ник (2013). «Предотвращение экзистенциального риска как глобальный приоритет». Глобальная политика. 4:15-31.
  16. ^ Коттон-Барратт, Оуэн; Орд, Тоби (2015), Экзистенциальный риск и экзистенциальная надежда: определения (PDF) , Институт будущего человечества – Технический отчет № 2015-1, стр. 1–4.
  17. ^ Бостром, Ник (2009). «Астрономические отходы: альтернативные издержки задержки технологического развития». Утилитас . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . дои : 10.1017/s0953820800004076. S2CID  15860897. 
  18. ^ abcdefgh Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Нью-Йорк: Хачетт. ISBN 9780316484916.
  19. ^ AB Брайан Каплан (2008). «Тоталитарная угроза». Глобальные катастрофические риски , ред. Бостром и Чиркович (Издательство Оксфордского университета): 504–519. ISBN 9780198570509 
  20. Гловер, Деннис (1 июня 2017 г.). «Джордж Оруэлл тайно переписал конец «Девятнадцать восемьдесят четвертого», умирая?». Сидней Морнинг Геральд . Проверено 21 ноября 2021 г. Создатель Уинстона, Джордж Оруэлл, верил, что свобода в конечном итоге победит искажающий правду тоталитаризм, изображенный в «Девятнадцать восемьдесят четыре».
  21. ^ Оруэлл, Джордж (1949). Девятнадцать восемьдесят четвертый. Роман. Лондон: Секер и Варбург.
  22. ^ Саган, Карл (зима 1983 г.). «Ядерная война и климатическая катастрофа: некоторые политические последствия». Иностранные дела . Совет по международным отношениям. дои : 10.2307/20041818. JSTOR  20041818 . Проверено 4 августа 2020 г.
  23. ^ Джебари, Карим (2014). «Экзистенциальные риски: изучение надежной стратегии снижения рисков» (PDF) . Наука и инженерная этика . 21 (3): 541–54. дои : 10.1007/s11948-014-9559-3. PMID  24891130. S2CID  30387504 . Проверено 26 августа 2018 г.
  24. ^ аб Чиркович, Милан М .; Бостром, Ник ; Сандберг, Андерс (2010). «Антропная тень: эффекты отбора наблюдений и риски исчезновения человечества» (PDF) . Анализ риска . 30 (10): 1495–1506. Бибкод : 2010РискА..30.1495C. дои : 10.1111/j.1539-6924.2010.01460.x. PMID  20626690. S2CID  6485564.
  25. Кемп, Люк (февраль 2019 г.). «Мы на пути к коллапсу цивилизации?». Би-би-си . Проверено 12 августа 2021 г.
  26. ^ Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Книги Хачетта. ISBN 9780316484893. Европа выжила, потеряв от 25 до 50 процентов своего населения во время Черной смерти, сохранив при этом цивилизацию в неприкосновенности.
  27. ^ аб Юдковский, Элиэзер (2008). «Когнитивные искажения, потенциально влияющие на оценку глобальных рисков» (PDF) . Глобальные катастрофические риски : 91–119. Бибкод : 2008гкр..книга...86Г.
  28. ^ Десвуж, У.Х., Джонсон, Ф.Р., Данфорд, Р.В., Бойл, К.Дж., Хадсон, С.П. и Уилсон, Н. 1993, Измерение ущерба природным ресурсам с помощью условной оценки: тесты на достоверность и надежность. В Хаусман, Дж. А. (редактор), Условная оценка: критическая оценка , стр. 91–159 (Амстердам: Северная Голландия).
  29. ^ Бостром 2013.
  30. ^ Юдковский, Элиэзер. «Когнитивные искажения, потенциально влияющие на суждения о глобальных рисках». Глобальные катастрофические риски 1 (2008): 86. с.114.
  31. ^ «Мы недооцениваем риск вымирания человечества». Атлантический океан. 6 марта 2012 года . Проверено 1 июля 2016 г.
  32. ^ Человечество склонно к самоубийству? Журнал New York Times , 30 мая 1993 г.)
  33. ^ аб Коттон-Барратт, Оуэн; Дэниел, Макс; Сандберг, Андерс (2020). «Углубленная защита от вымирания человечества: предотвращение, реагирование, устойчивость и почему все это важно». Глобальная политика . 11 (3): 271–282. дои : 10.1111/1758-5899.12786. ISSN  1758-5899. ПМЦ 7228299 . ПМИД  32427180. 
  34. ↑ Аб Купфершмидт, Кай (11 января 2018 г.). «Может ли наука уничтожить мир? Эти ученые хотят спасти нас от современного Франкенштейна». Наука . АААС . Проверено 20 апреля 2020 г.
  35. ^ «Оксфордский институт прогнозирует возможную гибель человечества». Популярная наука . 2013 . Проверено 20 апреля 2020 г.
  36. ^ Тоби Орд (2020). Пропасть: экзистенциальный риск и будущее человечества . Книги Хачетта. ISBN 9780316484893. Международный орган, ответственный за постоянный запрет биологического оружия (Конвенция о биологическом оружии), имеет годовой бюджет в 1,4 миллиона долларов – меньше, чем средний ресторан McDonald's.
  37. ^ аб Матени, Джейсон Гаверик (2007). «Снижение риска вымирания человечества» (PDF) . Анализ риска . 27 (5): 1335–1344. Бибкод : 2007РискА..27.1335М. дои : 10.1111/j.1539-6924.2007.00960.x. PMID  18076500. S2CID  14265396.
  38. ^ Уэллс, Уиллард. (2009). Апокалипсис когда? . Практика. ISBN 978-0387098364.
  39. ^ Уэллс, Уиллард. (2017). Перспективы выживания человечества . Фонд спасательных шлюпок. ISBN 978-0998413105.
  40. ^ Хэнсон, Робин. «Катастрофа, социальный коллапс и вымирание человечества». Глобальные катастрофические риски 1 (2008): 357.
  41. ^ Смил, Вацлав (2003). Биосфера Земли: эволюция, динамика и изменения. МТИ Пресс . п. 25. ISBN 978-0-262-69298-4.
  42. ^ Денкенбергер, Дэвид К.; Сандберг, Андерс; Тиман, Росс Джон; Пирс, Джошуа М. (2022). «Долгосрочная экономическая эффективность устойчивых продуктов питания на случай глобальных катастроф по сравнению с общей безопасностью искусственного интеллекта». Международный журнал по снижению риска стихийных бедствий . 73 : 102798. Бибкод : 2022IJDRR..7302798D. дои : 10.1016/j.ijdrr.2022.102798.
  43. Льюис Смит (27 февраля 2008 г.). «Под арктической горой открыто хранилище судного дня для мировых семян». «Таймс онлайн» . Лондон. Архивировано из оригинала 12 мая 2008 года.
  44. Сюзанна Гольденберг (20 мая 2015 г.). «Хранилище Судного дня: семена, которые могут спасти постапокалиптический мир». Хранитель . Проверено 30 июня 2017 г.
  45. ^ «Вот как может наступить конец света и что мы можем с этим поделать» . Наука . АААС. 8 июля 2016 г. Проверено 23 марта 2018 г.
  46. ^ Денкенбергер, Дэвид К.; Пирс, Джошуа М. (сентябрь 2015 г.). «Накормить всех: решение продовольственного кризиса в случае глобальных катастроф, которые уничтожат урожай или затмят солнце» (PDF) . Фьючерсы . 72 : 57–68. doi :10.1016/j.futures.2014.11.008. S2CID  153917693.
  47. ^ «Фонд глобальных проблем | Понимание глобального системного риска» . globalchallenges.org . Архивировано из оригинала 16 августа 2017 года . Проверено 15 августа 2017 г.
  48. ^ «Глобальная политика катастрофических рисков». gcrpolicy.com . Проверено 11 августа 2019 г.
  49. ^ Римский клуб (2018). «Чрезвычайный климатический план» . Проверено 17 августа 2020 г.
  50. ^ Римский клуб (2019). «Планетарный план действий в чрезвычайной ситуации» . Проверено 17 августа 2020 г.
  51. ^ Кифт, Дж.; Бенделл, Дж (2021). «Ответственность за сообщение трудной правды о климате повлияла на социальные потрясения и коллапс: введение в психологические исследования». Периодические статьи Института лидерства и устойчивого развития (ИФЛАС) . 7 :1–39.
  52. ^ «Человечество должно покинуть Землю, иначе ему грозит вымирание: Хокинг», physorg.com , 9 августа 2010 г. , получено 23 января 2012 г.
  53. Малик, Тарик (13 апреля 2013 г.). «Стивен Хокинг: Человечество должно колонизировать космос, чтобы выжить». Space.com . Проверено 1 июля 2016 г.
  54. Шукман, Дэвид (19 января 2016 г.). «Хокинг: люди рискуют получить смертельный «автогол»». Новости BBC . Проверено 1 июля 2016 г.
  55. Гинзберг, Лия (16 июня 2017 г.). «Илон Маск считает, что жизнь на Земле вымрет, и вкладывает большую часть своего состояния в колонизацию Марса». CNBC .
  56. ^ Коричански, Дональд Г.; Лафлин, Грегори; Адамс, Фред К. (2001). «Астрономическая инженерия: стратегия изменения орбит планет». Астрофизика и космическая наука . 275 (4): 349–366. arXiv : astro-ph/0102126 . Бибкод : 2001Ap&SS.275..349K. дои : 10.1023/А: 1002790227314. hdl : 2027.42/41972. S2CID  5550304.
  57. ^ Фред Хэпгуд (ноябрь 1986 г.). «Нанотехнологии: молекулярные машины, имитирующие жизнь» (PDF) . Омни . Архивировано из оригинала (PDF) 27 июля 2013 года . Проверено 5 июня 2015 г.
  58. ^ Джайлз, Джим (2004). «Нанотехнологии делают небольшой шаг к захоронению «серой слизи»». Природа . 429 (6992): 591. Бибкод : 2004Natur.429..591G. дои : 10.1038/429591b . ПМИД  15190320.
  59. Софи МакБейн (25 сентября 2014 г.). «Скоро апокалипсис: ученые готовятся к концу времен». Новый государственный деятель . Проверено 5 июня 2015 г.
  60. ^ «Снижение долгосрочных катастрофических рисков от искусственного интеллекта». Научно-исследовательский институт машинного интеллекта . Проверено 5 июня 2015 г. Научно-исследовательский институт машинного интеллекта стремится снизить риск катастрофы, если такое событие в конечном итоге произойдет.
  61. ^ Анджела Чен (11 сентября 2014 г.). «Является ли искусственный интеллект угрозой?». Хроника высшего образования . Проверено 5 июня 2015 г.
  62. Александр Сехмар (31 мая 2015 г.). «ИГИЛ может получить ядерное оружие из Пакистана, - предупреждает Индия». Независимый . Архивировано из оригинала 2 июня 2015 года . Проверено 5 июня 2015 г.
  63. ^ «О Фонде спасательных шлюпок» . Фонд спасательной шлюпки . Проверено 26 апреля 2013 г.
  64. Эшли, Вэнс (20 июля 2010 г.). «Фонд спасательной шлюпки: борьба с астероидами, наноботами и искусственным интеллектом», New York Times . Проверено 5 июня 2015 г.
  65. ^ «Глобальный институт катастрофических рисков». gcrinstitute.org . Проверено 22 марта 2022 г.
  66. Мейер, Робинсон (29 апреля 2016 г.). «Вымирание человечества не так уж маловероятно». Атлантический океан . Бостон, Массачусетс: Emerson Collective . Проверено 30 апреля 2016 г.
  67. ^ "Веб-сайт Фонда глобальных вызовов" . globalchallenges.org . Проверено 30 апреля 2016 г.
  68. Ник Билтон (28 мая 2015 г.). «Ава из «Ex Machina» — это просто научная фантастика (на данный момент)». Газета "Нью-Йорк Таймс . Проверено 5 июня 2015 г.
  69. ^ «О нас». Центр долгосрочных рисков . Проверено 17 мая 2020 г. В настоящее время мы сосредоточены на усилиях по снижению наихудших рисков астрономических страданий (s-рисков) от новых технологий, уделяя особое внимание преобразующему искусственному интеллекту.
  70. Хуэй, Сильвия (25 ноября 2012 г.). «Кембридж для изучения рисков технологий для человека». Ассошиэйтед Пресс. Архивировано из оригинала 1 декабря 2012 года . Проверено 30 января 2012 г.
  71. ^ Скотт Барретт (2014). Экономика окружающей среды и развития: очерки в честь сэра Парты Дасгупты. Издательство Оксфордского университета. п. 112. ИСБН 9780199677856. Проверено 5 июня 2015 г.
  72. ^ «Альянс тысячелетия за человечество и биосферу». Альянс тысячелетия за человечество и биосферу . Проверено 5 июня 2015 г.
  73. ^ Гурупрасад Мадхаван (2012). Практика устойчивого развития. Springer Science & Business Media. п. 43. ИСБН 9781461443483. Проверено 5 июня 2015 г.
  74. ^ «Центр международной безопасности и сотрудничества». Центр международной безопасности и сотрудничества . Проверено 5 июня 2015 г.
  75. ↑ Аб Андерсон, Ник (28 февраля 2019 г.). «В Джорджтауне создается аналитический центр по безопасности и новым технологиям». Вашингтон Пост . Проверено 12 марта 2019 г.
  76. ^ «Глобальное оповещение и реагирование (GAR)» . Всемирная организация здравоохранения . Архивировано из оригинала 16 февраля 2003 года . Проверено 5 июня 2015 г.
  77. ^ Келли Ли (2013). Исторический словарь Всемирной организации здравоохранения. Роуман и Литтлфилд. п. 92. ИСБН 9780810878587. Проверено 5 июня 2015 г.
  78. ^ «Программа USAID по устранению новых пандемических угроз» . ТЫ СКАЗАЛ . Архивировано из оригинала 22 октября 2014 года . Проверено 5 июня 2015 г.
  79. ^ «Глобальная безопасность». Ливерморская национальная лаборатория Лоуренса . Проверено 5 июня 2015 г.

дальнейшее чтение

Внешние ссылки