stringtranslate.com

Ник Бостром

Ник Бостром ( / ˈ b ɒ s t r əm / BOST -rəm ; швед. : Никлас Бострём [ˈnɪ̌kːlas ˈbûːstrœm] ; родился 10 марта 1973 г.) [3] — шведский философ из Оксфордского университета , известный своими работами по экзистенциальному риску , антропный принцип , этика совершенствования человека , эмуляция всего мозга , риски сверхразума и тест на обратное . Он является директором-основателем Института будущего человечества при Оксфордском университете. [4]

Бостром является автором книг «Антропическая предвзятость: эффекты отбора наблюдений в науке и философии» (2002) [5] и «Суперинтеллект: пути, опасности, стратегии» (2014).

Бостром считает, что достижения в области искусственного интеллекта (ИИ) могут привести к появлению сверхинтеллекта , который он определяет как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях интересов». Он рассматривает это как главный источник возможностей и экзистенциальных рисков. [4] [6]

ранняя жизнь и образование

Никлас Бострем родился в 1973 году в Хельсингборге , Швеция. [7] Он не любил школу в молодом возрасте и провел свой последний год обучения в средней школе дома. Его интересовали самые разные академические области, включая антропологию, искусство, литературу и науку. [1]

Он получил степень бакалавра в Гетеборгском университете в 1994 году. [8] Затем он получил степень магистра философии и физики в Стокгольмском университете и степень магистра вычислительной нейробиологии в Королевском колледже Лондона в 1996 году. Во время своего пребывания в Стокгольмском университете он получил степень бакалавра в Гетеборгском университете. он исследовал взаимосвязь между языком и реальностью, изучая философа-аналитика У.В. Куайна . [1] Он также несколько раз выступал на лондонских стендап-комедиях. [7] В 2000 году он получил степень доктора философии в Лондонской школе экономики . Его диссертация называлась «Эффекты наблюдательного отбора и вероятность» . [9] Он занимал преподавательскую должность в Йельском университете с 2000 по 2002 год и был научным сотрудником Британской академии в Оксфордском университете с 2002 по 2005 год. [5]

Исследовать

Экзистенциальный риск

Исследования Бострома касаются будущего человечества и долгосрочных результатов. [4] [10] Он обсуждает экзистенциальный риск , [1] который он определяет как риск, при котором «неблагоприятный исход либо уничтожит разумную жизнь, зародившуюся на Земле, либо навсегда и радикально ограничит ее потенциал». Бостром больше всего обеспокоен антропогенными рисками, которые представляют собой риски, возникающие в результате деятельности человека, особенно из-за новых технологий, таких как передовой искусственный интеллект, молекулярные нанотехнологии или синтетическая биология . [11]

В 2005 году Бостром основал Институт будущего человечества , [1] который исследует далекое будущее человеческой цивилизации. Он также является советником Центра изучения экзистенциального риска . [10]

В сборнике эссе 2008 года « Глобальные катастрофические риски» редакторы Бостром и Милан М. Чиркович характеризуют взаимосвязь между экзистенциальным риском и более широким классом глобальных катастрофических рисков и связывают экзистенциальный риск с эффектами отбора наблюдателей [12] и парадоксом Ферми . [13]

Гипотеза уязвимого мира

В статье под названием «Гипотеза уязвимого мира» [14] Бостром предполагает , что могут существовать некоторые технологии, которые по умолчанию уничтожают человеческую цивилизацию [a] при их обнаружении. Бостром предлагает структуру для классификации и устранения этих уязвимостей. Он также приводит контрфактические мысленные эксперименты о том, как такие уязвимости могли исторически возникнуть, например, если бы ядерное оружие было легче разработать или если бы оно воспламенило атмосферу (чего опасался Роберт Оппенгеймер ). [16]

Суперинтеллект

В 2014 году Бостром опубликовал книгу «Суперинтеллект: пути, опасности, стратегии» , ставшую бестселлером New York Times . [17] В книге утверждается, что сверхинтеллект возможен, и исследуются различные типы сверхинтеллекта, их познание и связанные с этим риски. Он также представляет технические и стратегические соображения о том, как сделать это безопасным.

Характеристики сверхразума

Бостром исследует множество возможных путей к сверхразуму, включая эмуляцию всего мозга и улучшение человеческого интеллекта, но фокусируется на общем искусственном интеллекте , объясняя, что электронные устройства имеют много преимуществ перед биологическим мозгом. [18]

Бостром проводит различие между конечными целями и инструментальными целями . Конечная цель — это то, чего агент пытается достичь ради собственной внутренней ценности. Инструментальные цели — это всего лишь промежуточные шаги к конечным целям. Бостром утверждает, что существуют инструментальные цели, которые разделяют большинство достаточно умных агентов, поскольку они обычно полезны для достижения любой цели (например, сохранения собственного существования агента или текущих целей, приобретения ресурсов, улучшения его познания...), в этом заключается концепция инструментальной конвергенции . С другой стороны, он пишет, что практически любой уровень интеллекта теоретически может сочетаться практически с любой конечной целью (даже абсурдной конечной целью, например, изготовлением скрепок ), концепцию, которую он называет тезисом ортогональности . [18]

Он утверждает, что ИИ, способный самосовершенствоваться, может инициировать интеллектуальный взрыв , приводящий (потенциально быстро) к сверхразуму. [19] Такой сверхинтеллект мог бы обладать значительно превосходящими способностями, особенно в разработке стратегии, социальных манипуляциях, хакерстве или экономической производительности. Обладая такими способностями, сверхинтеллект мог бы перехитрить людей и захватить мир, установив единый принцип (который представляет собой «мировой порядок, в котором на глобальном уровне существует единое агентство, принимающее решения» [b] ) и оптимизируя мир в соответствии с его конечные цели. [18]

Бостром утверждает, что постановка перед сверхразумом упрощенных конечных целей может обернуться катастрофой:

Предположим, мы даем ИИ цель заставить людей улыбаться. Когда ИИ слаб, он выполняет полезные или забавные действия, которые вызывают улыбку пользователя. Когда ИИ становится сверхразумным, он понимает, что есть более эффективный способ достичь этой цели: взять под контроль мир и вставить электроды в лицевые мышцы людей, чтобы вызывать постоянные сияющие улыбки. [20]

Снижение риска

Бостром исследует несколько путей снижения экзистенциального риска, связанного с ИИ . Он подчеркивает важность международного сотрудничества, в частности, для снижения динамики гонки на упадок и гонки вооружений в области искусственного интеллекта . Он предлагает потенциальные методы, помогающие контролировать ИИ, включая сдерживание, задержку возможностей или знаний ИИ, сужение рабочего контекста (например, до ответов на вопросы) или «натяжные провода» (механизмы диагностики, которые могут привести к отключению). [18] Но Бостром утверждает, что «мы не должны быть уверены в своей способности навсегда держать сверхразумного джинна запертым в бутылке. Рано или поздно он выйдет наружу». Таким образом, он предполагает, что для того, чтобы быть безопасным для человечества, сверхинтеллект должен соответствовать морали или человеческим ценностям, чтобы он был «фундаментально на нашей стороне». [20] Потенциальные рамки нормативности ИИ включают последовательную экстраполированную волю Юдковского (человеческие ценности улучшаются посредством экстраполяции), моральную правоту (делать то, что является морально правильным ) и моральную допустимость (следование последовательной экстраполированной волеизъявлению человечества, за исключением случаев, когда это морально недопустимо). [18]

Бостром предупреждает, что экзистенциальная катастрофа также может произойти из-за неправильного использования ИИ людьми в деструктивных целях или из-за того, что люди не принимают во внимание потенциальный моральный статус цифрового разума. Несмотря на эти риски, он говорит, что машинный сверхинтеллект, похоже, в какой-то момент будет задействован во «всех возможных путях к действительно великому будущему». [6]

Общественная приемная

Книга «Суперинтеллект: пути, опасности, стратегии» стала бестселлером New York Times и получила положительные отзывы от таких личностей, как Стивен Хокинг , Билл Гейтс , Илон Маск , Питер Сингер или Дерек Парфит . Его хвалили за предоставление четких и убедительных аргументов по забытой, но важной теме. Иногда его критиковали за распространение пессимизма в отношении потенциала ИИ или за сосредоточение внимания на долгосрочных и спекулятивных рисках. [21] Некоторые скептики, такие как Дэниел Деннетт или Орен Эциони, утверждали, что сверхинтеллект находится слишком далеко, чтобы риск был значительным. [22] [23] Ян ЛеКун считает, что экзистенциального риска нет, утверждая, что сверхразумный ИИ не будет стремиться к самосохранению [24] и что экспертам можно доверять, чтобы сделать его безопасным. [25]

Раффи Хачадурян писал, что книга Бострома о сверхинтеллекте «не задумана как трактат глубокой оригинальности; вклад Бострома состоит в том, чтобы навязать строгость аналитической философии беспорядочному корпусу идей, возникших на задворках академической мысли». [21]

Цифровое сознание

Бостром поддерживает принцип независимости субстрата, идею о том, что сознание может возникать на различных типах физических субстратов, а не только в «биологических нейронных сетях на основе углерода», таких как человеческий мозг. [26] Он считает, что « чувствительность зависит от степени» [27] и что цифровой разум теоретически может быть спроектирован таким образом, чтобы он имел гораздо более высокую скорость и интенсивность субъективного опыта , чем люди, используя при этом меньше ресурсов. Такие высокоразумные машины, которых он называет «супер-бенефициарами», были бы чрезвычайно эффективны в достижении счастья. Он рекомендует найти «пути, которые позволят цифровому и биологическому разуму сосуществовать взаимовыгодным образом, где все эти различные формы смогут процветать и процветать». [28]

Антропное мышление

Бостром опубликовал множество статей по антропному мышлению , а также книгу « Антропическая предвзятость: эффекты отбора наблюдения в науке и философии» . В книге он критикует предыдущие формулировки антропного принципа, в том числе формулировки Брэндона Картера , Джона Лесли , Джона Барроу и Фрэнка Типлера . [29]

Бостром считает, что неправильное обращение с индексной информацией является распространенным недостатком во многих областях исследований (включая космологию, философию, теорию эволюции, теорию игр и квантовую физику). Он утверждает, что для решения этих проблем необходима антропная теория. Он вводит допущение самовыборки (SSA) и допущение самоиндикации (SIA), показывает, как они приводят к различным выводам в ряде случаев, и определяет, как на каждое из них влияют парадоксы или противоречивые выводы в определенных мысленных экспериментах. Он предполагает, что путь вперед может включать расширение SSA до предположения сильной самовыборки (SSSA), которое заменяет «наблюдатели» в определении SSA на «моменты-наблюдатели».

В более поздних работах он предложил феномен антропной тени — эффект отбора наблюдений, который не позволяет наблюдателям наблюдать определенные виды катастроф в их недавнем геологическом и эволюционном прошлом. [30] Бостром утверждает, что события, которые лежат в антропной тени, вероятно, будут недооценены, если не будут сделаны статистические поправки.

Аргумент моделирования

Аргумент моделирования Бострома утверждает, что по крайней мере одно из следующих утверждений с большой вероятностью будет верным: [31]

  1. Доля цивилизаций человеческого уровня, достигших постчеловеческой стадии, очень близка к нулю;
  2. Доля постчеловеческих цивилизаций, заинтересованных в симуляции предков, очень близка к нулю;
  3. Доля всех людей с подобным опытом, живущих в симуляции, очень близка к единице.

Этика улучшения человека

Бостром благосклонно относится к «совершенствованию человека» или «самосовершенствованию и совершенствованию человека посредством этического применения науки», а также критикует биоконсервативные взгляды. [32]

В 1998 году Бостром вместе с Дэвидом Пирсом основал Всемирную трансгуманистическую ассоциацию [32] (которая с тех пор сменила название на Humanity+ ). В 2004 году он стал соучредителем (вместе с Джеймсом Хьюзом ) Института этики и новых технологий , хотя больше не участвует ни в одной из этих организаций.

В 2005 году Бостром опубликовал рассказ « Басня о драконе-тиране » в журнале «Медицинская этика» . Более короткая версия была опубликована в 2012 году в журнале Philosophy Now . [33] В басне смерть олицетворяется в виде дракона, который каждый день требует дань от тысяч людей. В этой истории рассказывается о том, как предвзятость статус-кво и выученная беспомощность могут помешать людям принять меры по борьбе со старением, даже если средства для этого есть в их распоряжении. Ютубер CGP Grey создал анимационную версию этой истории.

Вместе с философом Тоби Ордом (в настоящее время исследователем в Институте будущего человечества) он предложил тест на обращение в 2006 году. Учитывая иррациональную предвзятость людей к статус-кво, как можно отличить обоснованную критику предлагаемых изменений в человеческих чертах от критики, просто мотивированной? сопротивлением переменам? Тест на обращение пытается сделать это, задавая вопрос, было бы хорошо, если бы признак был изменен в противоположном направлении. [34]

В работе Бострома также рассматриваются потенциальные дисгенные эффекты в человеческих популяциях, но он считает, что генная инженерия может обеспечить решение, и что «в любом случае временные рамки естественной генетической эволюции человека кажутся слишком великими, чтобы такие разработки могли оказать какое-либо существенное влияние раньше, чем другие разработки». сделает этот вопрос спорным». [35]

Технологическая стратегия

Бостром предположил, что технологическая политика, направленная на снижение экзистенциального риска, должна стремиться влиять на порядок достижения различных технологических возможностей, предлагая принцип дифференцированного технологического развития . Этот принцип гласит, что мы должны замедлить развитие опасных технологий, особенно тех, которые повышают уровень экзистенциального риска, и ускорить развитие полезных технологий, особенно тех, которые защищают от экзистенциальных рисков, создаваемых природой или другими технологиями. [36]

В 2011 году Бостром основал Оксфордскую программу Мартина по влиянию технологий будущего. [37]

Теория Бострома о проклятии односторонности была названа причиной, по которой научное сообщество избегало спорных и опасных исследований, таких как реанимация патогенов. [38]

Награды

Бостром был включен в список ведущих мировых мыслителей журнала Foreign Policy за 2009 год «за отсутствие ограничений человеческого потенциала». [39] Журнал «Проспект» включил Бострома в список лучших мыслителей мира за 2014 год . [40]

Участие общественности

Бостром давал политические рекомендации и консультировал многие правительства и организации. Он дал показания Специальному комитету по цифровым навыкам Палаты лордов . [41] Он является членом консультативного совета Научно-исследовательского института машинного интеллекта , [42] Института будущего жизни , [43] и внешним консультантом Кембриджского центра по изучению экзистенциального риска . [44]

Споры по электронной почте 1996 года

В январе 2023 года Бостром извинился за электронное письмо 1996 года, в котором он заявил, что, по его мнению, «черные глупее белых», и где он также использовал слово « негры » в описании того, как, по его мнению, это заявление может быть воспринято. другими. [45] В извинениях, опубликованных на его веб-сайте, [46] говорилось, что «упоминание о расовых оскорблениях было отвратительным» и что он «полностью отвергает это отвратительное письмо». В своих извинениях он написал: «Я считаю глубоко несправедливым, что неравный доступ к образованию, питательным веществам и базовому здравоохранению приводит к неравенству в социальных результатах, включая иногда неравенство в навыках и когнитивных способностях». [47]

В январе 2023 года Оксфордский университет сообщил The Daily Beast : «Университет и философский факультет в настоящее время расследуют этот вопрос, но самым решительным образом осуждают взгляды, которые этот конкретный ученый выразил в своих сообщениях». [45] В августе 2023 года следствие пришло к выводу (согласно письму Бострома, опубликованному на его сайте), что «мы не считаем [Бострома] расистом или что [он придерживается] расистских взглядов, и считаем, что извинения [45] опубликованное им в январе 2023 года сообщение было искренним». [46]

Избранные работы

Книги

Журнальная статья

Смотрите также

Примечания

  1. ^ Бостром говорит, что риск можно снизить, если общество в достаточной степени выйдет из того, что он называет «состоянием полуанархического дефолта», что примерно означает ограниченные возможности для превентивной полицейской деятельности и глобального управления, а также наличие людей с различными мотивами. [15]
  2. ^ Бостром отмечает, что «концепция синглтона является абстрактной: синглтон может быть демократией, тиранией, единым доминирующим ИИ, сильным набором глобальных норм, которые включают эффективные положения для их собственного соблюдения, или даже инопланетным повелителем - его определяющей характеристикой является просто то, что это некая форма агентства, которое может решить все основные глобальные проблемы координации» [18]

Рекомендации

  1. ^ abcdef Хачадурян, Раффи (23 ноября 2015 г.). «Изобретение Судного дня». Житель Нью-Йорка . Том. XCI, нет. 37. С. 64–79. ISSN  0028-792X.
  2. ^ «Бесконечная этика» (PDF) . Nickbostrom.com . Проверено 21 февраля 2019 г.
  3. ^ "nickbostrom.com". Никбостром.com. Архивировано из оригинала 30 августа 2018 года . Проверено 16 октября 2014 г.
  4. ↑ abc Шид, Сэм (25 мая 2020 г.). «Как старейшие университеты Британии пытаются защитить человечество от рискованного искусственного интеллекта» CNBC . Проверено 5 июня 2023 г.
  5. ^ ab «Ник Бостром об искусственном интеллекте». Издательство Оксфордского университета . 8 сентября 2014 года . Проверено 4 марта 2015 г.
  6. ^ ab «Ник Бостром о рождении сверхинтеллекта». Большое Думай . Проверено 14 августа 2023 г.
  7. ↑ Аб Торнхилл, Джон (14 июля 2016 г.). «Искусственный интеллект: можем ли мы им управлять?» . Файнэншл Таймс . Архивировано из оригинала 10 декабря 2022 года . Проверено 10 августа 2016 г. (требуется подписка)
  8. ^ Бостром, Ник. «Резюме» (PDF) .
  9. ^ Бостром, Ник (2000). Эффекты наблюдательного отбора и вероятность (доктор философии). Лондонская школа экономики и политических наук . Проверено 25 июня 2021 г.
  10. ^ Аб Андерсен, Росс. «Омены». Aeon Media Ltd. Архивировано из оригинала 18 октября 2015 года . Проверено 5 сентября 2015 г.
  11. Андерсен, Росс (6 марта 2012 г.). «Мы недооцениваем риск вымирания человечества». Атлантический океан . Проверено 6 июля 2023 г.
  12. ^ Тегмарк, Макс ; Бостром, Ник (2005). «Астрофизика: вероятна ли катастрофа Судного дня?» (PDF) . Природа . 438 (7069): 754. Бибкод : 2005Natur.438..754T. дои : 10.1038/438754a. PMID  16341005. S2CID  4390013. Архивировано из оригинала (PDF) 3 июля 2011 года.
  13. Прощай, Деннис (3 августа 2015 г.). «Обратная сторона оптимизма в отношении жизни на других планетах». Нью-Йорк Таймс . Проверено 29 октября 2015 г.
  14. ^ Бостром, Ник (2018). Гипотеза уязвимого мира.
  15. Абхиджит, Катте (25 декабря 2018 г.). «Судного дня ИИ можно избежать, если мы создадим «мировое правительство»: Ник Бостром». Журнал Analytics India .
  16. Пайпер, Келси (19 ноября 2018 г.). «Как технологический прогресс делает вероятность того, что люди уничтожат самих себя, более чем когда-либо». Вокс . Проверено 5 июля 2023 г.
  17. ^ Таймс, Нью-Йорк (8 сентября 2014 г.). «Самые продаваемые научные книги». Нью-Йорк Таймс . Проверено 19 февраля 2015 г.
  18. ^ abcdef Бостром, Ник (2016). Суперинтеллект . Издательство Оксфордского университета. стр. 98–111. ISBN 978-0-19-873983-8. ОКЛК  943145542.
  19. ^ «Умные винтики». Экономист . ISSN  0013-0613 . Проверено 14 августа 2023 г.
  20. ^ Аб Бостром, Ник (27 апреля 2015 г.), Что произойдет, когда наши компьютеры станут умнее, чем мы? , получено 12 августа 2023 г.
  21. ↑ Аб Хачадурян, Раффи (16 ноября 2015 г.). «Изобретение Судного дня». Житель Нью-Йорка . Проверено 13 августа 2023 г.
  22. ^ «Невозможен ли сверхинтеллект? | Edge.org» . www.edge.org . Проверено 13 августа 2023 г.
  23. ^ Орен Эциони (2016). «Нет, эксперты не считают, что сверхразумный ИИ представляет угрозу человечеству». Обзор MIT.
  24. Арул, Акашдип (27 января 2022 г.). «Ян ЛеКун вызывает дискуссию об ОИИ и ИИ человеческого уровня». Журнал Analytics India . Проверено 14 августа 2023 г.
  25. ^ «Почти половина руководителей опасаются, что ИИ может уничтожить человечество через пять-десять лет, но «крестный отец ИИ» говорит, что экзистенциальная угроза «абсурдно смешна»». Удача . Проверено 14 августа 2023 г.
  26. ^ «Вы живете в компьютерной симуляции?». www.simulation-argument.com . Проверено 5 июля 2023 г.
  27. Джексон, Лорен (12 апреля 2023 г.). «Что, если чувствительность ИИ — это вопрос степени?». Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 5 июля 2023 г.
  28. ^ Фишер, Ричард. «Разумный монстр, которому следует позволить съесть себя». www.bbc.com . Проверено 5 июля 2023 г.
  29. ^ Бостром, Ник (2002). Антропная предвзятость: эффекты отбора наблюдений в науке и философии (PDF) . Нью-Йорк: Рутледж. стр. 44–58. ISBN 978-0-415-93858-7. Проверено 22 июля 2014 г.
  30. ^ «Антропная тень: эффекты отбора наблюдений и риски исчезновения человечества» (PDF) . Никбостром.com . Проверено 16 октября 2014 г.
  31. ^ Несбит, Джефф. «Доказательство аргумента моделирования». Новости США . Проверено 17 марта 2017 г.
  32. ^ аб Сазерленд, Джон (9 мая 2006 г.). «Интервью идей: Ник Бостром; Джон Сазерленд встречает трансгуманиста, который борется с этикой технологически усовершенствованных людей». Хранитель .
  33. Бостром, Ник (12 июня 2012 г.). «Басня о драконе-тиране». Философия сейчас . 89 : 6–9.
  34. ^ Бостром, Ник; Орд, Тоби (2006). «Тест на обратное: устранение предвзятости статус-кво в прикладной этике» (PDF) . Этика . 116 (4): 656–679. дои : 10.1086/505233. PMID  17039628. S2CID  12861892.
  35. ^ «Экзистенциальные риски: анализ сценариев вымирания человечества». Nickbostrom.com . Проверено 6 июля 2023 г.
  36. ^ Бостром, Ник (2002). «Экзистенциальные риски: анализ сценариев вымирания человечества». Журнал эволюции и технологий .Оксфордский исследовательский архив
  37. ^ «Профессор Ник Бостром: Люди». Оксфордская школа Мартина. Архивировано из оригинала 15 сентября 2018 года . Проверено 16 октября 2014 г.
  38. Льюис, Грегори (19 февраля 2018 г.). «Синтез лошадиной оспы: случай проклятия одностороннего действия?». Бюллетень ученых-атомщиков . Архивировано из оригинала 25 февраля 2018 года . Проверено 26 февраля 2018 г.
  39. ^ "100 лучших мыслителей мира по версии FP - 73. Ник Бостром" . Внешняя политика . 30 ноября 2009 г. Архивировано из оригинала 21 октября 2014 г.
  40. Катчинский, Серена (23 апреля 2014 г.). «Мировые мыслители 2014: итоги». Перспектива . Проверено 19 июня 2022 г.
  41. ^ «Комитет по цифровым навыкам - график» . Парламент Великобритании . Проверено 17 марта 2017 г.
  42. ^ «Команда - Научно-исследовательский институт машинного интеллекта» . Научно-исследовательский институт машинного интеллекта . Проверено 17 марта 2017 г.
  43. ^ «Команда - Институт будущего жизни» . Институт будущего жизни . Проверено 17 марта 2017 г.
  44. ^ Макбейн, Софи (4 октября 2014 г.). «Скоро апокалипсис: познакомьтесь с учеными, готовящимися к концу времен». Новая Республика . Проверено 17 марта 2017 г.
  45. ^ аб Ладден-Холл, Дэн (12 января 2023 г.). «Ведущий оксфордский философ Ник Бостром признается, что написал« отвратительное »массовое электронное письмо на букву N» . Ежедневный зверь . Проверено 12 января 2023 г.
  46. ^ Аб Бостром, Ник. «Извинения за старое письмо» (PDF) . Nickbostrom.com . Проверено 17 января 2024 г.
  47. Бильярд, Дилан (15 января 2023 г.). «Начато расследование расистского письма Оксфордского Дона» . Оксфордский синий .

Внешние ссылки