stringtranslate.com

Законы робототехники

Законы робототехники — это любой набор законов, правил или принципов, которые призваны служить фундаментальной основой для обоснования поведения роботов, разработанных с целью получения определенной степени автономии . Роботы такой степени сложности пока не существуют, но их появление широко ожидалось в научной фантастике , фильмах и являются предметом активных исследований и разработок в области робототехники и искусственного интеллекта .

Самый известный свод законов — это тот, который был написан Айзеком Азимовым в 1940-х годах или основан на нем, но за прошедшие десятилетия исследователи предложили и другие своды законов.

«Три закона робототехники» Айзека Азимова

Самый известный набор законов — это « Три закона робототехники » Айзека Азимова . Они были введены в его рассказе 1942 года « Хоровод », хотя они были предвосхищены в нескольких более ранних рассказах. Три закона таковы:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму Законам. [1]

В « Неизбежном конфликте » машины обобщают Первый Закон следующим образом:

  1. Ни одна машина не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

Это было уточнено в конце «Основания и Земли» . Был введен нулевой закон, а исходные три были соответствующим образом переписаны как подчиненные ему:

  1. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред.

Адаптации и расширения существуют на основе этой структуры. По состоянию на 2024 год они остаются « вымышленным устройством ». [2]

Дополнительные законы

Другие авторы, помимо Азимова, часто создавали дополнительные законы.

Роман Любена Дилова 1974 года «Путь Икара» (он же « Путешествие Икара ») ввел Четвертый закон робототехники: «Робот должен во всех случаях устанавливать свою идентичность как робота». Дилов приводит обоснования четвертой меры предосторожности следующим образом: «Последний закон положил конец дорогостоящим заблуждениям конструкторов, стремящихся придать психороботам как можно более человекоподобную форму. И возникшим из этого недоразумениям...» [3]

Пятый закон был введен Николой Кесаровски в его рассказе «Пятый закон робототехники». Этот пятый закон гласит: «Робот должен знать, что он робот». Сюжет вращается вокруг убийства, где судебно-медицинское расследование обнаруживает, что жертва была убита объятием человекоподобного робота, который не установил для себя, что он был роботом. [4] Рассказ был рассмотрен Валентином Д. Ивановым в обзорном веб-журнале SFF The Portal . [5]

Для трибьют-антологии 1986 года « Друзья Фонда » Гарри Гаррисон написал рассказ под названием «Четвертый закон робототехники». Этот Четвертый закон гласит: «Робот должен размножаться. Пока такое размноже-ние не мешает Первому, Второму или Третьему закону».

В 2013 году Хутан Ашрафиан предложил дополнительный закон, который рассматривал роль искусственного интеллекта в отношении искусственного интеллекта или отношения между самими роботами – так называемый закон AIonAI. [6] Этот шестой закон гласит: «Все роботы, наделенные сопоставимым человеческим разумом и совестью, должны действовать по отношению друг к другу в духе братства».

Принципы робототехники EPSRC/AHRC

В 2011 году Совет по исследованиям в области инженерии и физических наук (EPSRC) и Совет по исследованиям в области искусств и гуманитарных наук (AHRC) Соединенного Королевства совместно опубликовали набор из пяти этических «принципов для проектировщиков, строителей и пользователей роботов» в реальном мире, а также семь «высокоуровневых сообщений», которые должны были быть переданы на основе исследовательского семинара, состоявшегося в сентябре 2010 года: [2] [7] [8]

  1. Роботы не должны быть предназначены исключительно или в первую очередь для убийства или причинения вреда людям.
  2. Люди, а не роботы, являются ответственными агентами. Роботы — это инструменты, предназначенные для достижения человеческих целей.
  3. Роботы должны быть спроектированы таким образом, чтобы гарантировать их безопасность.
  4. Роботы — это артефакты; они не должны быть разработаны для эксплуатации уязвимых пользователей, вызывая эмоциональный отклик или зависимость. Всегда должно быть возможно отличить робота от человека.
  5. Всегда должна быть возможность выяснить, кто несет юридическую ответственность за робота.

Сообщения, которые предполагалось передать, были следующими:

  1. Мы считаем, что роботы обладают потенциалом для оказания огромного положительного влияния на общество. Мы хотим поощрять ответственные исследования роботов.
  2. Плохая практика вредит всем нам.
  3. Решение очевидных общественных проблем поможет нам всем добиться прогресса.
  4. Важно продемонстрировать, что мы, как специалисты по робототехнике, привержены наилучшим возможным стандартам практики.
  5. Чтобы понять контекст и последствия наших исследований, нам следует сотрудничать с экспертами из других дисциплин, включая социальные науки, право, философию и искусство.
  6. Нам следует рассмотреть этику прозрачности: существуют ли ограничения на то, что должно быть открыто доступно?
  7. Когда мы видим в прессе ошибочные сообщения, мы обязуемся выделить время и связаться с журналистами, которые их освещают.

Принципы EPSRC широко признаны как полезная отправная точка. В 2016 году Тони Прескотт организовал семинар для пересмотра этих принципов, например, для разграничения этических и правовых принципов. [9]

Судебное развитие

Другая комплексная терминологическая кодификация для правовой оценки технологических разработок в робототехнической отрасли уже началась, в основном, в странах Азии. [10] Этот прогресс представляет собой современную переинтерпретацию права (и этики) в области робототехники, интерпретацию, которая предполагает переосмысление традиционных правовых констелляций. К ним относятся, прежде всего, вопросы юридической ответственности в гражданском и уголовном праве.

Законы Сатьи Наделлы

В июне 2016 года Сатья Наделла , генеральный директор корпорации Microsoft , дал интервью журналу Slate и поразмышлял о том, какие принципы и цели следует учитывать отрасли и обществу при обсуждении искусственного интеллекта: [11] [12]

  1. «ИИ должен быть разработан для помощи человечеству», то есть необходимо уважать человеческую автономию.
  2. «ИИ должен быть прозрачным» — это означает, что люди должны знать и иметь возможность понимать, как он работает.
  3. «ИИ должен максимизировать эффективность, не унижая достоинство людей».
  4. «ИИ должен быть разработан для обеспечения интеллектуальной конфиденциальности», то есть он должен заслуживать доверие, защищая информацию.
  5. «ИИ должен обладать алгоритмической ответственностью, чтобы люди могли устранить непреднамеренный вред».
  6. «ИИ должен защищаться от предвзятости», чтобы не допускать дискриминации людей.

Законы Тильдена

Марк В. Тилден — физик-робототехник, который был пионером в разработке простых робототехнических устройств. [13] Его три руководящих принципа/правила для роботов: [13] [14] [15]

  1. Робот должен защищать свое существование любой ценой.
  2. Робот должен получить и поддерживать доступ к собственному источнику питания.
  3. Робот должен постоянно искать лучшие источники энергии.

Примечательно в этих трех правилах то, что это, по сути, правила для «дикой» жизни, поэтому, по сути, Тилден заявил, что он хотел «приобщить кремниевые виды к сознанию, но с полным контролем над характеристиками. Не растения. Не животного. Что-то еще». [16]

Смотрите также

Ссылки

  1. ^ Азимов, Исаак (1950). Я, Робот .
  2. ^ ab Стюарт, Джон (2011-10-03). "Готовы к революции роботов?". BBC News . Получено 2011-10-03 .
  3. ^ Дилов, Любень (он же Любин, Любень или Любень) (2002). Пътят на Икар . Захари Стоянов. ISBN 978-954-739-338-7.{{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  4. ^ Кесаровски, Никола (1983). Петият закон . Отечество.
  5. ^ Законная маленькая страна: болгарские законы робототехники | Портал
  6. ^ Ашрафиан, Хутан (2014). «AIonAI: Гуманитарный закон искусственного интеллекта и робототехники». Научная и инженерная этика . 21 (1): 29–40. doi :10.1007/s11948-013-9513-9. PMID  24414678. S2CID  2821971.
  7. ^ "Принципы робототехники: регулирование роботов в реальном мире". Совет по исследованиям в области инженерии и физических наук . Получено 2011-10-03 .
  8. ^ Уинфилд, Алан. «Пять принципов роботоэтики – для людей». New Scientist . Получено 2011-10-03 .
  9. ^ Мюллер, Винсент С. (2017). «Юридические и этические обязательства — комментарий к принципам EPSRC для робототехники». Connection Science . 29 (2): 137–141. doi :10.1080/09540091.2016.1276516. S2CID  19080722.
  10. ^ bcc.co.uk: Эпоха роботов ставит этическую дилемму. Ссылка
  11. ^ Наделла, Сатья (28.06.2016). «Партнерство будущего». Slate . ISSN  1091-2339 . Получено 30.06.2016 .
  12. ^ Винсент, Джеймс (29.06.2016). «Правила Сатьи Наделлы для ИИ скучнее (и актуальнее), чем Три закона Азимова». The Verge . Vox Media . Получено 30.06.2016 .
  13. ^ ab Hapgood, Fred (сентябрь 1994 г.). "Chaotic Robotics". Wired . Vol. 2, no. 9.
  14. Эшли Данн. «Машинный интеллект, часть II: от бамперных машин до электронных умов» The New York Times, 5 июня 1996 г. Получено 26 июля 2009 г.
  15. ^ makezine.com: Руководство для начинающих по BEAM (Большая часть статьи доступна только по подписке.)
  16. Хэпгуд, Фред (сентябрь 1994 г.). «Хаотическая робототехника (продолжение)». Wired . Т. 2, № 9.

[1]

  1. 17. Диктор (2011). Портал 2