stringtranslate.com

Этика роботов

Этика роботов , иногда известная как « робоэтика », касается этических проблем, которые возникают с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве « убийц» ). роботы «на войне») и то, как роботы должны быть спроектированы так, чтобы они действовали «этично» (последняя проблема также называется машинной этикой ). Альтернативно, роботоэтика относится конкретно к этике поведения человека по отношению к роботам, поскольку роботы становятся все более продвинутыми. [1] Этика роботов — это подобласть этики технологий, в частности информационных технологий, и она тесно связана с юридическими, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы создания роботизированных технологий и их внедрения в обществе таким образом, чтобы обеспечить безопасность человечества. [2]

Хотя эти проблемы так же стары, как слово « робот» , серьезные академические дискуссии начались примерно в 2000 году. Этика роботов требует совместной работы экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в мире. Робототехника и искусственный интеллект. Основными областями, вовлеченными в этику роботов, являются: робототехника , информатика , искусственный интеллект , философия , этика , теология , биология , физиология , когнитивная наука , нейронауки , право , социология , психология и промышленный дизайн . [3]

История и события

Некоторые из центральных обсуждений этики в отношении обращения с нечеловеческими или небиологическими вещами и их потенциальной «духовностью». Другая центральная тема связана с разработкой машин и, в конечном итоге, роботов. Эта философия также применялась к робототехнике. Одной из первых публикаций, непосредственно затрагивающих и закладывающих основы этики роботов, была «Работа» (рассказ) , научно-фантастический рассказ, написанный Айзеком Азимовым в 1942 году, в котором были представлены его хорошо известные « Три закона робототехники ». Эти три закона постоянно изменялись Азимовым, и в конечном итоге в контексте его научно-фантастических произведений перед первыми тремя был добавлен четвертый, или нулевой закон. Кратковременный термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио. [4]

Важным событием, которое вызвало интерес к роботоэтике, стал Первый международный симпозиум по роботоэтике в 2004 году, организованный совместными усилиями Scuola di Robotica, Лаборатории искусств Scuola Superiore Sant'Anna, Пиза, и Теологического института Папской академии Санта-Кроче. Рим. [5] Благодаря деятельности школы робототехники, которая является некоммерческой организацией и призвана способствовать распространению знаний о робототехнике среди студентов и широкой общественности, был проведен этот симпозиум по робототехнике. В беседах со студентами и неспециалистами Джанмарко Веруджио и Фиорелла Оперто считали, что необходимо распространять среди широкой общественности правильные представления о предполагаемых опасностях робототехники. Они считали, что продуктивные дебаты, основанные на точных взглядах и реальных знаниях, могут подтолкнуть людей к активному участию в формировании общественного мнения, заставить их осознать позитивное использование новой технологии и предотвратить злоупотребление ею. После двух дней интенсивных дебатов антрополог Даниэла Серки выделила три основные этические позиции, возникшие в результате двухдневных интенсивных дебатов:

  1. Те, кого не интересует этика. Они считают, что их действия носят чисто технический характер, и не считают, что несут социальную или моральную ответственность за свою работу.
  2. Те, кого интересуют краткосрочные этические вопросы. Согласно этому профилю, вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать в себя «уважение» и помощь людям в различных областях, таких как исполнение законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохого» и «хорошего», относительны. Это современные ценности промышленно развитых стран).
  3. Те, кто думает с точки зрения долгосрочных этических вопросов, например, о «цифровом разрыве» между Югом и Севером или молодежью и пожилыми людьми. Они осознают разрыв между промышленно развитыми и бедными странами и задаются вопросом, не следует ли первым изменить свой подход к развитию робототехники, чтобы принести больше пользы Югу. Вопрос «зачем» они не формулируют явно, но можно считать, что он неявный». [6]

Это некоторые важные события и проекты в области этики роботов. О дальнейших мероприятиях в этой области объявляет тематическая группа euRobotics ELS и RoboHub:

Робот-доставщик больницы перед дверями лифта с надписью «Робот имеет приоритет», ситуация, которую можно расценивать как обратную дискриминацию по отношению к людям.

Ученый-компьютерщик Вирджиния Дигнум в мартовском выпуске журнала «Этика и информационные технологии» за 2018 год отметила , что общее отношение общества к искусственному интеллекту (ИИ) в современную эпоху сместилось от рассмотрения ИИ как инструмента к рассмотрению его как интеллектуальной «команды». -приятель". В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, по ее мнению, может быть достигнута в современную эпоху при тщательном обдумывании и реализации. [14] [15] [16] [17] [18] Три этические цели заключаются в следующем:

В популярной культуре

Робоэтика как научная или философская тема стала распространенной темой в научно-фантастической литературе и фильмах. Одним из фильмов, который, как можно утверждать, укоренился в поп-культуре и изображает антиутопическое будущее использования роботизированного ИИ, является « Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человечества. . Анимационный фильм, основанный на «Матрице» , « Аниматрикс» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности в отношениях между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные короткометражки Animatrix также названы в честь вымышленных рассказов Айзека Азимова.

Другой аспект роботоэтики конкретно касается обращения людей с роботами и рассматривается в многочисленных фильмах и телешоу. Одним из таких примеров является Star Trek: The Next Generation , в котором одним из главных героев является человекоподобный андроид по имени Дейта . По большей части ему доверяют ответственную работу, но его способность приспособиться к другим живым существам часто подвергается сомнению. [20] Совсем недавно в фильме «Из машины» и телешоу «Мир Дикого Запада» эти этические вопросы были рассмотрены совершенно напрямую, изображая гиперреалистичных роботов, к которым люди относятся как к несущественному товару. [21] [22] Вопросы, связанные с обращением с искусственными существами, также были ключевым компонентом франшизы «Бегущий по лезвию» на протяжении более 50 лет. [23] Такие фильмы, как «Она» , даже еще больше усовершенствовали человеческие отношения с роботами, убрав физический аспект и сосредоточив внимание на эмоциях.

Хотя этическое поведение самих роботов и не является частью роботоэтики как таковой , оно также является объединяющим вопросом роботоэтики в массовой культуре. Серия « Терминатор» посвящена роботам, управляемым сознательной программой искусственного интеллекта, которая не имеет ограничений в уничтожении своих врагов. Этот сериал также имеет тот же архетип, что и сериал «Матрица» , где управление взяли на себя роботы. Еще один известный пример поп-культуры роботов или искусственного интеллекта без запрограммированной этики и морали — это HAL 9000 из серии «Космическая одиссея» , где HAL (компьютер с расширенными возможностями искусственного интеллекта, который контролирует и помогает людям на космической станции) убивает всех людей на борту, чтобы гарантировать успех порученной миссии после того, как его собственная жизнь окажется под угрозой. [24]

Роботы-убийцы

Летальные автономные системы вооружения (LAWS), которые часто называют «роботами-убийцами», теоретически способны целиться и вести огонь без надзора и вмешательства человека. В 2014 году Конвенция по обычному оружию (КОО) провела два заседания. Первым было Совещание экспертов по смертоносным автономным системам вооружения (LAWS). Эта встреча была посвящена специальному мандату по ЗАКОНАМ и вызвала бурную дискуссию. [25] Национальные делегации и многие неправительственные организации (НПО) высказали свое мнение по этому вопросу.

Многочисленные НПО и некоторые государства, такие как Пакистан и Куба, призывают к превентивному запрету ЗАКОНОВ. Они предложили свои мнения, основанные на деонтологических и консеквенциалистских рассуждениях. С деонтологической точки зрения некоторые философы, такие как Питер Асаро и Роберт Воробей, большинство неправительственных организаций и Ватикан утверждают, что предоставление слишком больших прав машинам нарушает человеческое достоинство и что люди имеют «право не быть убитыми машиной». В поддержку своей точки зрения они неоднократно цитируют оговорку Мартенса .

В конце этой встречи самым важным консеквенциалистским возражением было то, что ЗАКОНЫ никогда не смогут уважать международное гуманитарное право (МГП), как считали НПО, многие исследователи и несколько государств ( Пакистан , Австрия , Египет , Мексика ).

По мнению Международного комитета Красного Креста (МККК), «нет сомнений в том, что разработка и использование автономных систем вооружения в вооруженном конфликте регулируются международным гуманитарным правом». [26] Государства это признают: те, кто участвовал в первом совещании экспертов ООН в мае 2014 года, признали уважение МГП важнейшим условием реализации ЗАКОНОВ. Имея различные прогнозы, некоторые государства считают, что LAWS не смогут соответствовать этому критерию, в то время как другие подчеркивают сложность вынесения решения на данном этапе, не зная будущих возможностей оружия ( Япония , Австралия ). Все в равной степени настаивают на предварительной проверке соответствия систем МГП до их ввода в эксплуатацию в соответствии со статьей первого дополнительного протокола к Женевским конвенциям.

Степень человеческого контроля

Три классификации степени контроля человека над автономными системами вооружения были изложены Бонни Дочерти в отчете Хьюман Райтс Вотч за 2012 год . [27]

Секс-роботы

В 2015 году была запущена Кампания против секс-роботов (CASR), призванная привлечь внимание к сексуальным отношениям людей с машинами. Кампания утверждает, что секс-роботы потенциально вредны и будут способствовать неравенству в обществе, и что необходимы организованный подход и этический ответ против разработки секс-роботов. [28]

В статье Стоит ли проводить кампанию против секс-роботов? В опубликованном MIT Press исследователи указали на некоторые недостатки этой кампании и не поддержали полный запрет секс-роботов. Во-первых, они утверждали, что конкретные утверждения, выдвинутые CASR, были «неубедительными», отчасти из-за отсутствия ясности относительно целей кампании, а отчасти из-за существенных недостатков в основных этических возражениях, выдвинутых основателями кампании. Во-вторых, они утверждали, что будет очень сложно поддержать общую кампанию против секс-роботов, если не придерживаться крайне консервативного подхода к этике секса. Опираясь на пример кампании по остановке роботов-убийц, они пришли к выводу, что у секс-роботов нет никаких изначально плохих свойств, которые вызывали бы столь же серьезную обеспокоенность, а вред, причиняемый секс-роботами, является спекулятивным и косвенным. Тем не менее, в статье признается, что существуют обоснованные опасения по поводу разработки секс-роботов. [29]

Закон

Учитывая, что современные технологические проблемы возникают по мере развития общества, одной из тем, требующих тщательного размышления, является этика роботов в отношении закона. Ученые обсуждают, как правительство могло бы создать законодательство с учетом этики и права роботов. Этими вопросами задаются двое ученых: профессор права Нил М. Ричардс на юридическом факультете Вашингтонского университета , а также доцент кафедры компьютерных наук Уильям Д. Смарт в инженерной школе Маккелви . В своей статье «Как роботы должны думать о законе» они выдвигают четыре основных утверждения, касающихся этики и права роботов. [30] В основе их аргументации лежит определение робота как «небиологических автономных агентов, которые, по нашему мнению, отражают суть нормативных и технологических проблем, которые представляют собой роботы, и которые могли бы с пользой стать основой регулирования». Во-вторых, пара исследует будущие расширенные возможности роботов примерно через десятилетия. Их третье утверждение утверждает связь между правовыми вопросами, этикой роботов и юридическим опытом, с юридическим опытом киберправа. Это означает, что законы об этике роботов могут ориентироваться на киберзаконы. «Урок», извлеченный из киберправа, заключается в важности метафор, под которыми мы понимаем возникающие проблемы в сфере технологий. Это основано на том, что если мы, например, неправильно воспользуемся метафорой, то законодательство, касающееся возникающей технологической проблемы, скорее всего, будет неправильным. Четвертое утверждение, против которого они выступают, — это метафора, которую пара определяет как «Заблуждение Android». Они выступают против заблуждения андроидов, утверждающего, что люди и небиологические существа «точно такие же, как люди».

Эмпирические исследования

Существуют неоднозначные данные относительно того, оценивают ли люди поведение роботов так же, как люди, или нет. Некоторые данные указывают на то, что люди относятся к плохому поведению отрицательно, а к хорошему – положительно, независимо от того, является ли виновником такого поведения человек или робот; однако роботам меньше приписывают хорошее поведение и больше порицают за плохое поведение. [31] Другие данные свидетельствуют о том, что злонамеренное поведение роботов рассматривается как более морально неправильное, чем доброжелательное поведение считается морально правильным; злонамеренное поведение робота рассматривается как более преднамеренное, чем доброжелательное поведение. [32] В целом, моральные суждения людей как о роботах, так и о людях основаны на одних и тех же обоснованиях и концепциях, но люди имеют разные моральные ожидания при оценке людей и роботов. [33] Исследования также показали, что когда люди пытаются интерпретировать и понять, как роботы решают вести себя определенным образом, они могут видеть, что роботы используют эмпирические правила (развивай себя, делай то, что правильно, продвигай других, делай то, что нужно). логичны и делайте то, что нормально), которые соответствуют устоявшимся этическим доктринам (эгоизм, деонтология, альтруизм, утилитаризм и нормативность). [34]

Смотрите также

Примечания

  1. ^ Веруджио, Джанмарко; Оперто, Фиорелла (2008), Сицилиано, Бруно; Хатиб, Усама (ред.), «Робоэтика: социальные и этические последствия робототехники», Справочник Springer по робототехнике , Springer Berlin Heidelberg, стр. 1499–1524, номер документа : 10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. ^ «Этика роботов». Общество робототехники и автоматизации IEEE . Проверено 26 июня 2017 г.
  3. ^ «Этика роботов - Общество робототехники и автоматизации IEEE - Общество робототехники и автоматизации IEEE» . www.ieee-ras.org . Проверено 10 апреля 2022 г.
  4. ^ Цафестас, Спирос Г. (2016). Робоэтика. Навигационный обзор . Чам: Спрингер. п. 1. ISBN 978-3-319-21713-0.
  5. ^ "Обложка РОБОЭТИКА" . www.roboethics.org . Проверено 29 сентября 2020 г.
  6. ^ Веруджио, Джанмарко. «Рождение роботоэтики» (PDF) . www.roboethics.org .
  7. ^ «Всемирная декларация роботов». Новости Киодо .
  8. ^ «Саудовская Аравия дает гражданство немусульманскому, англоговорящему роботу» . Newsweek . 26 октября 2017 г.
  9. ^ «Саудовская Аравия предоставляет гражданство роботу по имени София». ТехКранч . 26 октября 2017 г. Проверено 27 октября 2016 г.
  10. ^ «Саудовская Аравия делает ужасающий шаг в будущее, предоставляя роботу гражданство» . АВ клуб . 26 октября 2017 г. Проверено 28 октября 2017 г.
  11. ^ «Саудовскую Аравию критикуют за предоставление гражданства женщинам-роботам, одновременно ограничивая права женщин - ABC News» . Abcnews.go.com . Проверено 28 октября 2017 г.
  12. ^ Ипхофен, Рон; Критикос, Михалис (15 марта 2021 г.). «Регулирование искусственного интеллекта и робототехники: задуманная этика в цифровом обществе». Современная общественная наука . 16 (2): 170–184. дои : 10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  13. ^ "Нечеловеческая партия". 2021.
  14. ^ Рахван, Ияд (2018). «Общество в цикле: программирование алгоритмического общественного контракта». Этика и информационные технологии . 20 :5–14. arXiv : 1707.07232 . дои : 10.1007/s10676-017-9430-8. S2CID  3674879.
  15. ^ Брайсон, Джоанна (2018). «Терпение — не добродетель: создание интеллектуальных систем и систем этики». Этика и информационные технологии . 20 :15–26. дои : 10.1007/s10676-018-9448-6 .
  16. ^ Вамплью, Питер; Дэйзли, Ричард; Фоул, Кэмерон; Фирмин, Салли (2018). «Искусственный интеллект, ориентированный на человека, - многокритериальная проблема». Этика и информационные технологии . 20 :27–40. дои : 10.1007/s10676-017-9440-6. hdl : 1959.17/164225. S2CID  3696067.
  17. ^ Боннемейн, Винсент; Сорел, Клэр; Тессье, Катрин (2018). «Встроенная этика: некоторые технические и этические проблемы» (PDF) . Этика и информационные технологии . 20 : 41–58. doi : 10.1007/s10676-018-9444-x. S2CID  3697093.
  18. ^ Арнольд, Томас; Шойц, Матиас (2018). «Большая красная кнопка» уже слишком поздно: альтернативная модель этической оценки систем искусственного интеллекта». Этика и информационные технологии . 20 : 59–69. дои : 10.1007/s10676-018-9447-7. S2CID  3582967.
  19. ^ Дигнум, Вирджиния (2018). «Этика искусственного интеллекта: введение в специальный выпуск». Этика и информационные технологии . 20 : 1–3. дои : 10.1007/s10676-018-9450-z .
  20. ^ Коротко, Сью (1 января 2003 г.). «Мера человека?: Двухсотлетний человек Азимова, данные «Звездного пути» и «быть человеком». Экстраполяция . 44 (2): 209–223. дои : 10.3828/extr.2003.44.2.6. ISSN  0014-5483.
  21. ^ Персонал, Pacific Standard. «Может ли «Мир Дикого Запада» дать нам новые способы говорить о рабстве?». Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
  22. ^ Паркер, Лора (15 апреля 2015 г.). «Чем «Ex Machina» выделяется тем, что не боится искусственного интеллекта». Атлантический океан . Проверено 16 сентября 2019 г.
  23. ^ Килкенни, Кэти. «Смысл жизни в «Бегущем по лезвию 2049»». Тихоокеанский стандарт . Проверено 16 сентября 2019 г.
  24. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия. Рутледж. дои : 10.4324/9781315591070. ISBN 9781315591070. Проверено 16 сентября 2019 г.
  25. ^ "2014". Достигнув сайта Criticalwill.org . Проверено 3 апреля 2022 г.
  26. ^ «Позиция Международного комитета Красного Креста (МККК) по автономным системам вооружения: позиция МККК и справочный документ» . Международное обозрение Красного Креста . 102 (915): 1335–1349. Декабрь 2020 г. doi : 10.1017/s1816383121000564. ISSN  1816-3831. S2CID  244396800.
  27. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения». армия.мил .
  28. ^ Темпертон, Джеймс (15 сентября 2015 г.). «Кампания призывает запретить секс-роботов». Проводная Великобритания . ISSN  1357-0978 . Проверено 7 августа 2022 г.
  29. ^ Данахер, Джон; Эрп, Брайан Д.; Сандберг, Андерс (2017), Данахер, Джон; МакАртур, Нил (ред.), «Должны ли мы вести кампанию против секс-роботов?», Секс роботов: социальные и этические последствия , Кембридж, Массачусетс: MIT Press , получено 16 апреля 2022 г.
  30. ^ Ричардс, Нил М.; Смарт, Уильям Д. (2013). «Как закон должен относиться к роботам?». ССНН  2263363.
  31. ^ Бэнкс, Джейме (10 сентября 2020 г.). «Хорошие роботы, плохие роботы: влияние морально валентного поведения на воспринимаемый разум, мораль и доверие». Международный журнал социальной робототехники . 13 (8): 2021–2038. дои : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
  32. ^ Свидерска, Александра; Кюстер, Деннис (2020). «Роботы как злонамеренные моральные агенты: вредное поведение приводит к дегуманизации, а не антропоморфизму». Когнитивная наука . 44 (7): e12872. дои : 10.1111/cogs.12872 . PMID  33020966. S2CID  220429245.
  33. ^ Войклис, Джон; Ким, Бойён; Кузимано, Кори; Малле, Бертрам Ф. (август 2016 г.). «Моральные суждения агентов-человеков и роботов». 2016 25-й Международный симпозиум IEEE по интерактивному общению роботов и людей (RO-MAN) . стр. 775–780. дои : 10.1109/ROMAN.2016.7745207. ISBN 978-1-5090-3929-6. S2CID  25295130.
  34. ^ Бэнкс, Джейме; Кобан, Кевин (2021). «Влияние фрейминга на суждения о (им)моральном поведении социальных роботов». Границы робототехники и искусственного интеллекта . 8 : 627233. дои : 10.3389/frobt.2021.627233 . ПМК 8141842 . ПМИД  34041272. 

Рекомендации

дальнейшее чтение

Внешние ссылки