stringtranslate.com

Этика роботов

Этика роботов , иногда называемая « робоэтикой », касается этических проблем, которые возникают с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве « роботов-убийц » на войне), и как роботы должны быть спроектированы таким образом, чтобы они действовали «этично» (последняя проблема также называется машинной этикой ). С другой стороны, роботоэтика относится конкретно к этике поведения человека по отношению к роботам, поскольку роботы становятся все более продвинутыми. [1] Этика роботов является подобластью этики технологий, в частности информационных технологий, и она тесно связана с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы создания робототехнических технологий и их внедрения в общества таким образом, чтобы при этом обеспечить безопасность человеческой расы. [2]

Хотя эти вопросы так же стары, как и само слово «робот» , серьезные академические дискуссии начались около 2000 года. Этика роботов требует совместной приверженности экспертов нескольких дисциплин, которые должны адаптировать законы и правила к проблемам, возникающим в результате научных и технологических достижений в области робототехники и искусственного интеллекта. Основными областями, вовлеченными в этику роботов, являются: робототехника , компьютерные науки , искусственный интеллект , философия , этика , теология , биология , физиология , когнитивная наука , нейронауки , право , социология , психология и промышленный дизайн . [3]

История и события

Некоторые из центральных дискуссий об этике в отношении обращения с нечеловеческими или небиологическими вещами и их потенциальной «духовностью». Другая центральная тема, связанная с развитием машин и, в конечном итоге, роботов, эта философия также применялась к робототехнике. Одной из первых публикаций, напрямую затрагивающих и устанавливающих основу этики роботов, была «Runaround» (рассказ) , научно-фантастический рассказ, написанный Айзеком Азимовым в 1942 году, в котором были представлены его известные Три закона робототехники . Эти три закона постоянно изменялись Азимовым, и в конечном итоге был добавлен четвертый, или нулевой закон, предшествующий первым трем, в контексте его научно-фантастических произведений. Короткий термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио. [4]

Важным событием, которое подтолкнуло интерес к роботоэтике, стал Первый международный симпозиум по роботоэтике в 2004 году, организованный совместными усилиями Scuola di Robotica, Художественной лаборатории Scuola Superiore Sant'Anna, Пиза, и Теологического института Pontificia Accademia della Santa Croce, Рим. [5] В связи с деятельностью школы робототехники, которая является некоммерческой организацией и призвана содействовать распространению знаний о науке робототехники среди студентов и широкой общественности, был проведен этот симпозиум по роботоэтике. В ходе дискуссий со студентами и неспециалистами Джанмарко Веруджио и Фиорелла Оперто считали необходимым распространять среди широкой общественности правильные представления о предполагаемых опасностях робототехники. Они считали, что продуктивная дискуссия, основанная на точных идеях и реальных знаниях, может подтолкнуть людей к активному участию в формировании общественного мнения, заставить их понять положительное использование новой технологии и предотвратить ее злоупотребление. После двух дней интенсивных дебатов антрополог Даниэла Серки выделила три основные этические позиции, возникшие в результате двух дней интенсивных дебатов:

  1. Те, кто не интересуется этикой. Они считают, что их действия носят исключительно технический характер, и не считают, что у них есть социальная или моральная ответственность в их работе.
  2. Те, кто интересуется краткосрочными этическими вопросами. Согласно этому профилю, вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать «уважение» и помощь людям в различных областях, таких как реализация законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохо» и «хорошо», относительны. Это современные ценности индустриальных стран).
  3. Те, кто мыслит в терминах долгосрочных этических вопросов, например, о «цифровом разрыве» между Югом и Севером, или молодыми и пожилыми. Они знают о разрыве между индустриальными и бедными странами и задаются вопросом, не следует ли первым изменить свой способ развития робототехники, чтобы быть более полезными для Юга. Они не формулируют явно вопрос «зачем», но мы можем считать, что он подразумевается». [6]

Вот некоторые важные события и проекты в области этики робототехники. Дальнейшие события в этой области анонсируются тематическими группами euRobotics ELS и RoboHub:

Робот-доставщик в больнице перед дверями лифта с надписью «У робота приоритет» — ситуация, которую можно рассматривать как обратную дискриминацию по отношению к людям.

Специалист по информатике Вирджиния Дигнум отметила в выпуске журнала Ethics and Information Technology за март 2018 года , что общее отношение общества к искусственному интеллекту (ИИ) в современную эпоху сместилось от взгляда на ИИ как на инструмент к взгляду на него как на разумного «напарника». В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, как она утверждает, может быть достигнута в современную эпоху при тщательном обдумывании и реализации. [14] [15] [16] [17] [18] Три этические цели следующие:

В популярной культуре

Иллюстрация HAL 9000
Иллюстрация HAL 9000 , вымышленного персонажа искусственного интеллекта из фильма « Космическая одиссея 2001 года»

Робоэтика как научная или философская тема стала общей темой в научно-фантастической литературе и фильмах. Одним из фильмов, который, как можно утверждать, укоренился в поп-культуре и изображает антиутопическое будущее использование роботизированного ИИ, является «Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человеческой расы. Анимационный фильм по мотивам «Матрицы» , « Аниматрица» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные короткометражки «Аниматрицы» также названы в честь вымышленных рассказов Айзека Азимова.

Другой аспект роботоэтики конкретно касается обращения людей с роботами и был исследован в многочисленных фильмах и телешоу. Одним из таких примеров является «Звездный путь: Следующее поколение» , в котором гуманоидный андроид по имени Дейта является одним из главных героев. По большей части ему доверяют критически важную работу, но его способность вписаться в среду других живых существ часто находится под вопросом. [20] Совсем недавно фильм «Из машины» и телешоу «Мир Дикого Запада» довольно прямо взялись за эти этические вопросы, изобразив гиперреалистичных роботов, к которым люди относятся как к несущественным товарам. [21] [22] Вопросы, связанные с обращением с искусственными существами, также были ключевым компонентом «Бегущего по лезвию» (франшиза) на протяжении более 50 лет. [23] Такие фильмы, как «Она», даже еще больше извлекли из человеческих отношений роботов, убрав физический аспект и сосредоточившись на эмоциях.

Хотя это и не часть робоэтики как таковой , этическое поведение самих роботов также было объединяющим вопросом в робоэтике в популярной культуре. Серия «Терминатор» фокусируется на роботах, управляемых сознательной программой ИИ, не сдерживающей уничтожение своих врагов. Эта серия также имеет тот же архетип, что и серия «Матрица» , где роботы взяли под контроль. Другой известный случай поп-культуры роботов или ИИ без запрограммированной этики или морали — это HAL 9000 в серии «Космическая одиссея» , где HAL (компьютер с передовыми возможностями ИИ, который контролирует и помогает людям на космической станции) убивает всех людей на борту, чтобы обеспечить успех назначенной миссии после того, как его собственная жизнь оказывается под угрозой. [24]

Роботы-убийцы

Летальные автономные системы оружия (LAWS), которые часто называют «роботами-убийцами», теоретически способны нацеливаться и стрелять без человеческого надзора и вмешательства. В 2014 году Конвенция об обычных видах оружия (CCW) провела два заседания. Первым было Совещание экспертов по летальным автономным системам оружия (LAWS). Это заседание было посвящено специальному мандату по LAWS и вызвало интенсивную дискуссию. [25] Национальные делегации и многие неправительственные организации (НПО) высказали свое мнение по этому вопросу.

Многочисленные НПО и некоторые государства, такие как Пакистан и Куба, призывают к превентивному запрету ЗАКОНОВ. Они предложили свои мнения, основанные на деонтологических и консеквенциалистских рассуждениях. С деонтологической стороны, некоторые философы, такие как Питер Асаро и Роберт Спэрроу, большинство НПО и Ватикан утверждают, что предоставление слишком больших прав машинам нарушает человеческое достоинство, и что люди имеют «право не быть убитыми машиной». Чтобы поддержать свою точку зрения, они неоднократно ссылаются на оговорку Мартенса .

В конце этой встречи наиболее важным возражением последователей было то, что LAWS никогда не сможет соблюдать международное гуманитарное право (МГП), как полагают НПО, многие исследователи и несколько государств ( Пакистан , Австрия , Египет , Мексика ).

По данным Международного комитета Красного Креста (МККК), «нет сомнений в том, что разработка и использование автономных систем оружия в вооруженном конфликте регулируется международным гуманитарным правом». [26] Государства признают это: те, кто участвовал в первом совещании экспертов ООН в мае 2014 года, признали соблюдение МГП в качестве важнейшего условия для реализации LAWS. С разными прогнозами некоторые государства считают, что LAWS не сможет соответствовать этому критерию, в то время как другие подчеркивают сложность вынесения решения на данном этапе, не зная будущих возможностей оружия ( Япония , Австралия ). Все в равной степени настаивают на предварительной проверке соответствия систем МГП до их ввода в эксплуатацию в силу статьи первого дополнительного протокола к Женевским конвенциям.

Степень человеческого контроля

Три классификации степени человеческого контроля над автономными системами оружия были изложены Бонни Дочерти в отчете Human Rights Watch за 2012 год . [27]

Секс-роботы

В 2015 году была запущена Кампания против секс-роботов (CASR), чтобы привлечь внимание к сексуальным отношениям людей с машинами. Кампания утверждает, что секс-роботы потенциально вредны и будут способствовать неравенству в обществе, и что необходим организованный подход и этический ответ против развития секс-роботов. [28]

В статье Should We Campaign Against Sex Robots?, опубликованной MIT Press , исследователи указали на некоторые недостатки этой кампании и не поддержали полный запрет секс-роботов. Во-первых, они утверждали, что конкретные утверждения, выдвинутые CASR, были «неубедительными», отчасти из-за отсутствия ясности в отношении целей кампании, а отчасти из-за существенных дефектов в основных этических возражениях, выдвинутых основателями кампании. Во-вторых, они утверждали, что было бы очень трудно поддержать общую кампанию против секс-роботов, если человек не придерживается крайне консервативного отношения к этике секса. Опираясь на пример кампании по прекращению роботов-убийц, они считали, что нет изначально плохих свойств секс-роботов, которые вызывали бы столь же серьезные опасения, поскольку вред, причиняемый секс-роботами, является спекулятивным и косвенным. Тем не менее, статья признает, что существуют законные опасения, которые могут быть высказаны по поводу разработки секс-роботов. [29]

Закон

С учетом современных технологических проблем, возникающих по мере развития общества, одной из тем, требующих тщательного размышления, является этика роботов в отношении права. Ученые обсуждают процесс того, как правительство могло бы заняться созданием законодательства с этикой и правом роботов. Пара ученых, которые задавали эти вопросы, — профессор права Нил М. Ричардс в юридической школе Вашингтонского университета , а также доцент кафедры компьютерных наук Уильям Д. Смарт в инженерной школе Маккелви . В своей статье «Как роботы должны думать о праве» они делают четыре основных утверждения относительно этики роботов и права. [30] Основа их аргументации лежит в определении робота как «небиологического автономного агента, который, по нашему мнению, отражает суть нормативных и технологических проблем, которые представляют роботы, и который может быть полезной основой регулирования». Во-вторых, пара исследует будущие передовые возможности роботов примерно через десятилетия. Их третье утверждение утверждает связь между правовыми вопросами этики роботов и опытом права с правовым опытом киберправа. Это означает, что законы об этике роботов могут обращаться к киберправу за руководством. «Урок», извлеченный из кибер-права, заключается в важности метафор, которые мы понимаем как возникающие проблемы в технологиях. Это основано на том, что если мы неправильно понимаем метафору, например, законодательство, касающееся возникающей технологической проблемы, скорее всего, неверно. Четвертое утверждение, против которого они выступают, — это метафора, которую пара определяет как «Заблуждение об андроиде». Они выступают против заблуждения об андроиде, которое утверждает, что люди и небиологические сущности «такие же, как люди».

Эмпирическое исследование

Существуют неоднозначные данные относительно того, оценивают ли люди поведение роботов так же, как и людей. Некоторые данные указывают на то, что люди рассматривают плохое поведение негативно, а хорошее — позитивно, независимо от того, является ли агентом поведения человек или робот; однако роботы получают меньше похвалы за хорошее поведение и больше порицания за плохое поведение. [31] Другие данные свидетельствуют о том, что злонамеренное поведение роботов рассматривается как более морально неправильное, чем доброжелательное поведение — как морально правильное; злонамеренное поведение роботов рассматривается как более преднамеренное, чем доброжелательное поведение. [32] В целом, моральные суждения людей как о роботах, так и о людях основаны на одних и тех же обоснованиях и концепциях, но у людей разные моральные ожидания при оценке людей и роботов. [33] Исследования также показали, что когда люди пытаются интерпретировать и понять, как роботы решают вести себя определенным образом, они могут видеть, что роботы используют эмпирические правила (продвигай себя, делай то, что правильно, продвигай других, делай то, что логично, и делай то, что нормально), которые соответствуют устоявшимся этическим доктринам (эгоизм, деонтология, альтруизм, утилитаризм и нормативность). [34]

Смотрите также

Примечания

  1. ^ Веруджио, Джанмарко; Оперто, Фиорелла (2008), Сицилиано, Бруно; Хатиб, Усама (ред.), «Робоэтика: социальные и этические последствия робототехники», Springer Handbook of Robotics , Springer Berlin Heidelberg, стр. 1499–1524, doi : 10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. ^ "Этика роботов". IEEE Robotics and Automation Society . Получено 26.06.2017 .
  3. ^ "Этика робототехники - IEEE Robotics and Automation Society - IEEE Robotics and Automation Society". www.ieee-ras.org . Получено 10 апреля 2022 г.
  4. ^ Цафестас, Спирос Г. (2016). Робоэтика: обзор навигации . Cham: Springer. стр. 1. ISBN 978-3-319-21713-0.
  5. ^ "Обложка ROBOETHICS". www.roboethics.org . Получено 29.09.2020 .
  6. ^ Веруджио, Джанмарко. «Рождение Робоэтики» (PDF) . www.roboethics.org .
  7. ^ «Всемирная декларация роботов». Новости Киодо .
  8. ^ «Саудовская Аравия дает гражданство немусульманскому роботу, говорящему по-английски». Newsweek . 26 октября 2017 г.
  9. ^ «Саудовская Аравия дарует гражданство роботу по имени София». TechCrunch . 26 октября 2017 г. Получено 27 октября 2016 г.
  10. ^ «Саудовская Аравия делает ужасающий шаг в будущее, предоставляя гражданство роботу». AV Club . 26 октября 2017 г. Получено 28 октября 2017 г.
  11. ^ "Саудовскую Аравию критикуют за предоставление гражданства женщинам-роботам, хотя это ограничивает права женщин - ABC News". Abcnews.go.com . Получено 28.10.2017 .
  12. ^ Ипхофен, Рон; Критикос, Михалис (15.03.2021). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Contemporary Social Science . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  13. ^ «Нечеловеческая партия». 2021.
  14. ^ Рахван, Ияд (2018). «Общество в петле: программирование алгоритмического общественного договора». Этика и информационные технологии . 20 : 5–14. arXiv : 1707.07232 . doi : 10.1007/s10676-017-9430-8. S2CID  3674879.
  15. ^ Брайсон, Джоанна (2018). «Терпение — это не добродетель: проектирование интеллектуальных систем и систем этики». Этика и информационные технологии . 20 : 15–26. doi : 10.1007/s10676-018-9448-6 .
  16. ^ Вэмплью, Питер; Дейзли, Ричард; Фоул, Кэмерон; Фирмин, Салли (2018). «Искусственный интеллект, ориентированный на человека, — многоцелевая проблема». Этика и информационные технологии . 20 : 27–40. doi : 10.1007/s10676-017-9440-6. hdl : 1959.17/164225. S2CID  3696067.
  17. ^ Боннемейнс, Винсент; Сорель, Клэр; Тессье, Кэтрин (2018). «Встроенная этика: некоторые технические и этические проблемы» (PDF) . Этика и информационные технологии . 20 : 41–58. doi :10.1007/s10676-018-9444-x. S2CID  3697093.
  18. ^ Арнольд, Томас; Шойц, Маттиас (2018). «Большая красная кнопка» слишком поздно: альтернативная модель этической оценки систем ИИ». Этика и информационные технологии . 20 : 59–69. doi :10.1007/s10676-018-9447-7. S2CID  3582967.
  19. ^ Дигнум, Вирджиния (2018). «Этика в области искусственного интеллекта: Введение в специальный выпуск». Этика и информационные технологии . 20 : 1–3. doi : 10.1007/s10676-018-9450-z .
  20. Шорт, Сью (01.01.2003). «Мера человека?: Двухсотлетний человек Азимова, данные «Звездного пути» и бытие человеком». Экстраполяция . 44 (2): 209–223. doi :10.3828/extr.2003.44.2.6. ISSN  0014-5483.
  21. ^ Сотрудники Pacific Standard. «Может ли «Мир Дикого Запада» дать нам новые способы говорить о рабстве?». Pacific Standard . Получено 16 сентября 2019 г.
  22. ^ Паркер, Лора (15.04.2015). «Как «Ex Machina» выделяется тем, что не боится искусственного интеллекта». The Atlantic . Получено 16.09.2019 .
  23. ^ Килкенни, Кэти. «Смысл жизни в «Бегущем по лезвию 2049»». Pacific Standard . Получено 16 сентября 2019 г.
  24. ^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия. Routledge. doi : 10.4324/9781315591070. ISBN 9781315591070. Получено 16.09.2019 .
  25. ^ "2014". reachcriticalwill.org . Получено 2022-04-03 .
  26. ^ «Позиция Международного комитета Красного Креста (МККК) по автономным системам оружия: позиция МККК и справочный документ». Международный обзор Красного Креста . 102 (915): 1335–1349. Декабрь 2020 г. doi : 10.1017/s1816383121000564. ISSN  1816-3831. S2CID  244396800.
  27. ^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения». армия.мил .
  28. ^ Темпертон, Джеймс (15.09.2015). «Кампания призывает запретить секс-роботов». Wired UK . ISSN  1357-0978 . Получено 07.08.2022 .
  29. ^ Данахер, Джон; Эрп, Брайан Д.; Сандберг, Андерс (2017), Данахер, Джон; МакАртур, Нил (ред.), «Стоит ли нам проводить кампанию против секс-роботов?», Роботизированный секс: социальные и этические последствия , Кембридж, Массачусетс: MIT Press , получено 16 апреля 2022 г.
  30. ^ Ричардс, Нил М.; Смарт, Уильям Д. (2013). «Как закон должен думать о роботах?». SSRN  2263363.
  31. ^ Бэнкс, Хайме (10.09.2020). «Хорошие роботы, плохие роботы: морально обоснованное поведение влияет на воспринимаемый разум, мораль и доверие». Международный журнал социальной робототехники . 13 (8): 2021–2038. doi : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
  32. ^ Свидерска, Александра; Кюстер, Деннис (2020). «Роботы как злонамеренные моральные агенты: вредоносное поведение приводит к дегуманизации, а не к антропоморфизму». Когнитивная наука . 44 (7): e12872. doi : 10.1111/cogs.12872 . PMID  33020966. S2CID  220429245.
  33. ^ Voiklis, John; Kim, Boyoung; Cusimano, Corey; Malle, Bertram F. (август 2016 г.). «Моральные суждения агентов-людей против агентов-роботов». 2016 25-й Международный симпозиум IEEE по интерактивной коммуникации между роботами и людьми (RO-MAN) . стр. 775–780. doi :10.1109/ROMAN.2016.7745207. ISBN 978-1-5090-3929-6. S2CID  25295130.
  34. ^ Бэнкс, Хайме; Кобан, Кевин (2021). «Влияние фрейминга на суждения о (без)нравственном поведении социальных роботов». Frontiers in Robotics and AI . 8 : 627233. doi : 10.3389/frobt.2021.627233 . PMC 8141842. PMID  34041272 . 

Ссылки

Дальнейшее чтение

Внешние ссылки