Этика роботов , иногда называемая « робоэтикой », касается этических проблем, которые возникают с роботами, например, представляют ли роботы угрозу для людей в долгосрочной или краткосрочной перспективе, являются ли некоторые виды использования роботов проблематичными (например, в здравоохранении или в качестве « роботов-убийц » на войне), и как роботы должны быть спроектированы таким образом, чтобы они действовали «этично» (последняя проблема также называется машинной этикой ). С другой стороны, роботоэтика относится конкретно к этике поведения человека по отношению к роботам, поскольку роботы становятся все более продвинутыми. [1] Этика роботов является подобластью этики технологий, в частности информационных технологий, и она тесно связана с правовыми, а также социально-экономическими проблемами. Исследователи из разных областей начинают решать этические вопросы создания робототехнических технологий и их внедрения в общества таким образом, чтобы при этом обеспечить безопасность человеческой расы. [2]
Некоторые из центральных дискуссий об этике в отношении обращения с нечеловеческими или небиологическими вещами и их потенциальной «духовностью». Другая центральная тема, связанная с развитием машин и, в конечном итоге, роботов, эта философия также применялась к робототехнике. Одной из первых публикаций, напрямую затрагивающих и устанавливающих основу этики роботов, была «Runaround» (рассказ) , научно-фантастический рассказ, написанный Айзеком Азимовым в 1942 году, в котором были представлены его известные Три закона робототехники . Эти три закона постоянно изменялись Азимовым, и в конечном итоге был добавлен четвертый, или нулевой закон, предшествующий первым трем, в контексте его научно-фантастических произведений. Короткий термин «робоэтика», скорее всего, был придуман Джанмарко Веруджио. [4]
Важным событием, которое подтолкнуло интерес к роботоэтике, стал Первый международный симпозиум по роботоэтике в 2004 году, организованный совместными усилиями Scuola di Robotica, Художественной лаборатории Scuola Superiore Sant'Anna, Пиза, и Теологического института Pontificia Accademia della Santa Croce, Рим. [5] В связи с деятельностью школы робототехники, которая является некоммерческой организацией и призвана содействовать распространению знаний о науке робототехники среди студентов и широкой общественности, был проведен этот симпозиум по роботоэтике. В ходе дискуссий со студентами и неспециалистами Джанмарко Веруджио и Фиорелла Оперто считали необходимым распространять среди широкой общественности правильные представления о предполагаемых опасностях робототехники. Они считали, что продуктивная дискуссия, основанная на точных идеях и реальных знаниях, может подтолкнуть людей к активному участию в формировании общественного мнения, заставить их понять положительное использование новой технологии и предотвратить ее злоупотребление. После двух дней интенсивных дебатов антрополог Даниэла Серки выделила три основные этические позиции, возникшие в результате двух дней интенсивных дебатов:
Те, кто не интересуется этикой. Они считают, что их действия носят исключительно технический характер, и не считают, что у них есть социальная или моральная ответственность в их работе.
Те, кто интересуется краткосрочными этическими вопросами. Согласно этому профилю, вопросы выражаются в терминах «хорошо» или «плохо» и относятся к некоторым культурным ценностям. Например, они считают, что роботы должны придерживаться социальных условностей. Это будет включать «уважение» и помощь людям в различных областях, таких как реализация законов или помощь пожилым людям. (Такие соображения важны, но мы должны помнить, что ценности, используемые для определения «плохо» и «хорошо», относительны. Это современные ценности индустриальных стран).
Те, кто мыслит в терминах долгосрочных этических вопросов, например, о «цифровом разрыве» между Югом и Севером, или молодыми и пожилыми. Они знают о разрыве между индустриальными и бедными странами и задаются вопросом, не следует ли первым изменить свой способ развития робототехники, чтобы быть более полезными для Юга. Они не формулируют явно вопрос «зачем», но мы можем считать, что он подразумевается». [6]
Вот некоторые важные события и проекты в области этики робототехники. Дальнейшие события в этой области анонсируются тематическими группами euRobotics ELS и RoboHub:
1942: В рассказе Азимова « Runaround » впервые явно излагаются его Три Закона. Эти «Законы» будут повторно использованы в более поздних работах Азимова в области научной фантастики, связанной с роботами.
2004: Первый международный симпозиум по роботоэтике, организованный Школой робототехники, на котором впервые официально используется слово «робоэтика» (30–31 января 2004 г., Вилла Нобель, Сан-Ремо , Италия ).
2004: IEEE-RAS создает Технический комитет по роботоэтике. Архивировано 2 сентября 2006 г. на Wayback Machine .
2004: Фукуокская всемирная декларация робототехники (25 февраля 2004 г., Фукуока , Япония ). [7]
2005: Технический комитет IEEE RAS по роботоэтике организует ICRA05 (Международную конференцию по робототехнике и автоматизации), семинар по роботоэтике (18 апреля 2005 г., Барселона , Испания ).
2005–2006: EC Euron Roboethics Atelier. Проект Euron, координируемый Школой робототехники, вовлек большое количество робототехников и ученых-гуманитариев, которые создали первую Дорожную карту для Роботоэтики (февраль/март 2006 г., Генуя , Италия )
2006: BioRob2006, первая международная конференция IEEE/RAS-EMBS по биомедицинской робототехнике и биомехатронике; мини-симпозиум по роботоэтике (20 февраля 2006 г., Пиза , Италия ).
2006: Международный семинар «Этика взаимодействия человека с роботизированными, бионическими и искусственным интеллектом системами: концепции и политика»; при поддержке европейского проекта ETHICBOTS (17–18 октября 2006 г., Неаполь , Италия ).
2007: Технический комитет IEEE RAS по роботоэтике организует еще один семинар по роботоэтике, ICRA07 (Международная конференция по робототехнике и автоматизации) (14 апреля 2007 г., Рим , Италия ).
2007: Международная европейская конференция по информатике и философии E-CAP '07 Архивировано 01.07.2010 в Wayback Machine , трек: "roboethics" (21–23 июня 2007 г., Университет Твенте , Нидерланды ).
2007: Философское исследование компьютерной этики CEPE '07, тема: «Робоэтика» (12–14 июля 2007 г., Университет Сан-Диего , Калифорния , США ).
2008: МЕЖДУНАРОДНЫЙ СИМПОЗИУМ РОБОТОТЕХНИКА: НОВАЯ НАУКА (20 февраля 2008 г., Виа делла Лунгара 10, Рим , Италия ).
2009: Технический комитет IEEE RAS по роботоэтике организует еще один семинар по роботоэтике, ICRA09 (Международная конференция по робототехнике и автоматизации) (17 мая 2009 г., Кобе , Япония ).
2017: Future Investment Summit в Эр-Рияде ; робот (названный Софией и упоминаемый с женскими местоимениями) получает гражданство Саудовской Аравии , став первым роботом, когда-либо имеющим гражданство. [8] [9] Это вызывает споры из-за неоднозначности по нескольким вопросам, например, может ли София голосовать или выходить замуж, или следует ли считать преднамеренное отключение системы убийством. Кроме того, сопоставление прав, предоставляемых саудовским женщинам, с саудовским рассмотрением робота как гражданина вскоре вызовет критику со стороны нескольких поставщиков новостей [10] [11] (25 октября 2017 г., Эр-Рияд , Саудовская Аравия).
2017: Европейский парламент принял резолюцию, адресованную Европейской комиссии, относительно норм гражданского права в отношении робототехники. [12]
2021: Семинар IROS 2021 — Создание и оценка этических робототехнических систем
Специалист по информатике Вирджиния Дигнум отметила в выпуске журнала Ethics and Information Technology за март 2018 года , что общее отношение общества к искусственному интеллекту (ИИ) в современную эпоху сместилось от взгляда на ИИ как на инструмент к взгляду на него как на разумного «напарника». В той же статье она оценила, что в отношении ИИ у этических мыслителей есть три цели, каждая из которых, как она утверждает, может быть достигнута в современную эпоху при тщательном обдумывании и реализации. [14] [15] [16] [17] [18] Три этические цели следующие:
Этика по замыслу (техническая/алгоритмическая интеграция возможностей этического мышления как части поведения искусственной автономной системы — см. Машинная этика );
Этика в проектировании (нормативные и инженерные методы, которые поддерживают анализ и оценку этических последствий систем ИИ, поскольку они интегрируют или заменяют традиционные социальные структуры); а также
Этика проектирования (кодексы поведения, стандарты и процессы сертификации, которые гарантируют добросовестность разработчиков и пользователей при исследовании, проектировании, создании, использовании и управлении системами искусственного интеллекта — см. ниже Этика и право в области робототехники). [19]
В популярной культуре
Робоэтика как научная или философская тема стала общей темой в научно-фантастической литературе и фильмах. Одним из фильмов, который, как можно утверждать, укоренился в поп-культуре и изображает антиутопическое будущее использование роботизированного ИИ, является «Матрица» , изображающая будущее, в котором люди и сознательный разумный ИИ борются за контроль над планетой Земля, что приводит к уничтожению большей части человеческой расы. Анимационный фильм по мотивам «Матрицы» , « Аниматрица» , в значительной степени сосредоточен на потенциальных этических проблемах и неуверенности между людьми и роботами. Фильм разбит на короткие рассказы. Анимационные короткометражки «Аниматрицы» также названы в честь вымышленных рассказов Айзека Азимова.
Другой аспект роботоэтики конкретно касается обращения людей с роботами и был исследован в многочисленных фильмах и телешоу. Одним из таких примеров является «Звездный путь: Следующее поколение» , в котором гуманоидный андроид по имени Дейта является одним из главных героев. По большей части ему доверяют критически важную работу, но его способность вписаться в среду других живых существ часто находится под вопросом. [20] Совсем недавно фильм «Из машины» и телешоу «Мир Дикого Запада» довольно прямо взялись за эти этические вопросы, изобразив гиперреалистичных роботов, к которым люди относятся как к несущественным товарам. [21] [22] Вопросы, связанные с обращением с искусственными существами, также были ключевым компонентом «Бегущего по лезвию» (франшиза) на протяжении более 50 лет. [23] Такие фильмы, как «Она», даже еще больше извлекли из человеческих отношений роботов, убрав физический аспект и сосредоточившись на эмоциях.
Хотя это и не часть робоэтики как таковой , этическое поведение самих роботов также было объединяющим вопросом в робоэтике в популярной культуре. Серия «Терминатор» фокусируется на роботах, управляемых сознательной программой ИИ, не сдерживающей уничтожение своих врагов. Эта серия также имеет тот же архетип, что и серия «Матрица» , где роботы взяли под контроль. Другой известный случай поп-культуры роботов или ИИ без запрограммированной этики или морали — это HAL 9000 в серии «Космическая одиссея» , где HAL (компьютер с передовыми возможностями ИИ, который контролирует и помогает людям на космической станции) убивает всех людей на борту, чтобы обеспечить успех назначенной миссии после того, как его собственная жизнь оказывается под угрозой. [24]
Роботы-убийцы
Летальные автономные системы оружия (LAWS), которые часто называют «роботами-убийцами», теоретически способны нацеливаться и стрелять без человеческого надзора и вмешательства. В 2014 году Конвенция об обычных видах оружия (CCW) провела два заседания. Первым было Совещание экспертов по летальным автономным системам оружия (LAWS). Это заседание было посвящено специальному мандату по LAWS и вызвало интенсивную дискуссию. [25] Национальные делегации и многие неправительственные организации (НПО) высказали свое мнение по этому вопросу.
Многочисленные НПО и некоторые государства, такие как Пакистан и Куба, призывают к превентивному запрету ЗАКОНОВ. Они предложили свои мнения, основанные на деонтологических и консеквенциалистских рассуждениях. С деонтологической стороны, некоторые философы, такие как Питер Асаро и Роберт Спэрроу, большинство НПО и Ватикан утверждают, что предоставление слишком больших прав машинам нарушает человеческое достоинство, и что люди имеют «право не быть убитыми машиной». Чтобы поддержать свою точку зрения, они неоднократно ссылаются на оговорку Мартенса .
В конце этой встречи наиболее важным возражением последователей было то, что LAWS никогда не сможет соблюдать международное гуманитарное право (МГП), как полагают НПО, многие исследователи и несколько государств ( Пакистан , Австрия , Египет , Мексика ).
По данным Международного комитета Красного Креста (МККК), «нет сомнений в том, что разработка и использование автономных систем оружия в вооруженном конфликте регулируется международным гуманитарным правом». [26] Государства признают это: те, кто участвовал в первом совещании экспертов ООН в мае 2014 года, признали соблюдение МГП в качестве важнейшего условия для реализации LAWS. С разными прогнозами некоторые государства считают, что LAWS не сможет соответствовать этому критерию, в то время как другие подчеркивают сложность вынесения решения на данном этапе, не зная будущих возможностей оружия ( Япония , Австралия ). Все в равной степени настаивают на предварительной проверке соответствия систем МГП до их ввода в эксплуатацию в силу статьи первого дополнительного протокола к Женевским конвенциям.
Степень человеческого контроля
Три классификации степени человеческого контроля над автономными системами оружия были изложены Бонни Дочерти в отчете Human Rights Watch за 2012 год . [27]
человек-в-контуре : человек должен инициировать действие оружия (другими словами, не полностью автономно)
человек-в-цепи: человек может прервать действие
человек вне системы: не требуется никакого человеческого вмешательства
Секс-роботы
В 2015 году была запущена Кампания против секс-роботов (CASR), чтобы привлечь внимание к сексуальным отношениям людей с машинами. Кампания утверждает, что секс-роботы потенциально вредны и будут способствовать неравенству в обществе, и что необходим организованный подход и этический ответ против развития секс-роботов. [28]
В статье Should We Campaign Against Sex Robots?, опубликованной MIT Press , исследователи указали на некоторые недостатки этой кампании и не поддержали полный запрет секс-роботов. Во-первых, они утверждали, что конкретные утверждения, выдвинутые CASR, были «неубедительными», отчасти из-за отсутствия ясности в отношении целей кампании, а отчасти из-за существенных дефектов в основных этических возражениях, выдвинутых основателями кампании. Во-вторых, они утверждали, что было бы очень трудно поддержать общую кампанию против секс-роботов, если человек не придерживается крайне консервативного отношения к этике секса. Опираясь на пример кампании по прекращению роботов-убийц, они считали, что нет изначально плохих свойств секс-роботов, которые вызывали бы столь же серьезные опасения, поскольку вред, причиняемый секс-роботами, является спекулятивным и косвенным. Тем не менее, статья признает, что существуют законные опасения, которые могут быть высказаны по поводу разработки секс-роботов. [29]
Закон
С учетом современных технологических проблем, возникающих по мере развития общества, одной из тем, требующих тщательного размышления, является этика роботов в отношении права. Ученые обсуждают процесс того, как правительство могло бы заняться созданием законодательства с этикой и правом роботов. Пара ученых, которые задавали эти вопросы, — профессор права Нил М. Ричардс в юридической школе Вашингтонского университета , а также доцент кафедры компьютерных наук Уильям Д. Смарт в инженерной школе Маккелви . В своей статье «Как роботы должны думать о праве» они делают четыре основных утверждения относительно этики роботов и права. [30] Основа их аргументации лежит в определении робота как «небиологического автономного агента, который, по нашему мнению, отражает суть нормативных и технологических проблем, которые представляют роботы, и который может быть полезной основой регулирования». Во-вторых, пара исследует будущие передовые возможности роботов примерно через десятилетия. Их третье утверждение утверждает связь между правовыми вопросами этики роботов и опытом права с правовым опытом киберправа. Это означает, что законы об этике роботов могут обращаться к киберправу за руководством. «Урок», извлеченный из кибер-права, заключается в важности метафор, которые мы понимаем как возникающие проблемы в технологиях. Это основано на том, что если мы неправильно понимаем метафору, например, законодательство, касающееся возникающей технологической проблемы, скорее всего, неверно. Четвертое утверждение, против которого они выступают, — это метафора, которую пара определяет как «Заблуждение об андроиде». Они выступают против заблуждения об андроиде, которое утверждает, что люди и небиологические сущности «такие же, как люди».
Эмпирическое исследование
Существуют неоднозначные данные относительно того, оценивают ли люди поведение роботов так же, как и людей. Некоторые данные указывают на то, что люди рассматривают плохое поведение негативно, а хорошее — позитивно, независимо от того, является ли агентом поведения человек или робот; однако роботы получают меньше похвалы за хорошее поведение и больше порицания за плохое поведение. [31] Другие данные свидетельствуют о том, что злонамеренное поведение роботов рассматривается как более морально неправильное, чем доброжелательное поведение — как морально правильное; злонамеренное поведение роботов рассматривается как более преднамеренное, чем доброжелательное поведение. [32] В целом, моральные суждения людей как о роботах, так и о людях основаны на одних и тех же обоснованиях и концепциях, но у людей разные моральные ожидания при оценке людей и роботов. [33] Исследования также показали, что когда люди пытаются интерпретировать и понять, как роботы решают вести себя определенным образом, они могут видеть, что роботы используют эмпирические правила (продвигай себя, делай то, что правильно, продвигай других, делай то, что логично, и делай то, что нормально), которые соответствуют устоявшимся этическим доктринам (эгоизм, деонтология, альтруизм, утилитаризм и нормативность). [34]
^ «Саудовская Аравия дает гражданство немусульманскому роботу, говорящему по-английски». Newsweek . 26 октября 2017 г.
^ «Саудовская Аравия дарует гражданство роботу по имени София». TechCrunch . 26 октября 2017 г. Получено 27 октября 2016 г.
^ «Саудовская Аравия делает ужасающий шаг в будущее, предоставляя гражданство роботу». AV Club . 26 октября 2017 г. Получено 28 октября 2017 г.
^ "Саудовскую Аравию критикуют за предоставление гражданства женщинам-роботам, хотя это ограничивает права женщин - ABC News". Abcnews.go.com . Получено 28.10.2017 .
^ Ипхофен, Рон; Критикос, Михалис (15.03.2021). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Contemporary Social Science . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
^ «Нечеловеческая партия». 2021.
^ Рахван, Ияд (2018). «Общество в петле: программирование алгоритмического общественного договора». Этика и информационные технологии . 20 : 5–14. arXiv : 1707.07232 . doi : 10.1007/s10676-017-9430-8. S2CID 3674879.
^ Брайсон, Джоанна (2018). «Терпение — это не добродетель: проектирование интеллектуальных систем и систем этики». Этика и информационные технологии . 20 : 15–26. doi : 10.1007/s10676-018-9448-6 .
^ Вэмплью, Питер; Дейзли, Ричард; Фоул, Кэмерон; Фирмин, Салли (2018). «Искусственный интеллект, ориентированный на человека, — многоцелевая проблема». Этика и информационные технологии . 20 : 27–40. doi : 10.1007/s10676-017-9440-6. hdl : 1959.17/164225. S2CID 3696067.
^ Боннемейнс, Винсент; Сорель, Клэр; Тессье, Кэтрин (2018). «Встроенная этика: некоторые технические и этические проблемы» (PDF) . Этика и информационные технологии . 20 : 41–58. doi :10.1007/s10676-018-9444-x. S2CID 3697093.
^ Арнольд, Томас; Шойц, Маттиас (2018). «Большая красная кнопка» слишком поздно: альтернативная модель этической оценки систем ИИ». Этика и информационные технологии . 20 : 59–69. doi :10.1007/s10676-018-9447-7. S2CID 3582967.
^ Дигнум, Вирджиния (2018). «Этика в области искусственного интеллекта: Введение в специальный выпуск». Этика и информационные технологии . 20 : 1–3. doi : 10.1007/s10676-018-9450-z .
↑ Шорт, Сью (01.01.2003). «Мера человека?: Двухсотлетний человек Азимова, данные «Звездного пути» и бытие человеком». Экстраполяция . 44 (2): 209–223. doi :10.3828/extr.2003.44.2.6. ISSN 0014-5483.
^ Сотрудники Pacific Standard. «Может ли «Мир Дикого Запада» дать нам новые способы говорить о рабстве?». Pacific Standard . Получено 16 сентября 2019 г.
^ Паркер, Лора (15.04.2015). «Как «Ex Machina» выделяется тем, что не боится искусственного интеллекта». The Atlantic . Получено 16.09.2019 .
^ Килкенни, Кэти. «Смысл жизни в «Бегущем по лезвию 2049»». Pacific Standard . Получено 16 сентября 2019 г.
^ Кришнан, Армин (2016). Роботы-убийцы: законность и этичность автономного оружия. Routledge. doi : 10.4324/9781315591070. ISBN9781315591070. Получено 16.09.2019 .
^ «Позиция Международного комитета Красного Креста (МККК) по автономным системам оружия: позиция МККК и справочный документ». Международный обзор Красного Креста . 102 (915): 1335–1349. Декабрь 2020 г. doi : 10.1017/s1816383121000564. ISSN 1816-3831. S2CID 244396800.
^ Амитай Эциони; Орен Эциони (июнь 2017 г.). «Плюсы и минусы автономных систем вооружения». армия.мил .
^ Темпертон, Джеймс (15.09.2015). «Кампания призывает запретить секс-роботов». Wired UK . ISSN 1357-0978 . Получено 07.08.2022 .
^ Данахер, Джон; Эрп, Брайан Д.; Сандберг, Андерс (2017), Данахер, Джон; МакАртур, Нил (ред.), «Стоит ли нам проводить кампанию против секс-роботов?», Роботизированный секс: социальные и этические последствия , Кембридж, Массачусетс: MIT Press , получено 16 апреля 2022 г.
^ Ричардс, Нил М.; Смарт, Уильям Д. (2013). «Как закон должен думать о роботах?». SSRN 2263363.
^ Бэнкс, Хайме (10.09.2020). «Хорошие роботы, плохие роботы: морально обоснованное поведение влияет на воспринимаемый разум, мораль и доверие». Международный журнал социальной робототехники . 13 (8): 2021–2038. doi : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
^ Свидерска, Александра; Кюстер, Деннис (2020). «Роботы как злонамеренные моральные агенты: вредоносное поведение приводит к дегуманизации, а не к антропоморфизму». Когнитивная наука . 44 (7): e12872. doi : 10.1111/cogs.12872 . PMID 33020966. S2CID 220429245.
^ Voiklis, John; Kim, Boyoung; Cusimano, Corey; Malle, Bertram F. (август 2016 г.). «Моральные суждения агентов-людей против агентов-роботов». 2016 25-й Международный симпозиум IEEE по интерактивной коммуникации между роботами и людьми (RO-MAN) . стр. 775–780. doi :10.1109/ROMAN.2016.7745207. ISBN978-1-5090-3929-6. S2CID 25295130.
^ Бэнкс, Хайме; Кобан, Кевин (2021). «Влияние фрейминга на суждения о (без)нравственном поведении социальных роботов». Frontiers in Robotics and AI . 8 : 627233. doi : 10.3389/frobt.2021.627233 . PMC 8141842. PMID 34041272 .
Ричардс, Нил М.; Смарт, Уильям Д. (2013). Как закон должен думать о роботах?: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2263363
Жан-Батист Жанжен Вильмер (23 марта 2015 г.)Этика Терминатора: стоит ли нам запретить «роботов-убийц»?: https://www.ethicsandinternationalaffairs.org/2015/terminator-ethics-ban-killer-robots/
Джон Данахер, Брайан Д. Эрп и Андерс Сандберг. (2017) Стоит ли нам проводить кампанию против секс-роботов?
Дальнейшее чтение
Лин, Патрик/Эбни, Кит/Бекей, Джордж А. (декабрь 2011 г.). Этика роботов: этические и социальные последствия робототехники . MIT Press .
Цафестас, Спирос Г. (2016). Робоэтика: обзор навигации . Берлин: Springer. ISBN 978-3-319-21713-0.
Внешние ссылки
PhilPapers - стандартная библиография по роботоэтике находится на
Группа по этике и новым наукам
Центр прикладной этики им. Марккулы при Университете Санта-Клары, США
Список организаций и конференций из тематической группы euRobotics «Этические, правовые и социально-экономические вопросы» (ELS)
Список конференций на сайте «Робоэтика» (до 2009 г.)
Технический комитет IEEE по роботоэтике
Группа тем euRobotics "этические, правовые и социальные вопросы" (ELS)
Международное общество этики и информационных технологий. Архивировано 22 декабря 2021 г. на Wayback Machine.
Компьютерные специалисты за социальную ответственность
Ответственная робототехника
Международный институт гуманитарного права
Союз обеспокоенных ученых
База данных информации по роботоэтике
Международный центр информационной этики
Безопасная жизнь с роботами. За пределами законов Азимова, PhysOrg.com , 22 июня 2009 г.
Plug & Pray, документальный фильм об этике робототехники и искусственного интеллекта (совместно с Джозефом Вайценбаумом и Рэем Курцвейлом)
Профессор Бруно Сицилиано, соредактор Springer Handbook of Robotics, обсуждает роботоэтику в рамках своего выступления на TEDx.
[2]
Этика Терминатора: стоит ли запрещать «роботов-убийц»?