stringtranslate.com

Дипфейковая порнография

Дипфейковая порнография , или просто фейковая порнография , — это вид синтетического порно , который создается путем изменения уже существующего порнографического материала путем применения технологии дипфейка к лицам актеров. Использование дипфейкового порно вызвало споры, поскольку оно предполагает создание и распространение реалистичных видеороликов с участием несогласных людей, обычно знаменитостей женского пола, и иногда используется для порномести . Предпринимаются усилия по борьбе с этими этическими проблемами посредством законодательства и технологических решений.

История

Термин «дипфейк» был придуман в 2017 году на форуме Reddit , где пользователи делились измененными порнографическими видеороликами, созданными с использованием алгоритмов машинного обучения. Это сочетание слова «глубокое обучение», которое относится к программе, используемой для создания видео, и слова «фейк», означающего, что видео не настоящие. [1]

Дипфейк-порно изначально создавался в небольших индивидуальных масштабах с использованием комбинации алгоритмов машинного обучения , методов компьютерного зрения и программного обеспечения искусственного интеллекта . Процесс начался со сбора большого количества исходного материала (включая изображения и видео) лица человека, а затем использования модели глубокого обучения для обучения генеративно-состязательной сети (GAN) для создания поддельного видео, которое убедительно меняет лицо человека. исходный материал на тело порноактера. Однако с 2018 года производственный процесс значительно изменился с появлением нескольких общедоступных приложений, которые в значительной степени автоматизировали этот процесс. [2]

DeepNude

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало GAN для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, платная версия стоила 50 долларов. [3] 27 июня создатели удалили приложение и вернули потребителям деньги, хотя различные копии приложения, как бесплатные, так и платные, продолжают существовать. [4] На GitHub была удалена версия этой программы с открытым исходным кодом под названием «open-deepnude». [5] Преимущество версии с открытым исходным кодом заключалось в том, что она позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры. [6]

Deepfake Telegram-бот

В июле 2019 года в приложении для обмена сообщениями Telegram был запущен сервис дипфейковых ботов , который использует технологию искусственного интеллекта для создания изображений обнаженных женщин. Сервис бесплатен и имеет удобный интерфейс, позволяющий пользователям отправлять фотографии и получать обработанные изображения обнаженной натуры в течение нескольких минут. Сервис подключен к семи каналам Telegram, включая основной канал, на котором размещен бот, каналы технической поддержки и обмена изображениями. Хотя общее количество пользователей неизвестно, основной канал насчитывает более 45 000 участников. По оценкам, по состоянию на июль 2020 года по каналам обмена изображениями было распространено около 24 000 обработанных изображений. [7]

Известные случаи

Технология Deepfake использовалась для создания без согласия порнографических изображений и видео известных женщин. Один из самых ранних примеров произошел в 2017 году, когда пользователем Reddit было создано дипфейковое порнографическое видео с Галь Гадот , которое быстро распространилось в Интернете. С тех пор было множество случаев подобного дипфейкового контента, нацеленного на других знаменитостей женского пола, таких как Эмма Уотсон , Натали Портман и Скарлетт Йоханссон . [8] Йоханссон публично высказалась по этому вопросу в декабре 2018 года, осудив эту практику, но также отказавшись от судебного иска, поскольку считает преследование неизбежным. [9]

Рана Аюбб

В 2018 году Рана Айюб , индийская журналистка-расследователь, стала объектом онлайн-кампании ненависти, вызванной ее осуждением индийского правительства, в частности ее выступлениями против изнасилования восьмилетней кашмирской девочки. Айюб засыпали угрозами изнасилования и смерти, а также сфальсифицировали ее порнографическое видео, распространенное в Интернете. [10] В статье Huffington Post Айюб рассказала о долгосрочных психологических и социальных последствиях, которые этот опыт оказал на нее. Она объяснила, что продолжает бороться со своим психическим здоровьем и что изображения и видео продолжают всплывать всякий раз, когда она берется за громкое дело. [11]

Споры об Атриоке

В 2023 году стример Twitch Атриок вызвал споры, когда во время прямого эфира случайно обнародовал дипфейковые порнографические материалы с участием женщин-стримеров Twitch. После этого влиятельный человек признался, что платил за порнографию, созданную искусственным интеллектом, и извинился перед женщинами и своими фанатами. [12] [13]

Тэйлор Свифт

В январе 2024 года сгенерированные искусственным интеллектом откровенно сексуальные изображения американской певицы Тейлор Свифт были размещены на X (ранее Twitter) и распространились на другие платформы, такие как Facebook , Reddit и Instagram . [14] [15] [16] Один твит с изображениями был просмотрен 45 миллионов раз, прежде чем был удален. [17] [15] В отчете 404 Media выяснилось, что изображения были созданы группой Telegram , члены которой использовали такие инструменты, как Microsoft Designer, для создания изображений, используя орфографические ошибки и хаки ключевых слов для обхода фильтров контента Designer. [18] [19] После публикации материала поиск по имени Свифта на X был временно отключен , вместо этого возвращалось сообщение об ошибке. [20]

Полемика вызвала осуждение со стороны пресс-секретаря Белого дома Карин Жан-Пьер , [21] генерального директора Microsoft Сатьи Наделлы , [22] Национальной сети изнасилований , жестокого обращения и инцеста , [23] и SAG-AFTRA . [24] Несколько американских политиков призвали принять федеральное законодательство против дипфейковой порнографии. [25] Позже в том же месяце сенаторы США Дик Дурбин , Линдси Грэм , Эми Клобушар и Джош Хоули представили двухпартийный законопроект, который позволит жертвам подавать в суд на лиц, которые производили или владели «цифровыми подделками» с целью распространения, или на тех, кто получил материал, зная, что он был сделан без согласия. [26]

Этические соображения

Дипфейк CSAM

Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или для создания CSAM из детей, не подвергавшихся сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, притеснение, вымогательство и издевательства. [27]

Согласие

Большая часть дипфейкового порно сделана с лицами людей, которые не дали согласия на использование их изображений в столь сексуальном ключе. В 2023 году компания Sensity, занимающаяся проверкой личности, обнаружила, что «96% дипфейков носят откровенно сексуальный характер и изображают женщин, которые не давали согласия на создание контента». [28] Часто дипфейковое порно используется для унижения и преследования, в первую очередь, женщин, аналогично порномести .

Борьба с дипфейковой порнографией

Технический подход

В последние годы обнаружение дипфейков становится все более важной областью исследований, поскольку распространение фейковых видео и изображений становится все более распространенным. Одним из многообещающих подходов к обнаружению дипфейков является использование сверточных нейронных сетей (CNN), которые показали высокую точность в различении реальных и поддельных изображений. Одним из алгоритмов на основе CNN, который был разработан специально для обнаружения дипфейков, является DeepRhythm, который продемонстрировал впечатляющий показатель точности 0,98 ( т.е. успешно обнаруживает дипфейковые изображения в 98% случаев). Этот алгоритм использует предварительно обученную CNN для извлечения особенностей из интересующих областей лица, а затем применяет новый механизм внимания для выявления несоответствий между исходным и обработанным изображениями. Хотя развитие более сложной технологии дипфейков постоянно затрудняет усилия по их обнаружению, высокая точность таких алгоритмов, как DeepRhythm, предлагает многообещающий инструмент для выявления и предотвращения распространения вредных дипфейков. [29]

Помимо моделей обнаружения, существуют также общедоступные инструменты видеоаутентификации. В 2019 году компания Deepware выпустила первый общедоступный инструмент обнаружения, который позволил пользователям легко сканировать и обнаруживать дипфейковые видео. Аналогичным образом, в 2020 году Microsoft выпустила бесплатный и удобный видеоаутентификатор. Пользователи загружают подозрительное видео или вводят ссылку и получают оценку достоверности, позволяющую оценить уровень манипуляции в дипфейке.

Юридический подход

В 2023 году не будет законодательства, конкретно касающегося дипфейковой порнографии. Вместо этого вред, причиненный его созданием и распространением, рассматривается судами посредством существующих уголовных и гражданских законов.

Наиболее распространенным юридическим средством правовой защиты для жертв дипфейковой порнографии является предъявление иска о « порномести », поскольку изображения носят несогласованный и интимный характер. Юридические последствия порномести варьируются от страны к стране. [30] Например, в Канаде наказание за публикацию интимных изображений без согласия составляет до 5 лет тюремного заключения, [31] тогда как на Мальте это штраф до 5000 евро. [32]

«Закон об ответственности за дипфейки» был представлен Конгрессу США в 2019 году, но прекратил свое действие в 2020 году. [33] Он был направлен на то, чтобы сделать производство и распространение визуальных медиа, измененных в цифровом формате, которые не были раскрыты как таковые, уголовным преступлением. В названии указано, что создание любых сексуальных, измененных материалов без согласия с целью унизить или иным образом причинить вред участникам может быть оштрафовано, заключено в тюрьму на срок до 5 лет или и то, и другое. [30] В 2021 году была представлена ​​более новая версия законопроекта, которая требовала, чтобы любые «передовые технологические записи о ложных личностях» содержали водяной знак и аудиовизуальное раскрытие для идентификации и объяснения любых измененных аудио и визуальных элементов. Законопроект также предусматривает, что нераскрытие этой информации с намерением преследовать или унижать человека с «передовой технологической ложной записью о личности», содержащей сексуальный контент, «наказывается штрафом по этому титулу, тюремным заключением на срок не более 5 лет или тем и другим». Однако в 2023 году этот законопроект умер. [34]

Контроль распространения

Несколько крупных онлайн-платформ предприняли шаги по запрету дипфейковой порнографии. С 2018 года gfycat , Reddit , Twitter , Discord и Pornhub запретили загрузку и распространение дипфейкового порнографического контента на своих платформах. [35] [36] В сентябре того же года Google также добавила «принудительные синтетические порнографические изображения» в свой список запретов, что позволило отдельным лицам требовать удаления такого контента из результатов поиска. [37] Однако стоит отметить, что, хотя Pornhub занял позицию против контента без согласия, поиск по запросу «deepfake» на их веб-сайте по-прежнему дает результаты, и они продолжают показывать рекламу дипфейковых веб-сайтов и контента. [38]

Смотрите также

Рекомендации

  1. ^ Гаур, Лавлин; Арора, Гурсимар Каур (27 июля 2022 г.), DeepFakes, Нью-Йорк: CRC Press, стр. 91–98, doi : 10.1201/9781003231493-7, ISBN 978-1-003-23149-3, получено 20 апреля 2023 г.
  2. ^ Азмуде, Амин и Али Дегантанха. «Глубокое обнаружение фейков, сдерживание и реагирование: проблемы и возможности». arXiv.org, 2022.
  3. ^ Коул, Саманта; Майберг, Эмануэль; Кеблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши». Порок . Архивировано из оригинала 2 июля 2019 года . Проверено 2 июля 2019 г.
  4. Винсент, Джеймс (3 июля 2019 г.). «Копии DeepNude AI легко доступны в Интернете» . Грань . Архивировано из оригинала 8 февраля 2021 года . Проверено 11 августа 2023 г.
  5. Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Вице Медиа . Архивировано из оригинала 24 сентября 2020 года . Проверено 15 декабря 2019 г.
  6. Редмон, Дженнифер (7 июля 2019 г.). «DeepNude — искусственный интеллект, который «раздевает» женщин — вернулся. Что теперь?». Циско . Архивировано из оригинала 1 марта 2023 года . Проверено 11 марта 2023 г.
  7. ^ Хао, Карен (20 октября 2020 г.). «Дипфейковый бот используется для «раздевания» несовершеннолетних девочек». Обзор технологий Массачусетского технологического института . Архивировано из оригинала 20 апреля 2023 г. Проверено 20 апреля 2023 г.
  8. ^ Реттгерс, Янко (21 февраля 2018 г.). «Порнопродюсеры предлагают помочь Голливуду удалить дипфейковые видео». Разнообразие . Архивировано из оригинала 10 июня 2019 г. Проверено 20 апреля 2023 г.
  9. ^ Харвелл, Дрю (31 декабря 2018 г.). «Скарлетт Йоханссон о фальшивых секс-видео, созданных искусственным интеллектом: «Ничто не может помешать кому-то вырезать и вставить мое изображение»». Вашингтон Пост . ISSN  0190-8286. Архивировано из оригинала 13 июня 2019 г. Проверено 20 апреля 2023 г.
  10. ^ Мэддокс, Софи (04.06.2020). «'Порно-сюжет с дипфейками, призванный заставить меня замолчать': исследование преемственности между порнографическими и «политическими» дипфейками». Порно исследования . 7 (4): 415–423. дои : 10.1080/23268743.2020.1757499. ISSN  2326-8743. S2CID  219910130.
  11. ^ Айюб, Рана (21 ноября 2018 г.). «Я стал жертвой дипфейкового порнозаговора, призванного заставить меня замолчать». HuffPost Великобритания . Архивировано из оригинала 20 апреля 2023 г. Проверено 20 апреля 2023 г.
  12. ^ Миддлтон, Эмбер (10 февраля 2023 г.). «Стример Twitch был пойман за просмотром дипфейкового порно с женщинами-геймерами. Сексуальные изображения, сделанные без согласия, могут быть травмирующими и оскорбительными, говорят эксперты, — и женщины являются самыми большими жертвами». Инсайдер . Проверено 20 апреля 2023 г.
  13. ^ Паттерсон, Калум (30 января 2023 г.). «Стример Twitch Атриок со слезами на глазах приносит извинения за оплату дипфейков женщин-стримеров» . Дексерто . Архивировано из оригинала 9 мая 2023 г. Проверено 14 июня 2023 г.
  14. Стокел-Уокер, Крис (25 января 2024 г.). «Явные изображения Тейлор Свифт, созданные ИИ, наводнившие Интернет, подчеркивают серьезную проблему с генеративным ИИ». Компания Фаст . Архивировано из оригинала 26 января 2024 года . Проверено 26 января 2024 г.
  15. ^ аб Беланджер, Эшли (25 января 2024 г.). «X не может остановить распространение откровенных фальшивых изображений Тейлор Свифт, созданных искусственным интеллектом». Арс Техника . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
  16. ^ Келли, Саманта Мерфи (25 января 2024 г.). «Явные изображения Тейлор Свифт, созданные с помощью искусственного интеллекта, быстро распространились в социальных сетях | CNN Business». CNN . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
  17. ^ Weatherbed, Джесс (25 января 2024 г.). «Тролли наводнили X графическими фейками искусственного интеллекта Тейлор Свифт». Грань . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
  18. ^ Майберг, Эмануэль; Коул ·, Саманта (25 января 2024 г.). «Порно с Тейлор Свифт, созданное искусственным интеллектом, стало вирусным в Твиттере. Вот как оно туда попало» . 404 Медиа . Архивировано из оригинала 25 января 2024 г. Проверено 25 января 2024 г.
  19. ^ Беланджер, Эшли (29 января 2024 г.). «Решительные шаги X: Microsoft, возможно, не остановит распространение фейкового порно с Тейлор Свифт». Арс Техника . Проверено 30 января 2024 г.
  20. ^ Спенглер, Тодд (27 января 2024 г.). «X / Twitter блокирует поисковые запросы по запросу «Тейлор Свифт» как «временную меру по обеспечению приоритета безопасности» после потока явных фейков с использованием искусственного интеллекта» . Разнообразие . Проверено 29 января 2024 г.
  21. ^ «Поиски Тейлор Свифт заблокированы на X после распространения фейковых откровенных изображений поп-певицы» . Хранитель . Рейтер . 29 января 2024 г. Проверено 29 января 2024 г.
  22. ^ Спенглер, Тодд (26 января 2024 г.). «Явные дипфейки, созданные Тейлором Свифтом с помощью искусственного интеллекта, «тревожны и ужасны», говорит генеральный директор Microsoft: «Мы должны действовать»». Разнообразие . Проверено 29 января 2024 г.
  23. ^ Трэверс, Карен; Салиба, Эммануэль (27 января 2024 г.). «Фальшивые откровенные изображения Тейлор Свифт: Белый дом« встревожен »» . Новости АВС . Проверено 29 января 2024 г.
  24. ^ Миллман, Итан (26 января 2024 г.). «Явные изображения Тейлор Свифт, созданные искусственным интеллектом, «должны быть признаны незаконными», - говорит SAG-AFTRA» . Катящийся камень . Проверено 29 января 2024 г.
  25. ^ Бомонт-Томас, Бен (27 января 2024 г.). «Глубокая порнография Тейлор Свифт вызывает новые призывы к принятию законодательства в США». Хранитель . Проверено 29 января 2024 г.
  26. Монтгомери, Блейк (31 января 2024 г.). «Изображения Тейлор Свифт, созданные искусственным интеллектом, побуждают законопроект США бороться с дипфейками сексуального характера без согласия». Хранитель . Проверено 31 января 2024 г.
  27. ^ Кирхенгаст, Т (2020). «Дипфейки и манипулирование изображениями: криминализация и контроль». Закон об информационных и коммуникационных технологиях . 29 (3): 308–323. дои : 10.1080/13600834.2020.1794615. S2CID  221058610.
  28. ^ «Найдено через Google, куплено с помощью Visa и Mastercard: Внутри экономики дипфейкового порно» . Новости Эн-Би-Си . 27 марта 2023 г. Архивировано из оригинала 29 ноября 2023 г. Проверено 30 ноября 2023 г.
  29. ^ Гаур, Лавлин; Арора, Гурсимар Каур (27 июля 2022 г.), DeepFakes, Нью-Йорк: CRC Press, стр. 91–98, doi : 10.1201/9781003231493-7, ISBN 978-1-003-23149-3, заархивировано из оригинала 26 января 2024 г. , получено 20 апреля 2023 г.
  30. ^ аб Кирхенгаст, Тайрон (16 июля 2020 г.). «Дипфейки и манипулирование изображениями: криминализация и контроль». Закон об информационных и коммуникационных технологиях . 29 (3): 308–323. дои : 10.1080/13600834.2020.1794615. ISSN  1360-0834. S2CID  221058610. Архивировано из оригинала 26 января 2024 г. Проверено 20 апреля 2023 г.
  31. ^ Филиал Законодательной службы (16 января 2023 г.). «Сводные федеральные законы Канады, Уголовный кодекс». законы-lois.justice.gc.ca . Архивировано из оригинала 3 июня 2023 г. Проверено 20 апреля 2023 г.
  32. ^ Мания, Каролина (2022). «Правовая защита жертв мести и дипфейковой порнографии в Европейском Союзе: результаты сравнительного правового исследования». Травма, насилие и жестокое обращение . дои : 10.1177/15248380221143772. PMID  36565267. S2CID  255117036. Архивировано из оригинала 26 января 2024 г. Проверено 20 апреля 2023 г.
  33. ^ «Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности 2019 года (2019 - HR 3230)» . GovTrack.us . Архивировано из оригинала 3 декабря 2023 г. Проверено 27 ноября 2023 г.
  34. ^ «Закон об ответственности за DEEP FAKES (2021 г. - HR 2395)» . GovTrack.us . Архивировано из оригинала 3 декабря 2023 г. Проверено 27 ноября 2023 г.
  35. ^ Харпал, Арджун. «Reddit и Pornhub запрещают видео, в которых используется искусственный интеллект, чтобы наложить лицо человека на актера с рейтингом X». CNBC . Архивировано из оригинала 10 апреля 2019 г. Проверено 20 апреля 2023 г.
  36. ^ Коул, Саманта (31 января 2018 г.). «Создатели фейкового порно, созданные искусственным интеллектом, были изгнаны со своего любимого ведущего» . Порок . Архивировано из оригинала 20 апреля 2023 г. Проверено 20 апреля 2023 г.
  37. ^ Харвелл, Дрю (30 декабря 2018 г.). «Фейковые порновидео используются для преследования и унижения женщин: «Каждый является потенциальной мишенью»». Вашингтон Пост . ISSN  0190-8286. Архивировано из оригинала 14 июня 2019 г. Проверено 20 апреля 2023 г.
  38. ^ Коул, Саманта (6 февраля 2018 г.). «Pornhub запрещает фальшивые порновидео, созданные искусственным интеллектом, и утверждает, что они не согласованы» . Порок . Архивировано из оригинала 01.11.2019 . Проверено 9 ноября 2019 г.