stringtranslate.com

Глубокая фейковая порнография

Deepfake порнография , или просто фейковая порнография , является типом синтетической порнографии , которая создается путем изменения уже существующих фотографий или видео путем применения технологии deepfake к изображениям участников. Использование deepfake порно вызвало споры, поскольку оно включает в себя создание и распространение реалистичных видео с участием несогласных лиц, как правило, знаменитостей женского пола, и иногда используется для порно мести . Предпринимаются усилия по борьбе с этими этическими проблемами с помощью законодательства и технологических решений.

История

Термин «deepfake» был придуман в 2017 году на форуме Reddit , где пользователи делились измененными порнографическими видео, созданными с использованием алгоритмов машинного обучения. Это сочетание слова «deep learning», которое относится к программе, используемой для создания видео, и «fake», означающего, что видео не являются настоящими. [1]

Deepfake порно изначально создавалось в небольших индивидуальных масштабах с использованием комбинации алгоритмов машинного обучения , методов компьютерного зрения и программного обеспечения ИИ . Процесс начался со сбора большого количества исходного материала (включая как изображения, так и видео) лица человека, а затем с использованием модели глубокого обучения для обучения генеративно-состязательной сети для создания фейкового видео, которое убедительно меняет лицо исходного материала на тело порноактера. Однако процесс производства значительно изменился с 2018 года с появлением нескольких общедоступных приложений, которые в значительной степени автоматизировали процесс. [2]

Deepfake порнографию иногда путают с поддельной обнаженной фотографией , но эти два понятия в основном отличаются. Поддельная обнаженная фотография обычно использует несексуальные изображения и просто создает видимость того, что люди на них обнажены.

Известные случаи

Технология Deepfake использовалась для создания несогласованных и порнографических изображений и видео известных женщин. Один из самых ранних примеров произошел в 2017 году, когда пользователь Reddit создал порнографическое видео с Галь Гадот , которое быстро распространилось в сети. С тех пор было зафиксировано множество случаев подобного контента Deepfake, нацеленного на других знаменитостей женского пола, таких как Эмма Уотсон , Натали Портман и Скарлетт Йоханссон . [3] Йоханссон публично высказалась по этому вопросу в декабре 2018 года, осудив эту практику, но также отказавшись от судебного иска, поскольку она считает преследования неизбежными. [4]

Рана Айюб

В 2018 году Рана Айюб , индийская журналистка-расследовательница, стала объектом интернет-кампании ненависти, вызванной ее осуждением индийского правительства, в частности, ее выступлениями против изнасилования восьмилетней девочки из Кашмира. Айюб подверглась бомбардировке угрозами изнасилования и смерти, а также распространяла в сети сфальсифицированное порнографическое видео с ней. [5] В статье Huffington Post Айюб рассказала о долгосрочных психологических и социальных последствиях этого опыта для нее. Она объяснила, что продолжает бороться со своим психическим здоровьем и как изображения и видео продолжали всплывать всякий раз, когда она брала на себя громкое дело. [6]

Атриок спор

В 2023 году стример Twitch Atrioc вызвал споры, когда случайно показал фейковый порнографический материал с участием женщин-стримеров Twitch во время трансляции. С тех пор инфлюенсер признался в оплате порно, созданного искусственным интеллектом, и извинился перед женщинами и своими поклонниками. [7] [8]

Тейлор Свифт

В январе 2024 года созданные искусственным интеллектом откровенные изображения американской певицы Тейлор Свифт были опубликованы в X (ранее Twitter) и распространились на другие платформы, такие как Facebook , Reddit и Instagram . [9] [10] [11] Один твит с изображениями был просмотрен более 45 миллионов раз, прежде чем был удален. [12] [10] Отчет 404 Media показал, что изображения, по-видимому, были получены из группы Telegram , участники которой использовали такие инструменты, как Microsoft Designer, для генерации изображений, используя опечатки и хаки ключевых слов, чтобы обойти фильтры контента Designer. [13] [14] После публикации материала поклонники Свифт опубликовали концертные кадры и изображения, чтобы скрыть поддельные изображения, и сообщили об аккаунтах, публикующих поддельные изображения. [15] Поиск имени Свифт был временно отключен в X , вместо этого возвращая сообщение об ошибке. [16] Graphika , фирма по исследованию дезинформации, проследила создание изображений до сообщества 4chan . [17] [18]

Источник, близкий к Свифт, сообщил Daily Mail , что она рассмотрит возможность подачи иска, заявив: «Решение о том, будут ли предприняты правовые действия, пока не принято, но ясно одно: эти фейковые изображения, созданные искусственным интеллектом, являются оскорбительными, агрессивными, эксплуататорскими и сделаны без согласия и/или ведома Тейлор». [15] [19]

Спор вызвал осуждение со стороны пресс-секретаря Белого дома Карин Жан-Пьер , [20] генерального директора Microsoft Сатьи Наделлы , [21] Национальной сети по борьбе с изнасилованиями, надругательствами и инцестом , [22] и SAG-AFTRA . [23] Несколько политиков США призвали к принятию федерального законодательства против глубокой фейковой порнографии. [24] Позже в том же месяце сенаторы США Дик Дурбин , Линдси Грэм , Эми Клобушар и Джош Хоули представили двухпартийный законопроект, который позволит жертвам подавать в суд на лиц, которые производили или обладали «цифровыми подделками» с намерением распространять, или на тех, кто получил материал, зная, что он был сделан без согласия. [25]

Скандал с дипфейками в Telegram 2024 года

В августе 2024 года в Южной Корее выяснилось, что многие учителя и ученицы стали жертвами поддельных изображений, созданных пользователями, которые использовали технологию ИИ. Журналист Ко Нарин из Ханкёре раскрыл поддельные изображения через чаты Telegram. [26] [27] [28] В Telegram групповые чаты были созданы специально для сексуального насилия над женщинами на основе изображений, включая учащихся средних и старших классов, учителей и даже членов семьи. Женщины с фотографиями на платформах социальных сетей, таких как KakaoTalk , Instagram и Facebook, также часто подвергаются нападениям. Преступники используют ботов ИИ для создания поддельных изображений, которые затем продаются или широко распространяются вместе с аккаунтами жертв в социальных сетях, номерами телефонов и именами пользователей KakaoTalk. По сообщениям Guardian, одна группа Telegram привлекла около 220 000 участников.

Расследования выявили многочисленные чат-группы в Telegram , где пользователи, в основном подростки, создают и делятся откровенными фейковыми изображениями одноклассников и учителей. Проблема возникла на фоне тревожной истории цифровых сексуальных преступлений, в частности, печально известного дела Nth Room в 2019 году. Корейский союз учителей подсчитал, что более 200 школ пострадали от этих инцидентов. Активисты призвали объявить «национальное чрезвычайное положение» для решения этой проблемы. [29] Южнокорейская полиция сообщила о более чем 800 случаях сексуальных преступлений с использованием фейков к концу сентября 2024 года, что является резким ростом по сравнению со 156 случаями в 2021 году, при этом большинство жертв и преступников были подростками. [30]

21 сентября 6000 человек собрались в парке Марронье на северо-востоке Сеула, чтобы потребовать более жестких правовых мер против преступлений, связанных с дипфейками, направленных против женщин. [31] 26 сентября, после широкомасштабного возмущения скандалом вокруг Telegram, южнокорейские законодатели приняли законопроект, криминализирующий хранение или просмотр откровенных сексуальных дипфейковых изображений и видео, устанавливающий наказания, включающие тюремное заключение и штрафы. Согласно новому закону, тем, кто был пойман за покупкой, сохранением или просмотром таких материалов, грозило до трех лет тюрьмы или штрафы до 30 миллионов вон (22 600 долларов США). На момент внесения законопроекта создание откровенных сексуальных дипфейков для распространения влекло за собой максимальное наказание в пять лет, но новое законодательство увеличит это наказание до семи лет, независимо от намерения. [30]

По оценкам, к октябрю 2024 года количество фейковых ботов «nudify» в Telegram достигало четырех миллионов пользователей в месяц. [32] [33]

Этические соображения

Дипфейк CSAM

Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, более быстрым, безопасным и простым, чем когда-либо. Deepfake можно использовать для создания нового CSAM из уже существующего материала или создания CSAM из детей, которые не подвергались сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, груминг, вымогательство и издевательства. [34]

Согласие

Большая часть deepfake порно делается с лицами людей, которые не давали согласия на использование их изображений в таком сексуальном ключе. В 2023 году компания Sensity, занимающаяся проверкой личности, обнаружила, что «96% deepfake являются откровенно сексуальными и содержат женщин, которые не давали согласия на создание контента». [35] Зачастую deepfake порно используется для унижения и преследования в первую очередь женщин способами, похожими на порно мести .

Борьба с дипфейковой порнографией

Технический подход

В последние годы обнаружение дипфейков становится все более важной областью исследований, поскольку распространение поддельных видео и изображений становится все более распространенным. Одним из перспективных подходов к обнаружению дипфейков является использование сверточных нейронных сетей (CNN), которые показали высокую точность в различении реальных и поддельных изображений. Одним из алгоритмов на основе CNN, разработанных специально для обнаружения дипфейков, является DeepRhythm, который продемонстрировал впечатляющую точность 0,98 ( т.е. успешно обнаруживает дипфейковые изображения в 98% случаев). Этот алгоритм использует предварительно обученную CNN для извлечения признаков из интересующих областей лица, а затем применяет новый механизм внимания для выявления несоответствий между исходными и измененными изображениями. В то время как разработка более сложной технологии дипфейков представляет собой постоянные проблемы для усилий по обнаружению, высокая точность алгоритмов, таких как DeepRhythm, предлагает многообещающий инструмент для выявления и смягчения распространения вредоносных дипфейков. [1]

Помимо моделей обнаружения, существуют также общедоступные инструменты проверки подлинности видео. В 2019 году Deepware выпустила первый общедоступный инструмент обнаружения, который позволил пользователям легко сканировать и обнаруживать deepfake-видео. Аналогичным образом в 2020 году Microsoft выпустила бесплатный и удобный в использовании видеоаутентификатор. Пользователи загружают подозрительное видео или вводят ссылку и получают оценку достоверности для оценки уровня манипуляции в deepfake.

Правовой подход

По состоянию на 2023 год отсутствует законодательство, которое конкретно касается глубокой фейковой порнографии. Вместо этого вред, причиненный ее созданием и распространением, рассматривается судами в рамках существующих уголовных и гражданских законов.Nudify Me: Правовые последствия порно мести, созданного ИИ

Жертвы глубокой фейковой порнографии часто предъявляют иски о мести порно , деликте и преследованиях. [36] Правовые последствия мести порно различаются от штата к штату и от страны к стране. [36] [37] Например, в Канаде наказание за публикацию несогласованных интимных изображений составляет до 5 лет тюрьмы, [38] тогда как на Мальте это штраф в размере до 5000 евро. [39]

«Закон об ответственности за дипфейк» был представлен в Конгресс США в 2019 году, но умер в 2020 году. [40] Он был направлен на то, чтобы сделать производство и распространение цифровых измененных визуальных медиа, которые не были раскрыты как таковые, уголовным преступлением. В названии указано, что создание любых сексуальных, несогласованных измененных медиа с намерением унизить или иным образом навредить участникам, может быть оштрафовано, лишено свободы на срок до 5 лет или и то, и другое. [37] Новая версия законопроекта была представлена ​​в 2021 году, которая потребовала бы, чтобы любые «передовые технологические записи ложного олицетворения» содержали водяной знак и аудиовизуальное раскрытие для идентификации и объяснения любых измененных аудио- и визуальных элементов. Законопроект также включает, что нераскрытие этой информации с намерением преследовать или унизить человека с «передовой технологической записью ложного олицетворения», содержащей сексуальный контент, «должно быть оштрафовано в соответствии с этим заголовком, лишено свободы на срок не более 5 лет или и то, и другое». Однако этот законопроект был отклонен в 2023 году. [41]

В Соединенном Королевстве Комиссия по законодательству Англии и Уэльса рекомендовала провести реформу по криминализации распространения фейковой порнографии в 2022 году. [42] В 2023 году правительство объявило о внесении поправок в Закон о безопасности в Интернете с этой целью. Закон о безопасности в Интернете 2023 года вносит поправки в Закон о сексуальных преступлениях 2003 года, криминализируя распространение интимных изображений, которые показывают или «кажутся показывающими» другое лицо (включая фейковые изображения) без согласия. [43] В 2024 году правительство объявило, что преступление, криминализирующее производство фейковых порнографических изображений, будет включено в Закон об уголовном правосудии 2024 года. [44] [45] Законопроект не был принят до роспуска парламента перед всеобщими выборами .

Контроль распределения

Хотя правовая среда остается неразвитой, жертвы глубокой фейковой порнографии имеют несколько инструментов, доступных для ограничения и удаления контента, включая удаление по решению суда, инструменты защиты интеллектуальной собственности, такие как удаление DMCA , сообщение о нарушении положений и условий платформы хостинга и удаление путем сообщения о контенте в поисковые системы. [46]

Несколько крупных онлайн-платформ предприняли шаги по запрету deepfake-порнографии. По состоянию на 2018 год gfycat , reddit , Twitter , Discord и Pornhub запретили загрузку и распространение deepfake-порнографического контента на своих платформах. [47] [48] В сентябре того же года Google также добавил «непреднамеренные синтетические порнографические изображения» в свой список запрещенных материалов, что позволило отдельным лицам запрашивать удаление такого контента из результатов поиска. [49]

Смотрите также

Ссылки

  1. ^ аб Гаур, Лавлин; Арора, Гурсимар Каур (27 июля 2022 г.), DeepFakes, Нью-Йорк: CRC Press, стр. 91–98, doi : 10.1201/9781003231493-7, ISBN 978-1-003-23149-3, заархивировано из оригинала 2024-03-06 , извлечено 2023-04-20
  2. ^ Азмуд, Амин и Али Дехгантанья. «Глубокое обнаружение фейков, сдерживание и реагирование: проблемы и возможности». arXiv.org, 2022.
  3. ^ Рёттгерс, Янко (21.02.2018). «Производители порно предлагают помочь Голливуду убрать поддельные видео». Разнообразие . Архивировано из оригинала 10.06.2019 . Получено 20.04.2023 .
  4. ^ Харвелл, Дрю (2018-12-31). «Скарлетт Йоханссон о поддельных секс-видео, созданных искусственным интеллектом: «Ничто не может помешать кому-то вырезать и вставить мое изображение». The Washington Post . ISSN  0190-8286. Архивировано из оригинала 2019-06-13 . Получено 2023-04-20 .
  5. ^ Maddocks, Sophie (2020-06-04). «„Глубокий порнографический сюжет, призванный заставить меня замолчать“: изучение преемственности между порнографическими и „политическими“ глубокими фейками». Porn Studies . 7 (4): 415–423. doi : 10.1080/23268743.2020.1757499. ISSN  2326-8743. S2CID  219910130. Архивировано из оригинала 2024-03-06 . Получено 2023-04-20 .
  6. ^ Айюб, Рана (2018-11-21). «Я был жертвой заговора с дипфейковым порно, призванного заставить меня замолчать». HuffPost UK . Архивировано из оригинала 20-04-2023 . Получено 20-04-2023 .
  7. ^ Миддлтон, Эмбер (2023-02-10). «Twitch-стример был пойман за просмотром deepfake порно с женщинами-геймерами. Сексуальные изображения, сделанные без согласия, могут быть травмирующими и оскорбительными, говорят эксперты, — и женщины становятся главными жертвами». Insider . Архивировано из оригинала 2024-03-06 . Получено 2023-04-20 .
  8. ^ Паттерсон, Калум (2023-01-30). «Twitch-стример Atrioc приносит слезные извинения после оплаты deepfakes женщин-стримеров». Dexerto . Архивировано из оригинала 2023-05-09 . Получено 2023-06-14 .
  9. ^ Стокел-Уокер, Крис (25 января 2024 г.). «Явные изображения Тейлор Свифт, созданные с помощью ИИ, заполонили интернет, подчеркивая серьезную проблему с генеративным ИИ». Fast Company . Архивировано из оригинала 26 января 2024 г. . Получено 26 января 2024 г. .
  10. ^ ab Belanger, Ashley (2024-01-25). "X не может остановить распространение явных, поддельных изображений Тейлор Свифт с использованием искусственного интеллекта". Ars Technica . Архивировано из оригинала 2024-01-25 . Получено 2024-01-25 .
  11. ^ Келли, Саманта Мерфи (2024-01-25). «Откровенные, созданные искусственным интеллектом изображения Тейлор Свифт быстро распространяются в социальных сетях | CNN Business». CNN . Архивировано из оригинала 2024-01-25 . Получено 2024-01-25 .
  12. ^ Weatherbed, Джесс (25.01.2024). «Тролли заполонили X графическими подделками Тейлор Свифт на основе искусственного интеллекта». The Verge . Архивировано из оригинала 25.01.2024 . Получено 25.01.2024 .
  13. ^ Майберг, Эмануэль; Коул ·, Саманта (2024-01-25). «Сгенерированное искусственным интеллектом порно с Тейлор Свифт стало вирусным в Twitter. Вот как это произошло». 404 Media . Архивировано из оригинала 2024-01-25 . Получено 2024-01-25 .
  14. ^ Беланжер, Эшли (29.01.2024). «Резкие шаги X, Microsoft, возможно, не остановят распространение поддельного порно с Тейлор Свифт». Ars Technica . Архивировано из оригинала 29.01.2024 . Получено 30.01.2024 .
  15. ^ ab Zhang, Cat (2024-01-26). "The Swiftie Fight to Protect Taylor Swift From AI". The Cut . Архивировано из оригинала 2024-01-30 . Получено 2024-03-06 .
  16. ^ Спэнглер, Тодд (27.01.2024). «X/Twitter блокирует поиск по запросу «Тейлор Свифт» в качестве «временной меры по обеспечению безопасности» после потока явных подделок ИИ». Variety . Архивировано из оригинала 28.01.2024 . Получено 29.01.2024 .
  17. ^ Hsu, Tiffany (5 февраля 2024 г.). «Поддельные и откровенные изображения Тейлор Свифт появились на 4chan, говорится в исследовании». The New York Times . Архивировано из оригинала 9 февраля 2024 г. Получено 10 февраля 2024 г.
  18. ^ Беланжер, Эшли (2024-02-05). «Ежедневный вызов 4chan вызвал поток откровенных изображений Тейлор Свифт с использованием искусственного интеллекта». Ars Technica . Архивировано из оригинала 2024-02-09 . Получено 2024-02-09 .
  19. Спектер, Эмма (2024-01-26). «Если кто-то и может остановить грядущий ИИ-ад, так это Тейлор Свифт». Vogue . Архивировано из оригинала 2024-02-06 . Получено 2024-03-06 .
  20. ^ "Поиск Тейлор Свифт заблокирован на X после распространения поддельных откровенных изображений поп-певицы". The Guardian . Reuters . 2024-01-29. Архивировано из оригинала 2024-01-29 . Получено 2024-01-29 .
  21. ^ Спэнглер, Тодд (2024-01-26). «Откровенные фейки Тейлор Свифт, созданные искусственным интеллектом, «тревожны и ужасны», — заявил генеральный директор Microsoft: «Мы должны действовать»». Variety . Архивировано из оригинала 2024-01-28 . Получено 2024-01-29 .
  22. ^ Трэверс, Карен; Салиба, Эммануэль (27.01.2024). «Поддельные откровенные изображения Тейлор Свифт: Белый дом «встревожен»». ABC News . Архивировано из оригинала 28.01.2024 . Получено 29.01.2024 .
  23. ^ Миллман, Итан (2024-01-26). «Сгенерированные искусственным интеллектом откровенные изображения Тейлор Свифт «должны быть признаны незаконными», — заявляет SAG-AFTRA». Rolling Stone . Архивировано из оригинала 29-01-2024 . Получено 29-01-2024 .
  24. ^ Бомонт-Томас, Бен (27.01.2024). «Глубокая фейковая порнография Тейлор Свифт вновь призывает к принятию законодательства США». The Guardian . Архивировано из оригинала 29.01.2024 . Получено 29.01.2024 .
  25. ^ Монтгомери, Блейк (31 января 2024 г.). «Изображения Тейлор Свифт с помощью искусственного интеллекта побуждают законопроект США о борьбе с неконсенсуальными сексуальными дипфейками». The Guardian . Архивировано из оригинала 31 января 2024 г. Получено 31 января 2024 г.
  26. ^ «Внутри кризиса порно с дипфейками, охватившего корейские школы». BBC News.
  27. ^ "Южнокорейская полиция начала расследование в отношении того, способствует ли Telegram онлайн-преступлениям сексуального характера, сообщает Yonhap". reuters.
  28. ^ «От шпионских камер до глубокого фейкового порно: ярость в Южной Корее, где женщины снова стали объектами нападок». The Guardian.
  29. ^ "Южная Корея сталкивается с "чрезвычайной ситуацией" в области глубокого фейкового порно". BBC . Получено 27 сентября 2024 г.
  30. ^ ab "Южная Корея криминализирует просмотр или хранение откровенно сексуальных дипфейков". CNN . 2024-09-26 . Получено 2024-09-27 .
  31. ^ «Тысячи людей вышли на митинг в Сеуле, требуя более решительных действий против преступлений с использованием дипфейков». Korea Times . 2024-09-22 . Получено 2024-09-27 .
  32. ^ Caramela, Sammi (2024-10-16). «Боты-дипфейки «Nudify» в Telegram имеют до 4 миллионов ежемесячных пользователей» . Получено 2024-10-16 .
  33. ^ Берджесс, Мэтт (2024-10-15). «Миллионы людей используют оскорбительные боты ИИ «Nudify» в Telegram». Wired . Получено 2024-11-02 .
  34. ^ Кирхенгаст, Т (2020). «Глубокие фейки и манипуляция изображениями: криминализация и контроль». Закон об информационных и коммуникационных технологиях . 29 (3): 308–323. doi : 10.1080/13600834.2020.1794615. S2CID  221058610.
  35. ^ «Найдено через Google, куплено с помощью Visa и Mastercard: Внутри экономики порно с дипфейком». NBC News . 2023-03-27. Архивировано из оригинала 2023-11-29 . Получено 2023-11-30 .
  36. ^ ab "Nudify Me: The Legal Implications of AI-Generated Revenge Porn". JD Supra . Архивировано из оригинала 2024-03-14 . Получено 2024-03-14 .
  37. ^ ab Kirchengast, Tyrone (2020-07-16). «Deepfakes and image handling: crimeisation and control» (Глубокие фейки и манипуляция изображениями: криминализация и контроль). Information & Communications Technology Law (Закон об информационных и коммуникационных технологиях) . 29 (3): 308–323. doi : 10.1080/13600834.2020.1794615. ISSN  1360-0834. S2CID  221058610. Архивировано из оригинала 2024-01-26 . Получено 2023-04-20 .
  38. ^ Отделение, Законодательные службы (16.01.2023). "Свод федеральных законов Канады, Уголовный кодекс". laws-lois.justice.gc.ca . Архивировано из оригинала 03.06.2023 . Получено 20.04.2023 .
  39. ^ Mania, Karolina (2022). «Юридическая защита жертв мести и Deepfake Porn в Европейском Союзе: выводы сравнительного правового исследования». Травма, насилие и злоупотребления . 25 (1): 117–129. doi : 10.1177/15248380221143772. PMID  36565267. S2CID  255117036. Архивировано из оригинала 26.01.2024 . Получено 20.04.2023 .
  40. ^ «Защита каждого человека от ложных представлений путем применения Закона об ответственности за эксплуатацию 2019 года (2019 - HR 3230)». GovTrack.us . Архивировано из оригинала 2023-12-03 . Получено 2023-11-27 .
  41. ^ "Закон об ответственности за DEEP FAKES (2021 - HR 2395)". GovTrack.us . Архивировано из оригинала 2023-12-03 . Получено 2023-11-27 .
  42. ^ Хилл, Амелия (2022-07-07). «Уголовные реформы направлены против «глубоких фейков» и неконсенсуальных порнографических изображений». The Guardian . ISSN  0261-3077 . Получено 2024-08-18 .
  43. ^ «Закон о безопасности в Интернете 2023: Раздел 188», laws.gov.uk , Национальный архив , 2023 c. 50 (s. 188)
  44. ^ "Правительство принимает жесткие меры против создания "дипфейков"". GOV.UK . Получено 2024-08-18 .
  45. ^ «Создание откровенно сексуальных дипфейков станет уголовным преступлением». BBC News . 2024-04-16 . Получено 2024-08-18 .
  46. ^ "Un-Nudify Me: Removal Options for Deepfake Pornography Victims". JD Supra . Архивировано из оригинала 2024-03-14 . Получено 2024-03-14 .
  47. ^ Kharpal, Arjun (8 февраля 2018 г.). «Reddit, Pornhub запрещают видео, в которых используется ИИ для наложения лица человека на лицо актера с рейтингом X». CNBC . Архивировано из оригинала 2019-04-10 . Получено 2023-04-20 .
  48. ^ Коул, Саманта (2018-01-31). «Создатели фейкового порно, созданного с помощью искусственного интеллекта, были выгнаны со своего любимого хоста». Vice . Архивировано из оригинала 2023-04-20 . Получено 2023-04-20 .
  49. ^ Харвелл, Дрю (2018-12-30). «Фейковые порновидео используются как оружие для преследования и унижения женщин: «Каждый человек — потенциальная цель»». The Washington Post . ISSN  0190-8286. Архивировано из оригинала 2019-06-14 . Получено 2023-04-20 .