Deepfake порнография , или просто фейковая порнография , является типом синтетической порнографии , которая создается путем изменения уже существующих фотографий или видео путем применения технологии deepfake к изображениям участников. Использование deepfake порно вызвало споры, поскольку оно включает в себя создание и распространение реалистичных видео с участием несогласных лиц, как правило, знаменитостей женского пола, и иногда используется для порно мести . Предпринимаются усилия по борьбе с этими этическими проблемами с помощью законодательства и технологических решений.
Термин «deepfake» был придуман в 2017 году на форуме Reddit , где пользователи делились измененными порнографическими видео, созданными с использованием алгоритмов машинного обучения. Это сочетание слова «deep learning», которое относится к программе, используемой для создания видео, и «fake», означающего, что видео не являются настоящими. [1]
Deepfake порно изначально создавалось в небольших индивидуальных масштабах с использованием комбинации алгоритмов машинного обучения , методов компьютерного зрения и программного обеспечения ИИ . Процесс начался со сбора большого количества исходного материала (включая как изображения, так и видео) лица человека, а затем с использованием модели глубокого обучения для обучения генеративно-состязательной сети для создания фейкового видео, которое убедительно меняет лицо исходного материала на тело порноактера. Однако процесс производства значительно изменился с 2018 года с появлением нескольких общедоступных приложений, которые в значительной степени автоматизировали процесс. [2]
Deepfake порнографию иногда путают с поддельной обнаженной фотографией , но эти два понятия в основном отличаются. Поддельная обнаженная фотография обычно использует несексуальные изображения и просто создает видимость того, что люди на них обнажены.
Технология Deepfake использовалась для создания несогласованных и порнографических изображений и видео известных женщин. Один из самых ранних примеров произошел в 2017 году, когда пользователь Reddit создал порнографическое видео с Галь Гадот , которое быстро распространилось в сети. С тех пор было зафиксировано множество случаев подобного контента Deepfake, нацеленного на других знаменитостей женского пола, таких как Эмма Уотсон , Натали Портман и Скарлетт Йоханссон . [3] Йоханссон публично высказалась по этому вопросу в декабре 2018 года, осудив эту практику, но также отказавшись от судебного иска, поскольку она считает преследования неизбежными. [4]
В 2018 году Рана Айюб , индийская журналистка-расследовательница, стала объектом интернет-кампании ненависти, вызванной ее осуждением индийского правительства, в частности, ее выступлениями против изнасилования восьмилетней девочки из Кашмира. Айюб подверглась бомбардировке угрозами изнасилования и смерти, а также распространяла в сети сфальсифицированное порнографическое видео с ней. [5] В статье Huffington Post Айюб рассказала о долгосрочных психологических и социальных последствиях этого опыта для нее. Она объяснила, что продолжает бороться со своим психическим здоровьем и как изображения и видео продолжали всплывать всякий раз, когда она брала на себя громкое дело. [6]
В 2023 году стример Twitch Atrioc вызвал споры, когда случайно показал фейковый порнографический материал с участием женщин-стримеров Twitch во время трансляции. С тех пор инфлюенсер признался в оплате порно, созданного искусственным интеллектом, и извинился перед женщинами и своими поклонниками. [7] [8]
В январе 2024 года созданные искусственным интеллектом откровенные изображения американской певицы Тейлор Свифт были опубликованы в X (ранее Twitter) и распространились на другие платформы, такие как Facebook , Reddit и Instagram . [9] [10] [11] Один твит с изображениями был просмотрен более 45 миллионов раз, прежде чем был удален. [12] [10] Отчет 404 Media показал, что изображения, по-видимому, были получены из группы Telegram , участники которой использовали такие инструменты, как Microsoft Designer, для генерации изображений, используя опечатки и хаки ключевых слов, чтобы обойти фильтры контента Designer. [13] [14] После публикации материала поклонники Свифт опубликовали концертные кадры и изображения, чтобы скрыть поддельные изображения, и сообщили об аккаунтах, публикующих поддельные изображения. [15] Поиск имени Свифт был временно отключен в X , вместо этого возвращая сообщение об ошибке. [16] Graphika , фирма по исследованию дезинформации, проследила создание изображений до сообщества 4chan . [17] [18]
Источник, близкий к Свифт, сообщил Daily Mail , что она рассмотрит возможность подачи иска, заявив: «Решение о том, будут ли предприняты правовые действия, пока не принято, но ясно одно: эти фейковые изображения, созданные искусственным интеллектом, являются оскорбительными, агрессивными, эксплуататорскими и сделаны без согласия и/или ведома Тейлор». [15] [19]
Спор вызвал осуждение со стороны пресс-секретаря Белого дома Карин Жан-Пьер , [20] генерального директора Microsoft Сатьи Наделлы , [21] Национальной сети по борьбе с изнасилованиями, надругательствами и инцестом , [22] и SAG-AFTRA . [23] Несколько политиков США призвали к принятию федерального законодательства против глубокой фейковой порнографии. [24] Позже в том же месяце сенаторы США Дик Дурбин , Линдси Грэм , Эми Клобушар и Джош Хоули представили двухпартийный законопроект, который позволит жертвам подавать в суд на лиц, которые производили или обладали «цифровыми подделками» с намерением распространять, или на тех, кто получил материал, зная, что он был сделан без согласия. [25]
В августе 2024 года в Южной Корее выяснилось, что многие учителя и ученицы стали жертвами поддельных изображений, созданных пользователями, которые использовали технологию ИИ. Журналист Ко Нарин из Ханкёре раскрыл поддельные изображения через чаты Telegram. [26] [27] [28] В Telegram групповые чаты были созданы специально для сексуального насилия над женщинами на основе изображений, включая учащихся средних и старших классов, учителей и даже членов семьи. Женщины с фотографиями на платформах социальных сетей, таких как KakaoTalk , Instagram и Facebook, также часто подвергаются нападениям. Преступники используют ботов ИИ для создания поддельных изображений, которые затем продаются или широко распространяются вместе с аккаунтами жертв в социальных сетях, номерами телефонов и именами пользователей KakaoTalk. По сообщениям Guardian, одна группа Telegram привлекла около 220 000 участников.
Расследования выявили многочисленные чат-группы в Telegram , где пользователи, в основном подростки, создают и делятся откровенными фейковыми изображениями одноклассников и учителей. Проблема возникла на фоне тревожной истории цифровых сексуальных преступлений, в частности, печально известного дела Nth Room в 2019 году. Корейский союз учителей подсчитал, что более 200 школ пострадали от этих инцидентов. Активисты призвали объявить «национальное чрезвычайное положение» для решения этой проблемы. [29] Южнокорейская полиция сообщила о более чем 800 случаях сексуальных преступлений с использованием фейков к концу сентября 2024 года, что является резким ростом по сравнению со 156 случаями в 2021 году, при этом большинство жертв и преступников были подростками. [30]
21 сентября 6000 человек собрались в парке Марронье на северо-востоке Сеула, чтобы потребовать более жестких правовых мер против преступлений, связанных с дипфейками, направленных против женщин. [31] 26 сентября, после широкомасштабного возмущения скандалом вокруг Telegram, южнокорейские законодатели приняли законопроект, криминализирующий хранение или просмотр откровенных сексуальных дипфейковых изображений и видео, устанавливающий наказания, включающие тюремное заключение и штрафы. Согласно новому закону, тем, кто был пойман за покупкой, сохранением или просмотром таких материалов, грозило до трех лет тюрьмы или штрафы до 30 миллионов вон (22 600 долларов США). На момент внесения законопроекта создание откровенных сексуальных дипфейков для распространения влекло за собой максимальное наказание в пять лет, но новое законодательство увеличит это наказание до семи лет, независимо от намерения. [30]
По оценкам, к октябрю 2024 года количество фейковых ботов «nudify» в Telegram достигало четырех миллионов пользователей в месяц. [32] [33]
Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, более быстрым, безопасным и простым, чем когда-либо. Deepfake можно использовать для создания нового CSAM из уже существующего материала или создания CSAM из детей, которые не подвергались сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, груминг, вымогательство и издевательства. [34]
Большая часть deepfake порно делается с лицами людей, которые не давали согласия на использование их изображений в таком сексуальном ключе. В 2023 году компания Sensity, занимающаяся проверкой личности, обнаружила, что «96% deepfake являются откровенно сексуальными и содержат женщин, которые не давали согласия на создание контента». [35] Зачастую deepfake порно используется для унижения и преследования в первую очередь женщин способами, похожими на порно мести .
В последние годы обнаружение дипфейков становится все более важной областью исследований, поскольку распространение поддельных видео и изображений становится все более распространенным. Одним из перспективных подходов к обнаружению дипфейков является использование сверточных нейронных сетей (CNN), которые показали высокую точность в различении реальных и поддельных изображений. Одним из алгоритмов на основе CNN, разработанных специально для обнаружения дипфейков, является DeepRhythm, который продемонстрировал впечатляющую точность 0,98 ( т.е. успешно обнаруживает дипфейковые изображения в 98% случаев). Этот алгоритм использует предварительно обученную CNN для извлечения признаков из интересующих областей лица, а затем применяет новый механизм внимания для выявления несоответствий между исходными и измененными изображениями. В то время как разработка более сложной технологии дипфейков представляет собой постоянные проблемы для усилий по обнаружению, высокая точность алгоритмов, таких как DeepRhythm, предлагает многообещающий инструмент для выявления и смягчения распространения вредоносных дипфейков. [1]
Помимо моделей обнаружения, существуют также общедоступные инструменты проверки подлинности видео. В 2019 году Deepware выпустила первый общедоступный инструмент обнаружения, который позволил пользователям легко сканировать и обнаруживать deepfake-видео. Аналогичным образом в 2020 году Microsoft выпустила бесплатный и удобный в использовании видеоаутентификатор. Пользователи загружают подозрительное видео или вводят ссылку и получают оценку достоверности для оценки уровня манипуляции в deepfake.
По состоянию на 2023 год отсутствует законодательство, которое конкретно касается глубокой фейковой порнографии. Вместо этого вред, причиненный ее созданием и распространением, рассматривается судами в рамках существующих уголовных и гражданских законов.Nudify Me: Правовые последствия порно мести, созданного ИИ
Жертвы глубокой фейковой порнографии часто предъявляют иски о мести порно , деликте и преследованиях. [36] Правовые последствия мести порно различаются от штата к штату и от страны к стране. [36] [37] Например, в Канаде наказание за публикацию несогласованных интимных изображений составляет до 5 лет тюрьмы, [38] тогда как на Мальте это штраф в размере до 5000 евро. [39]
«Закон об ответственности за дипфейк» был представлен в Конгресс США в 2019 году, но умер в 2020 году. [40] Он был направлен на то, чтобы сделать производство и распространение цифровых измененных визуальных медиа, которые не были раскрыты как таковые, уголовным преступлением. В названии указано, что создание любых сексуальных, несогласованных измененных медиа с намерением унизить или иным образом навредить участникам, может быть оштрафовано, лишено свободы на срок до 5 лет или и то, и другое. [37] Новая версия законопроекта была представлена в 2021 году, которая потребовала бы, чтобы любые «передовые технологические записи ложного олицетворения» содержали водяной знак и аудиовизуальное раскрытие для идентификации и объяснения любых измененных аудио- и визуальных элементов. Законопроект также включает, что нераскрытие этой информации с намерением преследовать или унизить человека с «передовой технологической записью ложного олицетворения», содержащей сексуальный контент, «должно быть оштрафовано в соответствии с этим заголовком, лишено свободы на срок не более 5 лет или и то, и другое». Однако этот законопроект был отклонен в 2023 году. [41]
В Соединенном Королевстве Комиссия по законодательству Англии и Уэльса рекомендовала провести реформу по криминализации распространения фейковой порнографии в 2022 году. [42] В 2023 году правительство объявило о внесении поправок в Закон о безопасности в Интернете с этой целью. Закон о безопасности в Интернете 2023 года вносит поправки в Закон о сексуальных преступлениях 2003 года, криминализируя распространение интимных изображений, которые показывают или «кажутся показывающими» другое лицо (включая фейковые изображения) без согласия. [43] В 2024 году правительство объявило, что преступление, криминализирующее производство фейковых порнографических изображений, будет включено в Закон об уголовном правосудии 2024 года. [44] [45] Законопроект не был принят до роспуска парламента перед всеобщими выборами .
Хотя правовая среда остается неразвитой, жертвы глубокой фейковой порнографии имеют несколько инструментов, доступных для ограничения и удаления контента, включая удаление по решению суда, инструменты защиты интеллектуальной собственности, такие как удаление DMCA , сообщение о нарушении положений и условий платформы хостинга и удаление путем сообщения о контенте в поисковые системы. [46]
Несколько крупных онлайн-платформ предприняли шаги по запрету deepfake-порнографии. По состоянию на 2018 год gfycat , reddit , Twitter , Discord и Pornhub запретили загрузку и распространение deepfake-порнографического контента на своих платформах. [47] [48] В сентябре того же года Google также добавил «непреднамеренные синтетические порнографические изображения» в свой список запрещенных материалов, что позволило отдельным лицам запрашивать удаление такого контента из результатов поиска. [49]