Дипфейковая порнография , или просто фейковая порнография , — это вид синтетического порно , который создается путем изменения уже существующего порнографического материала путем применения технологии дипфейка к лицам актеров. Использование дипфейкового порно вызвало споры, поскольку оно предполагает создание и распространение реалистичных видеороликов с участием несогласных людей, обычно знаменитостей женского пола, и иногда используется для порномести . Предпринимаются усилия по борьбе с этими этическими проблемами посредством законодательства и технологических решений.
Термин «дипфейк» был придуман в 2017 году на форуме Reddit , где пользователи делились измененными порнографическими видеороликами, созданными с использованием алгоритмов машинного обучения. Это сочетание слова «глубокое обучение», которое относится к программе, используемой для создания видео, и слова «фейк», означающего, что видео не настоящие. [1]
Дипфейк-порно изначально создавался в небольших индивидуальных масштабах с использованием комбинации алгоритмов машинного обучения , методов компьютерного зрения и программного обеспечения искусственного интеллекта . Процесс начался со сбора большого количества исходного материала (включая изображения и видео) лица человека, а затем использования модели глубокого обучения для обучения генеративно-состязательной сети (GAN) для создания поддельного видео, которое убедительно меняет лицо человека. исходный материал на тело порноактера. Однако с 2018 года производственный процесс значительно изменился с появлением нескольких общедоступных приложений, которые в значительной степени автоматизировали этот процесс. [2]
В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало GAN для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, платная версия стоила 50 долларов. [3] 27 июня создатели удалили приложение и вернули потребителям деньги, хотя различные копии приложения, как бесплатные, так и платные, продолжают существовать. [4] На GitHub была удалена версия этой программы с открытым исходным кодом под названием «open-deepnude». [5] Преимущество версии с открытым исходным кодом заключалось в том, что она позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры. [6]
В июле 2019 года в приложении для обмена сообщениями Telegram был запущен сервис дипфейковых ботов , который использует технологию искусственного интеллекта для создания изображений обнаженных женщин. Сервис бесплатен и имеет удобный интерфейс, позволяющий пользователям отправлять фотографии и получать обработанные изображения обнаженной натуры в течение нескольких минут. Сервис подключен к семи каналам Telegram, включая основной канал, на котором размещен бот, каналы технической поддержки и обмена изображениями. Хотя общее количество пользователей неизвестно, основной канал насчитывает более 45 000 участников. По оценкам, по состоянию на июль 2020 года по каналам обмена изображениями было распространено около 24 000 обработанных изображений. [7]
Технология Deepfake использовалась для создания без согласия порнографических изображений и видео известных женщин. Один из самых ранних примеров произошел в 2017 году, когда пользователем Reddit было создано дипфейковое порнографическое видео с Галь Гадот , которое быстро распространилось в Интернете. С тех пор было множество случаев подобного дипфейкового контента, нацеленного на других знаменитостей женского пола, таких как Эмма Уотсон , Натали Портман и Скарлетт Йоханссон . [8] Йоханссон публично высказалась по этому вопросу в декабре 2018 года, осудив эту практику, но также отказавшись от судебного иска, поскольку считает преследование неизбежным. [9]
В 2018 году Рана Айюб , индийская журналистка-расследователь, стала объектом онлайн-кампании ненависти, вызванной ее осуждением индийского правительства, в частности ее выступлениями против изнасилования восьмилетней кашмирской девочки. Айюб засыпали угрозами изнасилования и смерти, а также сфальсифицировали ее порнографическое видео, распространенное в Интернете. [10] В статье Huffington Post Айюб рассказала о долгосрочных психологических и социальных последствиях, которые этот опыт оказал на нее. Она объяснила, что продолжает бороться со своим психическим здоровьем и что изображения и видео продолжают всплывать всякий раз, когда она берется за громкое дело. [11]
В 2023 году стример Twitch Атриок вызвал споры, когда во время прямого эфира случайно обнародовал дипфейковые порнографические материалы с участием женщин-стримеров Twitch. После этого влиятельный человек признался, что платил за порнографию, созданную искусственным интеллектом, и извинился перед женщинами и своими фанатами. [12] [13]
В январе 2024 года сгенерированные искусственным интеллектом откровенно сексуальные изображения американской певицы Тейлор Свифт были размещены на X (ранее Twitter) и распространились на другие платформы, такие как Facebook , Reddit и Instagram . [14] [15] [16] Один твит с изображениями был просмотрен 45 миллионов раз, прежде чем был удален. [17] [15] В отчете 404 Media выяснилось, что изображения были созданы группой Telegram , члены которой использовали такие инструменты, как Microsoft Designer, для создания изображений, используя орфографические ошибки и хаки ключевых слов для обхода фильтров контента Designer. [18] [19] После публикации материала поиск по имени Свифта на X был временно отключен , вместо этого возвращалось сообщение об ошибке. [20]
Полемика вызвала осуждение со стороны пресс-секретаря Белого дома Карин Жан-Пьер , [21] генерального директора Microsoft Сатьи Наделлы , [22] Национальной сети изнасилований , жестокого обращения и инцеста , [23] и SAG-AFTRA . [24] Несколько американских политиков призвали принять федеральное законодательство против дипфейковой порнографии. [25] Позже в том же месяце сенаторы США Дик Дурбин , Линдси Грэм , Эми Клобушар и Джош Хоули представили двухпартийный законопроект, который позволит жертвам подавать в суд на лиц, которые производили или владели «цифровыми подделками» с целью распространения, или на тех, кто получил материал, зная, что он был сделан без согласия. [26]
Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или для создания CSAM из детей, не подвергавшихся сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, притеснение, вымогательство и издевательства. [27]
Большая часть дипфейкового порно сделана с лицами людей, которые не дали согласия на использование их изображений в столь сексуальном ключе. В 2023 году компания Sensity, занимающаяся проверкой личности, обнаружила, что «96% дипфейков носят откровенно сексуальный характер и изображают женщин, которые не давали согласия на создание контента». [28] Часто дипфейковое порно используется для унижения и преследования, в первую очередь, женщин, аналогично порномести .
В последние годы обнаружение дипфейков становится все более важной областью исследований, поскольку распространение фейковых видео и изображений становится все более распространенным. Одним из многообещающих подходов к обнаружению дипфейков является использование сверточных нейронных сетей (CNN), которые показали высокую точность в различении реальных и поддельных изображений. Одним из алгоритмов на основе CNN, который был разработан специально для обнаружения дипфейков, является DeepRhythm, который продемонстрировал впечатляющий показатель точности 0,98 ( т.е. успешно обнаруживает дипфейковые изображения в 98% случаев). Этот алгоритм использует предварительно обученную CNN для извлечения особенностей из интересующих областей лица, а затем применяет новый механизм внимания для выявления несоответствий между исходным и обработанным изображениями. Хотя развитие более сложной технологии дипфейков постоянно затрудняет усилия по их обнаружению, высокая точность таких алгоритмов, как DeepRhythm, предлагает многообещающий инструмент для выявления и предотвращения распространения вредных дипфейков. [29]
Помимо моделей обнаружения, существуют также общедоступные инструменты видеоаутентификации. В 2019 году компания Deepware выпустила первый общедоступный инструмент обнаружения, который позволил пользователям легко сканировать и обнаруживать дипфейковые видео. Аналогичным образом, в 2020 году Microsoft выпустила бесплатный и удобный видеоаутентификатор. Пользователи загружают подозрительное видео или вводят ссылку и получают оценку достоверности, позволяющую оценить уровень манипуляции в дипфейке.
В 2023 году не будет законодательства, конкретно касающегося дипфейковой порнографии. Вместо этого вред, причиненный его созданием и распространением, рассматривается судами посредством существующих уголовных и гражданских законов.
Наиболее распространенным юридическим средством правовой защиты для жертв дипфейковой порнографии является предъявление иска о « порномести », поскольку изображения носят несогласованный и интимный характер. Юридические последствия порномести варьируются от страны к стране. [30] Например, в Канаде наказание за публикацию интимных изображений без согласия составляет до 5 лет тюремного заключения, [31] тогда как на Мальте это штраф до 5000 евро. [32]
«Закон об ответственности за дипфейки» был представлен Конгрессу США в 2019 году, но прекратил свое действие в 2020 году. [33] Он был направлен на то, чтобы сделать производство и распространение визуальных медиа, измененных в цифровом формате, которые не были раскрыты как таковые, уголовным преступлением. В названии указано, что создание любых сексуальных, измененных материалов без согласия с целью унизить или иным образом причинить вред участникам может быть оштрафовано, заключено в тюрьму на срок до 5 лет или и то, и другое. [30] В 2021 году была представлена более новая версия законопроекта, которая требовала, чтобы любые «передовые технологические записи о ложных личностях» содержали водяной знак и аудиовизуальное раскрытие для идентификации и объяснения любых измененных аудио и визуальных элементов. Законопроект также предусматривает, что нераскрытие этой информации с намерением преследовать или унижать человека с «передовой технологической ложной записью о личности», содержащей сексуальный контент, «наказывается штрафом по этому титулу, тюремным заключением на срок не более 5 лет или тем и другим». Однако в 2023 году этот законопроект умер. [34]
Несколько крупных онлайн-платформ предприняли шаги по запрету дипфейковой порнографии. С 2018 года gfycat , Reddit , Twitter , Discord и Pornhub запретили загрузку и распространение дипфейкового порнографического контента на своих платформах. [35] [36] В сентябре того же года Google также добавила «принудительные синтетические порнографические изображения» в свой список запретов, что позволило отдельным лицам требовать удаления такого контента из результатов поиска. [37] Однако стоит отметить, что, хотя Pornhub занял позицию против контента без согласия, поиск по запросу «deepfake» на их веб-сайте по-прежнему дает результаты, и они продолжают показывать рекламу дипфейковых веб-сайтов и контента. [38]