stringtranslate.com

Дипфейк

Видеоподделка Ким Чен Ына , созданная в 2020 году беспартийной правозащитной группой RepresentUs

Deepfakes ( гибрид ' deep learning ' и ' fake ' [1] ) — это изображения, видео или аудио, которые редактируются или генерируютсяискусственного интеллекта и которые могут изображать реальных или несуществующих людей. Это тип синтетических медиа . [2]

Хотя создание фейкового контента не является чем-то новым, дипфейки уникальным образом используют технологические инструменты и методы машинного обучения и искусственного интеллекта , [3] [4] [5], включая алгоритмы распознавания лиц и искусственные нейронные сети , такие как вариационные автоэнкодеры (VAE) и генеративно-состязательные сети (GAN). [4] [6] В свою очередь, область криминалистики изображений разрабатывает методы обнаружения сфальсифицированных изображений . [7] Дипфейки привлекли широкое внимание из-за их потенциального использования при создании материалов о сексуальном насилии над детьми , порнографических видеороликов со знаменитостями , порнографической мести , фейковых новостей , мистификаций , издевательств и финансового мошенничества . [8] [9] [10] [11]

Ученые выразили обеспокоенность по поводу возможности использования глубоких фейков для распространения дезинформации и разжигания ненависти, а также вмешательства в выборы. Индустрия информационных технологий и правительства отреагировали рекомендациями по обнаружению и ограничению их использования.

От традиционных развлечений до игр технология deepfake развивалась, становясь все более убедительной [12] и доступной для общественности, что позволило разрушить индустрию развлечений и медиа . [13]

История

Портрет актрисы Сидни Суини, созданный Stable Diffusion

Фотоманипуляция была разработана в 19 веке и вскоре применена к кинофильмам. Технология постоянно совершенствовалась в течение 20 века, и еще быстрее с появлением цифрового видео .

Технология Deepfake была разработана исследователями в академических учреждениях, начиная с 1990-х годов, а позднее любителями в онлайн-сообществах. [14] [15] Совсем недавно эти методы были приняты промышленностью. [16]

Академические исследования

Научные исследования, связанные с дипфейками, делятся на область компьютерного зрения , подраздел компьютерной науки [14] , который разрабатывает методы создания и распознавания дипфейков, и гуманитарные и социальные науки, которые изучают социальные, этические и эстетические последствия дипфейков.

Подходы социальных и гуманитарных наук к дипфейкам

В исследованиях кино дипфейки демонстрируют, как «человеческое лицо становится центральным объектом амбивалентности в цифровую эпоху». [17] Видеохудожники использовали дипфейки, чтобы «игриво переписать историю кино, модернизируя каноническое кино новыми звездными исполнителями». [18] Киновед Кристофер Холлидей анализирует, как смена пола и расы исполнителей в знакомых сценах фильмов дестабилизирует гендерные классификации и категории. [18] Идея « квирных » дипфейков также обсуждается в обсуждении Оливером М. Гингричем медиа-произведений искусства, которые используют дипфейки для переосмысления гендера, [19] включая произведение британского художника Джейка Элвеса « Зизи: квиринг набора данных» , произведение искусства, которое использует дипфейки дрэг-квин, чтобы намеренно играть с гендером. Эстетический потенциал дипфейков также начинает изучаться. Театральный историк Джон Флетчер отмечает, что ранние демонстрации дипфейков представлялись как представления, и помещает их в контекст театра, обсуждая «некоторые из наиболее тревожных сдвигов парадигмы», которые дипфейки представляют как жанр представления. [20]

Философы и медиа-исследователи обсуждали этику дипфейков, особенно в отношении порнографии. [21] Медиа-исследователь Эмили ван дер Нагель опирается на исследования в области фотографии, посвященные обработанным изображениям, чтобы обсудить системы проверки, которые позволяют женщинам давать согласие на использование их изображений. [22]

Помимо порнографии, дипфейки были обозначены философами как «эпистемическая угроза» знаниям и, таким образом, обществу. [23] Существует несколько других предложений о том, как бороться с рисками, которые дипфейки создают помимо порнографии, но также и для корпораций, политиков и других, «эксплуатации, запугивания и личного саботажа», [24] и есть несколько научных дискуссий о потенциальных правовых и нормативных мерах реагирования как в юридических исследованиях, так и в медиаисследованиях. [25] В психологии и медиаисследованиях ученые обсуждают последствия дезинформации , использующей дипфейки, [26] [27] и социальное воздействие дипфейков. [28]

В то время как большинство англоязычных академических исследований deepfakes сосредоточены на западных опасениях по поводу дезинформации и порнографии, цифровой антрополог Габриэле де Сета проанализировал китайский прием deepfakes, которые известны как huanlian , что переводится как «изменение лиц». Китайский термин не содержит «fake» английского deepfake, и де Сета утверждает, что этот культурный контекст может объяснить, почему китайский ответ был больше о практических нормативных мерах реагирования на «риски мошенничества, права на изображение, экономическую прибыль и этический дисбаланс». [29]

Исследования в области компьютерных наук о дипфейках

Ранним знаковым проектом стала программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеокадры говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [30] Это была первая система, которая полностью автоматизировала этот вид реанимации лица, и она сделала это с помощью методов машинного обучения, чтобы установить связи между звуками, производимыми субъектом видео, и формой лица субъекта. [30]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и улучшении методов. [31] [32] Программа «Синтез Обамы», опубликованная в 2017 году, изменяет видеозапись бывшего президента Барака Обамы, чтобы показать, как он произносит слова, содержащиеся в отдельной звуковой дорожке. [31] В качестве основного исследовательского вклада проект называет фотореалистичную технику синтеза форм рта из аудио. [31] Программа Face2Face, опубликованная в 2016 году, изменяет видеозапись лица человека, чтобы изобразить его имитирующим выражения лица другого человека в реальном времени. [32] В качестве основного исследовательского вклада проект называет первый метод воспроизведения выражений лица в реальном времени с использованием камеры, которая не фиксирует глубину, что позволяет использовать эту технику с помощью обычных потребительских камер. [32]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили приложение для фейковых танцев, которое может создать впечатление мастерских танцевальных способностей с использованием ИИ. [33] Этот проект расширяет применение deepfakes на все тело; предыдущие работы были сосредоточены на голове или частях лица. [34]

Исследователи также показали, что дипфейки расширяются в других областях, таких как фальсификация медицинских изображений. [35] В этой работе было показано, как злоумышленник может автоматически вводить или удалять рак легких в 3D-КТ-сканировании пациента . Результат был настолько убедительным, что обманул трех рентгенологов и современный ИИ для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно провели атаку на больницу в тесте на проникновение White Hat . [36]

Обзор дипфейков, опубликованный в мае 2020 года, дает представление о том, как за последние несколько лет развивались методы создания и обнаружения дипфейков. [37] В обзоре указано, что исследователи сосредоточились на решении следующих проблем создания дипфейков:

В целом ожидается, что дипфейки будут иметь ряд последствий для СМИ и общества, медиапроизводства, медиарепрезентаций, медиааудитории, гендера, права и регулирования, а также политики. [38]

Любительское развитие

Термин deepfakes появился примерно в конце 2017 года благодаря пользователю Reddit под ником «deepfakes». [39] Он, а также другие участники сообщества Reddit r/deepfakes, делились созданными ими deepfakes; во многих видео лица знаменитостей были заменены на тела актеров в порнографических видеороликах, [39] в то время как непорнографический контент включал множество видео с лицом актера Николаса Кейджа , замененным в различных фильмах. [40]

Другие онлайн-сообщества остаются, включая сообщества Reddit, которые не делятся порнографией, такие как r/SFWdeepfakes (сокращение от «safe for work deepfakes»), в которых члены сообщества делятся deepfakes, изображающими знаменитостей, политиков и других в непорнографических ситуациях. [41] Другие онлайн-сообщества продолжают делиться порнографией на платформах, которые не запретили deepfake порнографию. [42]

Коммерческое развитие

В январе 2018 года было запущено фирменное настольное приложение под названием FakeApp. [43] Это приложение позволяет пользователям легко создавать и делиться видео, в которых их лица меняются местами. [44] По состоянию на 2019 год FakeApp был вытеснен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com [45] [46] [47]

Более крупные компании начали использовать deepfakes. [16] Корпоративные обучающие видеоролики можно создавать с использованием deepfakes аватаров и их голосов, например, Synthesia , которая использует технологию deepfake с аватарами для создания персонализированных видеороликов. [48] Мобильное приложение Momo создало приложение Zao, которое позволяет пользователям накладывать свое лицо на телевизионные и видеоклипы с помощью одной фотографии. [16] По состоянию на 2019 год японская компания искусственного интеллекта DataGrid создала deepfake всего тела, который может создать человека с нуля. [49]

По состоянию на 2020 год также существуют аудиоподделки и программное обеспечение на основе искусственного интеллекта, способное обнаруживать подделки и клонировать человеческие голоса после 5 секунд прослушивания. [50] [51] [52] [53] [54] [55] Мобильное приложение для подделок Impressions было запущено в марте 2020 года. Это было первое приложение для создания поддельных видеороликов знаменитостей с мобильных телефонов. [56] [57]

Воскрешение

Способность технологии Deepfake фальсифицировать сообщения и действия других может включать умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео с голограммой ее покойного отца Роберта Кардашьяна , созданное компанией Kaleida, которая использовала комбинацию технологий перформанса, отслеживания движения, SFX, VFX и DeepFake для создания иллюзии. [58] [59]

В 2020 году в рамках кампании за безопасность огнестрельного оружия было создано фейковое видео Хоакина Оливера, жертвы стрельбы в Паркленде . Родители Оливера объединились с некоммерческой организацией Change the Ref и McCann Health, чтобы снять видео, в котором Оливер призывает людей поддержать законодательство о безопасности огнестрельного оружия, а также политиков, которые его поддерживают. [60]

В 2022 году в программе America's Got Talent 17 было использовано фейковое видео Элвиса Пресли . [61]

В телевизионной рекламе использовалось фейковое видео участника группы Beatles Джона Леннона , убитого в 1980 году. [62]

Методы

Deepfakes полагаются на тип нейронной сети , называемый автоэнкодером . [63] Они состоят из кодера, который преобразует изображение в скрытое пространство меньшей размерности , и декодера, который реконструирует изображение из скрытого представления. [64] Deepfakes используют эту архитектуру, имея универсальный кодер, который кодирует человека в скрытое пространство. [ необходима цитата ] Скрытое представление содержит ключевые особенности черт его лица и позы тела. Затем это можно декодировать с помощью модели, обученной специально для цели. Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве. [ необходима цитата ]

Популярное обновление этой архитектуры присоединяет генеративную состязательную сеть к декодеру. GAN обучает генератор, в данном случае декодер, и дискриминатор в состязательных отношениях. Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, сгенерировано ли изображение. [ необходима цитата ] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, поскольку любые дефекты будут обнаружены дискриминатором. [65] Оба алгоритма постоянно совершенствуются в игре с нулевой суммой . Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; всякий раз, когда определяется дефект, его можно исправить. [65]

Приложения

Действующий

Цифровые клоны профессиональных актеров уже появлялись в фильмах , и ожидается, что прогресс в технологии deepfake повысит доступность и эффективность таких клонов. [66] Использование технологии ИИ стало основной проблемой в забастовке SAG-AFTRA 2023 года , поскольку новые методы позволили создавать и хранить цифровые подобия для использования вместо актеров. [67]

Disney улучшила свои визуальные эффекты, используя технологию подмены лиц с высоким разрешением deepfake. [68] Disney улучшила свою технологию с помощью прогрессивного обучения, запрограммированного на определение выражений лица, внедрения функции подмены лиц и итерации для стабилизации и уточнения вывода. [68] Эта технология deepfake с высоким разрешением значительно экономит эксплуатационные и производственные затраты. [69] Модель генерации deepfake от Disney может создавать медиафайлы, сгенерированные ИИ, с разрешением 1024 x 1024, в отличие от обычных моделей, которые создают медиафайлы с разрешением 256 x 256. [69] Технология позволяет Disney омолаживать персонажей или оживлять умерших актеров. [70] Подобная технология изначально использовалась фанатами для неофициальной вставки лиц в существующие медиафайлы, например, наложения молодого лица Харрисона Форда на лицо Хана Соло в фильме «Хан Соло: Звездные войны. Истории» . [71] Disney использовал deepfake для персонажей принцессы Леи и гранд-моффа Таркина в фильме «Изгой-один» . [72] [73]

В документальном фильме 2020 года «Добро пожаловать в Чечню» использовалась технология deepfake, чтобы скрыть личность опрошенных людей и защитить их от возмездия. [74]

Агентство Creative Artists Agency разработало средство, позволяющее запечатлеть образ актера «за один день», чтобы создать его цифровой клон, который будет контролироваться актером или его наследниками наряду с другими правами личности . [75]

Компании, которые использовали цифровые клоны профессиональных актеров в рекламе, включают Puma , Nike и Procter & Gamble . [76]

Искусство

В марте 2018 года многопрофильный художник Джозеф Айерле опубликовал видеоработу Un'emozione per sempre 2.0 (английское название: The Italian Game ). Художник работал с технологией Deepfake, чтобы создать актера ИИ, синтетическую версию кинозвезды 80-х Орнеллы Мути , путешествующую во времени с 1978 по 2018 год. Массачусетский технологический институт сослался на эту работу в исследовании «Коллективная мудрость». [77] Художник использовал путешествие во времени Орнеллы Мути , чтобы исследовать размышления поколений, а также исследовать вопросы о роли провокации в мире искусства. [78] Для технической реализации Айерле использовал сцены фотомодели Кендалл Дженнер . Программа заменила лицо Дженнер на рассчитанное ИИ лицо Орнеллы Мути. В результате у актера ИИ лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Deepfakes широко использовались в сатире или для пародии на знаменитостей и политиков. Веб-сериал 2020 года Sassy Justice , созданный Треем Паркером и Мэттом Стоуном , в значительной степени демонстрирует использование deepfakes общественных деятелей для высмеивания текущих событий и повышения осведомленности о технологии deepfake. [79]

Шантажировать

Deepfakes могут использоваться для создания шантажных материалов, которые ложно инкриминируют жертву. В отчете Американской службы исследований Конгресса США предупреждается, что deepfakes могут использоваться для шантажа избранных должностных лиц или тех, кто имеет доступ к секретной информации в целях шпионажа или влияния . [80]

В качестве альтернативы, поскольку подделки невозможно надежно отличить от подлинных материалов, жертвы настоящего шантажа теперь могут утверждать, что настоящие артефакты являются подделками, предоставляя им правдоподобное отрицание. Эффект заключается в том, что доверие к существующим шантажным материалам аннулируется, что стирает лояльность к шантажистам и разрушает контроль шантажиста. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» настоящий шантаж, делая его бесполезным. [81] Можно использовать аппаратное обеспечение GPU общего назначения с небольшой программой для генерации этого шантажного контента для любого количества субъектов в огромных количествах, увеличивая предложение поддельного шантажного контента безгранично и в высокомасштабируемой манере. [82]

Развлечение

8 июня 2022 года [83] Дэниел Эммет, бывший участник AGT , объединился с ИИ- стартапом [84] [85] Metaphysic AI, чтобы создать гиперреалистичный дипфейк, который должен был выглядеть как Саймон Коуэлл . Коуэлл, известный своей жесткой критикой участников, [86] был на сцене, исполняя « You're The Inspiration » группы Chicago . Эммет пел на сцене, а на экране позади него в безупречной синхронности появлялось изображение Саймона Коуэлла. [87]

30 августа 2022 года Metaphysic AI представил «поддельных» Саймона Коуэлла , Хоуи Мэндела и Терри Крюса, исполнявших оперу на сцене. [88]

13 сентября 2022 года Metaphysic AI выступил с синтетической версией Элвиса Пресли в финале America's Got Talent . [89]

Проект искусственного интеллекта Массачусетского технологического института 15.ai использовался для создания контента для множества интернет- фандомов , особенно в социальных сетях. [90] [91] [92]

В 2023 году группы ABBA и KISS объединились с Industrial Light & Magic и Pophouse Entertainment для разработки аватаров Deepfake, способных проводить виртуальные концерты . [93]

Мошенничество и аферы

Мошенники и аферисты используют deepfake, чтобы обмануть людей в фальшивых инвестиционных схемах, финансовом мошенничестве , криптовалютах , отправке денег и последующих одобрениях . Образы знаменитостей и политиков использовались для крупномасштабных афер, а также образы частных лиц, которые используются в фишинговых атаках. По данным Better Business Bureau , мошенничество с deepfake становится все более распространенным. [94]

Поддельные одобрения использовали личности таких знаменитостей, как Тейлор Свифт , [95] [94] Том Хэнкс , [96] Опра Уинфри , [97] и Илон Маск ; [98] ведущих новостей , [99] таких как Гейл Кинг [96] и Салли Бандок ; [100] и политиков, таких как Ли Сянь Лунг [101] и Джим Чалмерс . [102] [103] Видео с ними появлялись в онлайн-рекламе на YouTube , Facebook и TikTok , которые проводят политику против синтетических и манипулируемых медиа . [104] [95] [105] Рекламу с этими видео смотрят миллионы людей. Одна кампания по мошенничеству с Medicare была просмотрена более 195 миллионов раз в тысячах видеороликов. [104] [106] Глубокие фейки использовались для: поддельной раздачи посуды Le Creuset за «плату за доставку» без получения товара, за исключением скрытых ежемесячных платежей; [95] жевательных резинок для похудения, которые стоят значительно дороже заявленной цены; [97] поддельной раздачи iPhone; [95] [105] и мошеннических схем быстрого обогащения , [98] [107] инвестиций, [108] и криптовалют . [101] [109]

Многие рекламные объявления сочетают клонирование голоса ИИ с «деконтекстуализированным видео знаменитости», чтобы имитировать подлинность. Другие используют целый клип знаменитости, прежде чем перейти к другому актеру или голосу. [104] Некоторые мошенничества могут включать в себя deepfakes в реальном времени. [105]

Знаменитости предупреждают людей об этих фальшивых одобрениях и призывают быть более бдительными по отношению к ним. [94] [95] [97] Знаменитости вряд ли подадут иски против каждого человека, занимающегося мошенничеством с использованием дипфейков, поскольку «поиск и привлечение к ответственности анонимных пользователей социальных сетей требует больших ресурсов», хотя письма о прекращении и воздержании в адрес компаний социальных сетей работают, добиваясь удаления видеороликов и рекламы. [110]

Аудиоподделки использовались как часть мошенничества с использованием социальной инженерии , заставляя людей думать, что они получают инструкции от доверенного лица. [111] В 2019 году генеральный директор британской энергетической компании был обманут по телефону, когда ему было приказано перевести 220 000 евро на венгерский банковский счет лицом, которое, как сообщается, использовало технологию аудиоподделки, чтобы выдать себя за голос генерального директора материнской компании фирмы. [112] [113]

По состоянию на 2023 год сочетание достижений в области технологии deepfake, которая может клонировать голос человека из записи длительностью от нескольких секунд до минуты, и новых инструментов генерации текста позволило проводить автоматизированные мошенничества с подделкой, нацеленные на жертв, используя убедительный цифровой клон друга или родственника. [114]

Маскировка личности

Аудио deepfakes могут использоваться для маскировки настоящей личности пользователя. Например, в онлайн-играх игрок может выбрать голос, который звучит как его игровой персонаж , когда он разговаривает с другими игроками. Те, кто подвергается преследованиям , например, женщины, дети и трансгендерные люди, могут использовать эти «голосовые скины», чтобы скрыть свой пол или возраст. [115]

Мемы

В 2020 году появился интернет-мем , использующий deepfakes для создания видеороликов людей, поющих припев «Baka Mitai» (ばかみたい) , песни из игры Yakuza 0 в серии видеоигр Like a Dragon . В этой серии меланхоличная песня исполняется игроком в мини-игре с караоке . Большинство итераций этого мема используют в качестве шаблона видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует губы с песней. [116] [117]

Политика

Глубокие фейки использовались для искажения информации об известных политиках в видеороликах.

Порнография

В 2017 году Deepfake-порнография заметно появилась в Интернете, особенно на Reddit . [137] По состоянию на 2019 год многие deepfake в Интернете содержат порнографию знаменитостей женского пола, чье изображение обычно используется без их согласия. [138] Отчет, опубликованный в октябре 2019 года голландским стартапом по кибербезопасности Deeptrace, подсчитал, что 96% всех deepfake в Интернете были порнографическими. [139] По состоянию на 2018 год Deepfake Дэйзи Ридли впервые привлек внимание [137] среди прочих. [140] [141] [142] По состоянию на октябрь 2019 года большинством субъектов deepfake в Интернете были британские и американские актеры. [138] Однако около четверти субъектов являются южнокорейцами, большинство из которых являются звездами K-pop. [138] [143]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративные состязательные сети , для удаления одежды с изображений женщин. Приложение имело как платную, так и бесплатную версию, платная версия стоила 50 долларов. [144] [145] 27 июня создатели удалили приложение и вернули деньги потребителям. [146]

Женщины-знаменитости часто становятся главной целью, когда дело доходит до deepfake порнографии. В 2023 году в сети появились deepfake порно-видео Эммы Уотсон и Скарлетт Йоханссон в приложении для обмена лицами. [147] В 2024 году в сети распространились deepfake порно-изображения Тейлор Свифт . [148]

Академические исследования показали, что женщины, представители сообщества ЛГБТ и цветные люди (особенно активисты, политики и те, кто ставит под сомнение власть) подвергаются более высокому риску стать объектами распространения фейковой порнографии. [149]

Социальные сети

Deepfakes начали использоваться на популярных платформах социальных сетей, в частности, через Zao, китайское приложение для deepfake, которое позволяет пользователям заменять свои собственные лица на лица персонажей в сценах из фильмов и телешоу, таких как «Ромео + Джульетта» и «Игра престолов» . [150] Первоначально приложение подверглось критике из-за его агрессивной политики конфиденциальности и пользовательских данных, после чего компания опубликовала заявление, в котором утверждалось, что она пересмотрит политику. [16] В январе 2020 года Facebook объявила, что вводит новые меры для противодействия этому на своих платформах. [151]

Исследовательская служба Конгресса США сослалась на неуказанные доказательства, свидетельствующие о том, что сотрудники иностранной разведки использовали дипфейки для создания аккаунтов в социальных сетях с целью вербовки лиц, имеющих доступ к секретной информации . [80]

В 2021 году на TikTok были опубликованы реалистичные deepfake-видео с актером Томом Крузом , которые стали вирусными и собрали более десятков миллионов просмотров. В deepfake-видео был показан «сгенерированный искусственным интеллектом двойник» Круза, который делал различные действия, такие как удар на поле для гольфа, показывал фокус с монетой и кусал леденец. Создатель клипов, бельгийский художник визуальных эффектов Крис Уме [152] , сказал, что впервые заинтересовался deepfake в 2018 году и увидел в них «творческий потенциал». [153] [154]

Носочковые куклы

Фотографии Deepfake можно использовать для создания кукол- несуществующих людей, которые активны как в сети, так и в традиционных СМИ. Фотография Deepfake, по-видимому, была создана вместе с легендой для, по-видимому, несуществующего человека по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Персона Оливера Тейлора представила статьи-мнения в нескольких газетах и ​​активно участвовала в онлайн-СМИ, нападая на британского ученого-юриста и его жену, как на «сторонников террористов». Ученый привлек международное внимание в 2018 году, когда он начал судебный процесс в Израиле против NSO, компании по слежке, от имени людей в Мексике, которые утверждали, что стали жертвами технологии взлома телефонов NSO . Reuters смог найти только скудные записи об Оливере Тейлоре, а в «его» университете не было никаких записей о нем. Многие эксперты согласились, что фотография профиля является deepfake. Несколько газет не отозвали статьи, приписываемые ему, и не удалили их со своих веб-сайтов. Есть опасения, что такие методы являются новым полем битвы в дезинформации . [155]

Коллекции поддельных фотографий несуществующих людей в социальных сетях также использовались в качестве части израильской партийной пропаганды. Страница Facebook «Сионистская весна» содержала фотографии несуществующих людей вместе с их «свидетельствами», якобы объясняющими, почему они отказались от своей левой политики, чтобы принять правую политику , и страница также содержала большое количество постов от премьер-министра Израиля Биньямина Нетаньяху и его сына, а также из других израильских правых источников. Фотографии, по-видимому, были созданы с помощью технологии « синтеза человеческого изображения », компьютерного программного обеспечения, которое берет данные с фотографий реальных людей, чтобы создать реалистичное составное изображение несуществующего человека. Во многих «свидетельствах» причиной принятия политических правых был шок от известия о предполагаемом подстрекательстве к насилию против премьер-министра. Затем правые израильские телеканалы транслировали «свидетельства» этих несуществующих людей, основываясь на том факте, что они были «распространены» в Интернете. Вещатели транслировали эти «свидетельства», несмотря на то, что не смогли найти таких людей, объясняя: «Почему происхождение имеет значение?» Другие фейковые профили в Facebook — профили вымышленных лиц — содержали материалы, которые якобы содержали такое подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [156] [157]

Проблемы и контрмеры

Хотя поддельные фотографии уже давно существуют в изобилии, подделывать кинофильмы стало сложнее, а наличие дипфейков увеличивает сложность классификации видео как подлинных или нет. [118] Исследователь ИИ Алекс Шампандард сказал, что люди должны знать, как быстро что-то может быть испорчено с помощью технологии дипфейков, и что проблема не техническая, а скорее та, которую можно решить путем доверия к информации и журналистике. [118] Доцент кафедры компьютерных наук Хао Ли из Университета Южной Калифорнии утверждает, что дипфейки, созданные для вредоносного использования, например, фейковых новостей , будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [158] Ли предсказал, что подлинные видео и дипфейки станут неразличимы уже через полгода, по состоянию на октябрь 2019 года, из-за быстрого развития искусственного интеллекта и компьютерной графики. [158] Бывший глава Google по борьбе с мошенничеством Шуман Гошемаджумдер назвал дипфейки областью «общественного беспокойства» и сказал, что они неизбежно разовьются до такой степени, что их можно будет генерировать автоматически, и человек сможет использовать эту технологию для создания миллионов дипфейковых видео. [159]

Достоверность информации

Основная ловушка заключается в том, что человечество может впасть в эпоху, когда больше невозможно будет определить, соответствует ли содержание носителя истине. [118] [160] Дипфейки являются одним из ряда инструментов для дезинформационной атаки , создания сомнений и подрыва доверия. Они могут помешать демократическим функциям в обществе, таким как определение коллективных программ, обсуждение вопросов, информирование о решениях и решение проблем посредством осуществления политической воли. [161] Люди также могут начать игнорировать реальные события как поддельные. [115]

Клевета

Дипфейки обладают способностью наносить огромный вред отдельным лицам. [162] Это связано с тем, что дипфейки часто нацелены на одного человека и/или его отношения с другими в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью фишинга с дипфейками, который манипулирует звуком для создания поддельных телефонных звонков или разговоров. [162] Другой метод использования дипфейков — это сфабрикованные личные замечания, которые манипулируют средствами массовой информации для передачи людей, озвучивающих оскорбительные комментарии. [162] Качество негативного видео или аудио не обязательно должно быть таким высоким. Пока чье-то сходство и действия узнаваемы, дипфейк может навредить его репутации. [115]

В сентябре 2020 года компания Microsoft публично заявила, что разрабатывает программное обеспечение для обнаружения Deepfake. [163]

Обнаружение

Аудио

Обнаружение поддельного звука — очень сложная задача, требующая пристального внимания к аудиосигналу для достижения хорошей производительности. Использование глубокого обучения, предварительной обработки дизайна признаков и маскировки аугментации доказали свою эффективность в повышении производительности. [164]

Видео

Большинство академических исследований, посвященных дипфейкам, фокусируются на обнаружении дипфейковых видео. [165] Одним из подходов к обнаружению дипфейков является использование алгоритмов для распознавания шаблонов и выявления тонких несоответствий, которые возникают в дипфейковых видео. [165] Например, исследователи разработали автоматические системы, которые проверяют видео на наличие ошибок, таких как нерегулярные шаблоны мигания освещения. [166] [14] Этот подход подвергался критике, поскольку обнаружение дипфейков характеризуется « движущейся штангой ворот », где производство дипфейков продолжает меняться и совершенствоваться по мере совершенствования алгоритмов обнаружения дипфейков. [165] Чтобы оценить наиболее эффективные алгоритмы обнаружения дипфейков, коалиция ведущих технологических компаний провела Deepfake Detection Challenge, чтобы ускорить технологию выявления манипулируемого контента. [167] Победившая модель Deepfake Detection Challenge имела точность 65% на контрольном наборе из 4000 видео. [168] В декабре 2021 года группа исследователей из Массачусетского технологического института опубликовала статью, в которой продемонстрировала, что обычные люди с точностью 69–72 % распознают случайную выборку из 50 таких видеороликов. [169]

Группа ученых из Университета Буффало опубликовала в октябре 2020 года статью, в которой описала свою методику использования отражений света в глазах изображенных лиц для обнаружения дипфейков с высокой вероятностью успеха, даже без использования инструмента обнаружения ИИ, по крайней мере, на данный момент. [170]

В случае хорошо документированных личностей, таких как политические лидеры, были разработаны алгоритмы для различения особенностей, основанных на идентичности, таких как модели лица, жестов и вокальных манер, а также для обнаружения глубоко фальшивых имитаторов. [171]

Другая команда под руководством Ваэля АбдАлмагида из Лаборатории визуального интеллекта и мультимедиа-аналитики (VIMAL) Института информационных наук в Университете Южной Калифорнии разработала два поколения [172] [173] детекторов deepfake на основе сверточных нейронных сетей . Первое поколение [172] использовало рекуррентные нейронные сети для обнаружения пространственно-временных несоответствий с целью идентификации визуальных артефактов, оставленных процессом генерации deepfake. Алгоритм достиг 96% точности на FaceForensics++, единственном крупномасштабном тесте deepfake, доступном на тот момент. Второе поколение [173] использовало сквозные глубокие сети для различения артефактов и высокоуровневой семантической информации о лице с использованием двухветвевых сетей. Первая ветвь распространяет цветовую информацию, в то время как другая ветвь подавляет содержание лица и усиливает низкоуровневые частоты с помощью Лапласа Гаусса (LoG) . Кроме того, они включили новую функцию потерь, которая изучает компактное представление настоящих лиц, одновременно рассеивая представления (т. е. признаки) дипфейков. Подход VIMAL продемонстрировал высочайшую производительность на тестах FaceForensics++ и Celeb-DF, а 16 марта 2022 года (в тот же день, когда был выпущен) был использован для идентификации дипфейка Владимира Зеленского «из коробки» без какой-либо переподготовки или знания алгоритма, с помощью которого был создан дипфейк. [ необходима цитата ]

Другие методы предполагают, что блокчейн может использоваться для проверки источника медиа. [174] Например, видео может быть проверено через реестр, прежде чем оно будет показано на платформах социальных сетей. [174] С помощью этой технологии будут одобрены только видео из надежных источников, что уменьшит распространение потенциально вредоносных поддельных медиа. [174]

Для борьбы с дипфейками было предложено использовать цифровую подпись для всех видео и изображений, сделанных с помощью камер и видеокамер, включая камеры смартфонов. [175] Это позволяет отслеживать каждую фотографию или видео до ее первоначального владельца, что может быть использовано для преследования диссидентов. [175]

Один из простых способов обнаружить поддельные видеозвонки — попросить звонящего повернуться боком. [176]

Профилактика

Генри Айдер, работающий в Deeptrace, компании, которая обнаруживает deepfakes, говорит, что есть несколько способов защиты от deepfakes на рабочем месте. Семантические пароли или секретные вопросы могут использоваться при проведении важных разговоров. Голосовая аутентификация и другие биометрические функции безопасности должны быть актуальными. Просвещайте сотрудников о deepfakes. [115]

Споры

В марте 2024 года был показан видеоклип из Букингемского дворца , где Кейт Миддлтон болела раком и проходила химиотерапию. Однако клип породил слухи о том, что женщина в этом клипе была ИИ-дипфейком. [177] Директор гонки Калифорнийского университета в Лос-Анджелесе Джонатан Перкинс сомневался, что у нее рак, и далее предположил, что она может быть в критическом состоянии или умереть. [178]

Примеры событий

Барак Обама

17 апреля 2018 года американский актер Джордан Пил , BuzzFeed и Monkeypaw Productions опубликовали на YouTube deepfake Барака Обамы, на котором Барак Обама ругался и обзывал Дональда Трампа. [179] В этом deepfake голос и лицо Пила были преобразованы и сфальсифицированы в голос и лицо Обамы. Целью этого видео было показать опасные последствия и силу deepfake, а также то, как deepfake могут заставить кого угодно сказать что угодно.

Дональд Трамп

5 мая 2019 года Derpfakes опубликовал на YouTube deepfake Дональда Трампа , основанный на скетче Джимми Фэллона , показанном на The Tonight Show . [180] В оригинальной скетче (вышедшей в эфир 4 мая 2016 года) Джимми Фэллон одет как Дональд Трамп и делает вид, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастается своей победой на праймериз в Индиане. [180] В deepfake лицо Джимми Фэллона было преобразовано в лицо Дональда Трампа, при этом звук остался прежним. Это deepfake видео было создано Derpfakes с комедийным намерением.

Поддельное изображение ареста Дональда Трампа, созданное Midjourney [181]

В марте 2023 года появилась серия изображений, на которых сотрудники полиции Нью-Йорка сдерживают Трампа. [182] Изображения, созданные с помощью Midjourney , были первоначально опубликованы в Twitter Элиотом Хиггинсом , но позже были повторно опубликованы без контекста, что заставило некоторых зрителей поверить, что это настоящие фотографии. [181]

Нэнси Пелоси

В 2019 году в социальных сетях широко распространился отрывок из выступления Нэнси Пелоси в Центре американского прогресса (22 мая 2019 года), в котором видео было замедлено, а также изменена высота звука, чтобы создать впечатление, что она пьяна. Критики утверждают, что это был не deepfake, а plainfake ‍ — ‍ менее сложная форма видеоманипуляций. [183] ​​[184]

Марк Цукерберг

В мае 2019 года два художника, сотрудничающие с компанией CannyAI, создали deepfake-видео основателя Facebook Марка Цукерберга, рассказывающего о сборе и контроле данных миллиардов людей. Видео было частью выставки, призванной информировать общественность об опасностях искусственного интеллекта . [185] [186]

Ким Чен Ын и Владимир Путин

Видео Deepfake: Владимир Путин предупреждает американцев о вмешательстве в выборы и усилении политического раскола

29 сентября 2020 года на YouTube были загружены дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина , созданные беспартийной правозащитной группой RepresentUs . [187]

Глубокие фейки Кима и Путина должны были транслироваться публично в качестве рекламы, чтобы передать идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии Соединенных Штатов. Рекламные ролики также были направлены на то, чтобы шокировать американцев, чтобы они осознали, насколько хрупка демократия, и как СМИ и новости могут существенно влиять на путь страны независимо от достоверности. [187] Однако, хотя в рекламных роликах и содержался завершающий комментарий, в котором подробно описывалось, что кадры не были настоящими, в конечном итоге они не были показаны из-за страхов и чувствительности относительно того, как могут отреагировать американцы. [187]

5 июня 2023 года неизвестный источник транслировал на нескольких радио- и телевизионных сетях дипфейк Владимира Путина. В клипе Путин, по-видимому, произносит речь, объявляя о вторжении в Россию и призывая к всеобщей мобилизации армии. [188]

Владимир Зеленский

16 марта 2022 года в социальных сетях было распространено одноминутное фейковое видео, на котором президент Украины Владимир Зеленский, по-видимому, приказывает своим солдатам сложить оружие и сдаться во время российского вторжения в Украину в 2022 году . [161] Российские социальные сети его раскрутили, но после того, как оно было разоблачено, Facebook и YouTube удалили его. Twitter разрешил разместить видео в твитах, где оно было разоблачено как фейк, но заявил, что оно будет удалено, если будет опубликовано с целью обмана людей. Хакеры вставили дезинформацию в прямую бегущую строку новостей на телеканале Украина 24, и видео ненадолго появилось на веб-сайте канала в дополнение к ложным утверждениям о том, что Зеленский бежал из столицы своей страны, Киева . Не сразу стало ясно, кто создал фейк, на что Зеленский ответил собственным видео, заявив: «Мы не планируем складывать оружие. До нашей победы». [189]

Новости Вольфа

В конце 2022 года прокитайские пропагандисты начали распространять deepfake-видео, якобы взятые из «Wolf News», в которых использовались синтетические актеры. Технология была разработана лондонской компанией Synthesia, которая продвигает ее как дешевую альтернативу живым актерам для обучающих и HR-видео. [190]

Папа Франциск

Поддельное изображение Папы Франциска в пуховике, созданное Midjourney

В марте 2023 года анонимный строитель из Чикаго использовал Midjourney для создания фейкового изображения Папы Франциска в белой стеганой куртке Balenciaga . Изображение стало вирусным, собрав более двадцати миллионов просмотров. [191] Писатель Райан Бродерик назвал его «первым настоящим случаем массовой дезинформации с использованием ИИ». [192] Эксперты, с которыми консультировался Slate, охарактеризовали изображение как бесхитростное: «его можно было сделать в Photoshop пять лет назад». [193]

Кейр Стармер

В октябре 2023 года в первый день конференции Лейбористской партии был выпущен дипфейковый аудиоклип лидера Лейбористской партии Великобритании Кира Стармера, оскорбляющего своих сотрудников. Клип якобы был аудиозаписью Стармера, оскорбляющего своих сотрудников. [194]

Рашмика Манданна

В начале ноября 2023 года известная южноиндийская актриса Рашмика Манданна стала жертвой DeepFake, когда в социальных сетях появилось измененное видео известной британско-индийской инфлюенсера Зары Патель с лицом Рашмики. Зара Патель утверждает, что не участвовала в его создании. [195]

Бонгбонг Маркос

В апреле 2024 года было выпущено видео deepfake, искажающее личность президента Филиппин Бонгбонга Маркоса . Это слайд-шоу, сопровождаемое аудиозаписью deepfake, на которой Маркос якобы приказывает Вооруженным силам Филиппин и спецподразделению действовать «как уместно», если Китай нападет на Филиппины. Видео было выпущено на фоне напряженности, связанной со спором в Южно-Китайском море . [196] Управление по коммуникациям президента заявило, что такой директивы от президента нет, и заявило, что за сфабрикованными медиа может стоять иностранный субъект. [197] Уголовные обвинения были выдвинуты Управлением по делам беженцев Филиппин в связи с deepfake-медиа. [198]

22 июля 2024 года Клэр Контрерас, бывшая сторонница Маркоса, опубликовала видео, на котором Маркос якобы вдыхает нелегальные наркотики. СМИ отметили его соответствие инсинуациям предшественника Маркоса — Родриго Дутерте — о том, что Маркос — наркоман; видео также было показано на митинге Hakbang ng Maisug , организованном людьми, связанными с Дутерте. [199] Два дня спустя Филиппинская национальная полиция и Национальное бюро расследований , основываясь на собственных выводах, пришли к выводу, что видео было создано с использованием ИИ; они также указали на несоответствия между человеком на видео и Маркосом, например, на детали ушей двух людей. [200]

Джо Байден

Перед президентскими выборами в США 2024 года телефонные звонки, имитирующие голос действующего президента Джо Байдена, были сделаны, чтобы отговорить людей голосовать за него. Человек, ответственный за звонки, был обвинен в подавлении избирателей и выдаче себя за кандидата. FCC предложила оштрафовать его на 6 миллионов долларов США , а Lingo Telecom , компанию, которая якобы ретранслировала звонки, на 2 миллиона долларов. [201] [202]

Ответы

Социальные медиа-платформы

Твиттер

Twitter (позже X ) принимает активные меры по борьбе с синтетическими и сфальсифицированными медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, содержащих сфальсифицированные медиа и/или дипфейки, которые сигнализируют зрителям о том, что медиа являются сфальсифицированными. [203] Также будет появляться предупреждение для пользователей, которые планируют ретвитнуть, поставить лайк или взаимодействовать с твитом. [203] Twitter также будет работать над тем, чтобы предоставлять пользователям ссылку рядом с твитом, содержащим сфальсифицированные или синтетические медиа, которая ведет на Twitter Moment или достоверную новостную статью по соответствующей теме — в качестве действия по разоблачению. [203] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или сфальсифицированные медиа, которые могут представлять угрозу безопасности пользователей. [203] Чтобы улучшить обнаружение Twitter дипфейков и сфальсифицированных медиа, Twitter попросил пользователей, которые заинтересованы в партнерстве с ними, поработать над решениями по обнаружению дипфейков, заполнив форму. [204]

«В августе 2024 года секретари штатов Миннесота, Пенсильвания, Вашингтон, Мичиган и Нью-Мексико написали открытое письмо владельцу X Илону Маску, призывая внести изменения в его ИИ-чатбот Grok , новый генератор текста в видео , добавленный в августе 2024 года, заявив, что он распространял дезинформацию о выборах. [205] [206] [207]

Фейсбук

Facebook предпринял усилия по поощрению создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook был видным партнером в проведении Deepfake Detection Challenge (DFDC), который состоялся в декабре 2019 года для 2114 участников, которые сгенерировали более 35 000 моделей. [208] Наиболее эффективные модели с самой высокой точностью обнаружения были проанализированы на предмет сходств и различий; эти результаты представляют интерес для дальнейших исследований по улучшению и уточнению моделей обнаружения дипфейков. [208] Facebook также подробно рассказал, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [209] Однако медиа, которые были отредактированы для изменения порядка или контекста слов в сообщении, останутся на сайте, но будут помечены как ложные, поскольку они не были созданы искусственным интеллектом. [209]

Интернет-реакция

31 января 2018 года Gfycat начал удалять все deepfakes со своего сайта. [210] [211] На Reddit сабреддит r/deepfakes был забанен 7 февраля 2018 года из-за нарушения политики «непреднамеренной порнографии». [212] [213] [214] [215] [216] В том же месяце представители Twitter заявили, что приостановят действие аккаунтов, подозреваемых в публикации несогласованного deepfake-контента. [217] Чат-сайт Discord в прошлом принимал меры против deepfakes, [218] и занял общую позицию против deepfakes. [211] [219] В сентябре 2018 года Google добавил «непреднамеренные синтетические порнографические изображения» в свой список запретов, что позволяет любому человеку запросить блокировку результатов, демонстрирующих его поддельные обнажённые тела. [220] [ проверить синтаксис цитаты ] В феврале 2018 года Pornhub заявил, что запретит deepfake-видео на своем сайте, поскольку они считаются «контентом, полученным без согласия», что нарушает их условия обслуживания. [221] Ранее они также заявляли Mashable, что будут удалять контент, помеченный как deepfake. [222] Писатели из Motherboard сообщили, что поиск «deepfakes» на Pornhub по-прежнему выдавал несколько недавних deepfake-видео. [221]

Ранее Facebook заявлял, что не будет удалять deepfake со своих платформ. [223] Вместо этого видео будут помечены как поддельные третьими лицами, а затем будут иметь меньший приоритет в лентах пользователей. [224] Этот ответ был вызван в июне 2019 года после того, как deepfake с видео Марка Цукерберга 2016 года распространился в Facebook и Instagram . [223]

В мае 2022 года Google официально изменила условия обслуживания своих совместных проектов Jupyter Notebook , запретив использование своего сервиса совместных проектов в целях создания дипфейков. [225] Это произошло через несколько дней после публикации статьи VICE, в которой утверждалось, что «большинство дипфейков — это несогласованное порно» и что основное применение популярного программного обеспечения для дипфейков DeepFaceLab (DFL), «самой важной технологии, лежащей в основе подавляющего большинства этого поколения дипфейков», которая часто использовалась в сочетании с Google colabs, — это создание несогласованной порнографии, указывая на тот факт, что среди многих других известных примеров сторонних реализаций DFL, таких как дипфейки, заказанные The Walt Disney Company , официальные музыкальные клипы и веб-сериал Sassy Justice создателей South Park , страница DFL на GitHub также ссылается на сайт с дипфейковым порно Mr. ‍ Deepfakes , а участники сервера DFL Discord также участвуют в Mr. ‍ Deepfakes . [226]

Правовой ответ

В Соединенных Штатах были предприняты некоторые меры по решению проблем, связанных с дипфейками. В 2018 году в Сенат США был внесен Закон о запрете вредоносных дипфейков [227] , а в 2019 году Закон об ответственности за дипфейки был внесен в 116-й Конгресс США представителем США в 9-м избирательном округе Нью-Йорка Иветт Кларк [228] . Несколько штатов также приняли законодательство, касающееся дипфейков, в том числе Вирджиния [229] , Техас, Калифорния и Нью-Йорк [230] . Были выдвинуты такие разнообразные обвинения, как кража личных данных , киберпреследование и порно из мести , в то время как настоятельно рекомендуется принять более всеобъемлющие законы [220] .

Среди законодательных усилий США 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал законопроекты Ассамблеи № 602 и № 730. [231] [232] Законопроект Ассамблеи № 602 предоставляет лицам, пострадавшим от сексуально откровенного фейкового контента, созданного без их согласия, основание для иска против создателя контента. [231] Законопроект Ассамблеи № 730 запрещает распространение вредоносных фейковых аудио- или визуальных медиаматериалов, нацеленных на кандидата, баллотирующегося на государственную должность, в течение 60 дней с момента его избрания. [232] Представитель США Иветт Кларк представила законопроект HR 5586: Закон об ответственности за дипфейки в 118-й Конгресс США 20 сентября 2023 года в целях защиты национальной безопасности от угроз, создаваемых технологией дипфейков. [233] Представитель США Мария Салазар 10 января 2024 года представила законопроект HR 6943: «Закон о запрете мошенничества с использованием искусственного интеллекта» в 118-й Конгресс США , чтобы установить особые права собственности на физическую сущность человека, включая голос. [234]

В ноябре 2019 года Китай объявил, что дипфейки и другие синтетически поддельные кадры должны иметь четкое уведомление об их фальшивости, начиная с 2020 года. Несоблюдение этого требования может считаться преступлением, заявило на своем веб-сайте Управление киберпространства Китая . [235] Похоже, что правительство Китая оставляет за собой право преследовать как пользователей, так и онлайн-видеоплатформы, не соблюдающие правила. [236] Управление киберпространства Китая, Министерство промышленности и информационных технологий и Министерство общественной безопасности совместно опубликовали Положение об администрировании службы интернет-информации глубокого синтеза в ноябре 2022 года. [237] Обновленные Положения Китая о глубоком синтезе (Административные положения о глубоком синтезе в интернет-информационных службах) вступили в силу в январе 2023 года. [238]

В Соединенном Королевстве производители дипфейковых материалов могут быть привлечены к ответственности за домогательства, но производство дипфейков не было отдельным преступлением [239] до 2023 года, когда был принят Закон о безопасности в Интернете , который сделал дипфейки незаконными; Великобритания планирует расширить сферу действия Закона, чтобы криминализировать дипфейки, созданные с «намерением причинить беспокойство», в 2024 году. [240] [241]

В Канаде в 2019 году Управление по безопасности коммуникаций опубликовало отчет, в котором говорилось, что дипфейки могут использоваться для вмешательства в канадскую политику, в частности, для дискредитации политиков и влияния на избирателей. [242] [243] В результате у граждан Канады есть несколько способов бороться с дипфейками, если они стали их целью. [244] В феврале 2024 года законопроект C-63 был внесен в 44-й канадский парламент с целью принятия Закона о вреде в Интернете , который внесет поправки в Уголовный кодекс и другие законы. Более ранняя версия законопроекта, C-36, была прекращена роспуском 43-го канадского парламента в сентябре 2021 года. [245] [246]

В Индии нет прямых законов или нормативных актов, касающихся ИИ или дипфейков, но есть положения в Уголовном кодексе Индии и Законе об информационных технологиях 2000/2008, которые можно использовать в качестве средств правовой защиты, а новый предлагаемый Закон о цифровой Индии будет содержать главу, посвященную ИИ и дипфейкам, в частности, согласно заявлению министра юстиции Раджива Чандрасекара. [247]

В Европе Закон Европейского союза об искусственном интеллекте 2024 года (Закон об ИИ) использует подход, основанный на оценке риска, для регулирования систем ИИ, включая дипфейки. Он устанавливает категории «неприемлемый риск», «высокий риск», «определенный/ограниченный или прозрачный риск» и «минимальный риск» для определения уровня нормативных обязательств для поставщиков и пользователей ИИ. Однако отсутствие четких определений для этих категорий риска в контексте дипфейков создает потенциальные проблемы для эффективной реализации. Ученые-юристы выразили обеспокоенность по поводу классификации дипфейков, предназначенных для политической дезинформации или создания несогласованных интимных изображений. Ведутся дебаты о том, следует ли всегда считать такие виды использования системами ИИ «высокого риска», что приведет к более строгим нормативным требованиям. [248]

В августе 2024 года Ирландская комиссия по защите данных (DPC) начала судебное разбирательство против X за незаконное использование персональных данных более 60 миллионов пользователей из ЕС/ЕЭЗ с целью обучения своих технологий искусственного интеллекта, таких как чат-бот Grok . [249]

Ответ от DARPA

В 2016 году Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) запустило программу Media Forensics (MediFor), которая финансировалась до 2020 года. [250] MediFor была нацелена на автоматическое обнаружение цифровых манипуляций на изображениях и видео, включая Deepfakes . [251] [252] Летом 2018 года MediFor провела мероприятие, на котором люди соревновались в создании видео, аудио и изображений, сгенерированных ИИ, а также автоматизированных инструментов для обнаружения этих deepfakes. [253] Согласно программе MediFor, она создала структуру из трех уровней информации — цифровая целостность, физическая целостность и семантическая целостность — для генерации одной оценки целостности в целях обеспечения точного обнаружения манипулированных медиа. [254]

В 2019 году DARPA провела «день авторов» для программы семантической криминалистики (SemaFor), в рамках которой исследователи были вынуждены предотвратить вирусное распространение медиа, обработанных ИИ. [255] DARPA и программа семантической криминалистики также работали вместе над обнаружением медиа, обработанных ИИ, посредством усилий по обучению компьютеров использовать здравый смысл и логические рассуждения. [255] Созданные на основе технологий MediFor, алгоритмы атрибуции SemaFor делают вывод о том, исходят ли цифровые медиа от конкретной организации или отдельного лица, в то время как алгоритмы характеризации определяют, были ли медиа созданы или обработаны в злонамеренных целях. [256] В марте 2024 года SemaFor опубликовал аналитический каталог, который предлагает публичный доступ к ресурсам с открытым исходным кодом, разработанным в рамках SemaFor. [257] [258]

Международная группа экспертов по информационной среде

Международная группа по информационной среде была создана в 2023 году как консорциум из более чем 250 ученых, работающих над разработкой эффективных мер противодействия дипфейкам и другим проблемам, создаваемым порочными стимулами в организациях, распространяющих информацию через Интернет. [259]

В популярной культуре

Смотрите также

Ссылки

  1. ^ Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: жуткие „deepfake“ видео на подъеме». Fox News . Архивировано из оригинала 15 июня 2018 г. Получено 20 февраля 2018 г.
  2. ^ Калпокас, Игнас; Калпокене, Юлия (2022). Дипфейки. Спрингер Чам. стр. 1–2. дои : 10.1007/978-3-030-93802-4. ISBN 978-3-030-93801-7.
  3. ^ Цзюэфей-Сюй, Феликс; Ван, Рунь; Хуан, Ихао; Го, Цин; Ма, Лэй; Лю, Ян (1 июля 2022 г.). «Противодействие вредоносным DeepFakes: Survey, Battleground, and Horizon». International Journal of Computer Vision . 130 (7): 1678–1734. doi :10.1007/s11263-022-01606-8. ISSN  1573-1405. PMC 9066404. PMID 35528632.  Архивировано из оригинала 10 июня 2024 г. Получено 15 июля 2023 г. 
  4. ^ ab Kietzmann, J.; Lee, LW; McCarthy, IP; Kietzmann, TC (2020). "Deepfakes: Trick or treat?" (PDF) . Business Horizons . 63 (2): 135–146. doi :10.1016/j.bushor.2019.11.006. S2CID  213818098. Архивировано (PDF) из оригинала 29 декабря 2022 г. . Получено 30 декабря 2022 г. .
  5. ^ Уолдроп, М. Митчелл (16 марта 2020 г.). «Синтетические медиа: настоящая проблема с дипфейками». Knowable Magazine . Annual Reviews. doi : 10.1146/knowable-031320-1 . Архивировано из оригинала 19 ноября 2022 г. Получено 19 декабря 2022 г.
  6. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, фейковые новости — это плохо? Глубокие фейки — это место, где правда умирает». The Guardian . Архивировано из оригинала 16 июня 2019 г. Получено 14 ноября 2018 г.
  7. ^ Фарид, Хани (15 сентября 2019 г.). «Image Forensics». Annual Review of Vision Science . 5 (1): 549–573. doi :10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880. Архивировано из оригинала 10 июня 2024 г. Получено 20 сентября 2023 г.
  8. ^ Бэнкс, Алек (20 февраля 2018 г.). «Что такое Deepfakes и почему будущее порно ужасает». Highsnobiety . Архивировано из оригинала 14 июля 2021 г. . Получено 20 февраля 2018 г. .
  9. ^ Кристиан, Джон. «Эксперты опасаются, что технология подмены лиц может стать причиной международного противостояния». The Outline . Архивировано из оригинала 16 января 2020 г. Получено 28 февраля 2018 г.
  10. ^ Руз, Кевин (4 марта 2018 г.). «Here Come the Fake Videos, Too» . The New York Times . ISSN  0362-4331. Архивировано из оригинала 18 июня 2019 г. . Получено 24 марта 2018 г. .
  11. ^ Шрайер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.). «Состязательное обучение дипфейкам в бухгалтерском учете». arXiv : 1910.03810 [cs.LG].
  12. ^ Caramancion, Kevin Matthe (21 апреля 2021 г.). «Демографический профиль, наиболее подверженный риску дезинформации». Международная конференция IEEE по Интернету вещей, электронике и мехатронике 2021 г. (IEMTRONICS) . IEEE. стр. 1–7. doi :10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888. Архивировано из оригинала 10 июня 2024 г. . Получено 9 июня 2023 г. .
  13. ^ Лалла, Веджай; Митрани, Адин; Харнед, Зак. «Искусственный интеллект: Deepfakes в индустрии развлечений». Всемирная организация интеллектуальной собственности . Архивировано из оригинала 8 ноября 2022 г. Получено 8 ноября 2022 г.
  14. ^ abc Harwell, Drew (12 июня 2019 г.). «Ведущие исследователи ИИ соревнуются в обнаружении видео с „глубокой подделкой“: „Мы в меньшинстве“» . The Washington Post . Архивировано из оригинала 31 октября 2019 г. Получено 8 ноября 2019 г.
  15. ^ Санчес, Джулиан (8 февраля 2018 г.). «Благодаря ИИ будущее «фейковых новостей» становится пионером в домашнем порно». NBC News . Архивировано из оригинала 9 ноября 2019 г. Получено 8 ноября 2019 г.
  16. ^ abcd Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное приложение deepfake становится вирусным, вызывая немедленную реакцию на нарушение конфиденциальности». The Verge . Архивировано из оригинала 3 сентября 2019 г. Получено 8 ноября 2019 г.
  17. ^ Боде, Лиза; Лис, Доминик; Голдинг, Дэн (29 июля 2021 г.). «Цифровое лицо и дипфейки на экране». Convergence: Международный журнал исследований новых медиатехнологий . 27 (4): 849–854. doi : 10.1177/13548565211034044 . ISSN  1354-8565. S2CID  237402465.
  18. ^ ab Холлидей, Кристофер (26 июля 2021 г.). «Переписывание звезд: поверхностные напряжения и гендерные проблемы в производстве цифровых дипфейков в онлайн-медиа». Конвергенция: Международный журнал исследований новых медиатехнологий . 27 (4): 899–918. doi : 10.1177/13548565211029412 . ISSN  1354-8565. S2CID  237402548.
  19. ^ Гингрич, Оливер М. (5 июля 2021 г.). «GENDER*UCK: Переосмысление гендера и медиаискусства». Труды EVA London 2021 (EVA 2021) . Электронные семинары по информатике. doi : 10.14236/ewic/EVA2021.25 . S2CID  236918199.
  20. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и некая антиутопия: новые лица онлайн-постфактного представления». Theatre Journal . 70 (4): 455–471. doi : 10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  21. ^ Оман, Карл (1 июня 2020 г.). «Введение в дилемму извращенца: вклад в критику Deepfake Pornography». Этика и информационные технологии . 22 (2): 133–140. doi : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  22. ^ van der Nagel, Emily (1 октября 2020 г.). «Проверка изображений: deepfakes, control, and agree». Porn Studies . 7 (4): 424–429. doi : 10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792. Архивировано из оригинала 10 июня 2024 г. Получено 9 февраля 2022 г.
  23. ^ Фэллис, Дон (1 декабря 2021 г.). «Эпистемическая угроза дипфейков». Философия и технологии . 34 (4): 623–643. doi :10.1007/s13347-020-00419-2. ISSN  2210-5433. PMC 7406872. PMID 32837868  . 
  24. ^ Чесни, Роберт; Ситрон, Даниэль Китс (2018). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». SSRN Electronic Journal . doi : 10.2139/ssrn.3213954. ISSN  1556-5068. Архивировано из оригинала 21 декабря 2019 года . Получено 9 февраля 2022 года .
  25. ^ Ядлин-Сегал, Ая; Оппенгейм, Яэль (февраль 2021 г.). «Чья это дистопия? Дипфейки и регулирование социальных сетей». Convergence: The International Journal of Research into New Media Technologies . 27 (1): 36–51. doi : 10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536. Архивировано из оригинала 9 февраля 2022 г. . Получено 9 февраля 2022 г. .
  26. ^ Hwang, Yoori; Ryu, Ji Youn; Jeong, Se-Hoon (1 марта 2021 г.). «Эффекты дезинформации с использованием Deepfake: защитный эффект образования в области медиаграмотности». Cyberpsychology, Behavior, and Social Networking . 24 (3): 188–193. doi : 10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561. Архивировано из оригинала 10 июня 2024 г. Получено 9 февраля 2022 г.
  27. ^ Хайт, Крейг (12 ноября 2021 г.). «Глубокие фейки и документальная практика в эпоху дезинформации». Continuum . 36 (3): 393–410. doi : 10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288. Архивировано из оригинала 9 февраля 2022 г. Получено 9 февраля 2022 г.
  28. ^ Hancock, Jeffrey T.; Bailenson, Jeremy N. (1 марта 2021 г.). «Социальное воздействие дипфейков». Cyberpsychology, Behavior, and Social Networking . 24 (3): 149–152. doi :10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146. Архивировано из оригинала 10 июня 2024 г. Получено 9 февраля 2022 г.
  29. ^ de Seta, Gabriele (30 июля 2021 г.). «Huanlian, или меняющиеся лица: Deepfakes на китайских цифровых медиаплатформах». Convergence: The International Journal of Research into New Media Technologies . 27 (4): 935–953. doi : 10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447. Архивировано из оригинала 10 июня 2024 г. Получено 9 февраля 2022 г.
  30. ^ ab Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual speech with Audio". Труды 24-й ежегодной конференции по компьютерной графике и интерактивным технологиям – SIGGRAPH '97 . Том 24. С. 353–360. doi :10.1145/258734.258880. ISBN 0897918967. S2CID  2341707. Архивировано из оригинала 10 июня 2024 г. . Получено 10 июля 2023 г. .
  31. ^ abc Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (июль 2017 г.). «Synthesizing Obama: Learning Lip Sync from Audio». ACM Trans. Graph . 36 (4): 95:1–95:13. doi : 10.1145/3072959.3073640. S2CID  207586187. Архивировано из оригинала 19 мая 2020 г. Получено 10 июля 2023 г.
  32. ^ abc Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (июнь 2016 г.). «Face2Face: захват лиц в реальном времени и реконструкция видео RGB». Конференция IEEE 2016 г. по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 2387–2395. arXiv : 2007.14808 . doi : 10.1109/CVPR.2016.262. ISBN 9781467388511. S2CID  206593693.
  33. ^ "Deepfakes for dancing: теперь вы можете использовать ИИ, чтобы подделывать танцевальные движения, которые вы всегда хотели". The Verge . Архивировано из оригинала 17 мая 2019 года . Получено 27 августа 2018 года .
  34. ^ Фаркухар, Питер (27 августа 2018 г.). «Скоро появится программа искусственного интеллекта, которая поможет вам танцевать deepface — только не называйте это deepfake». Business Insider Australia . Архивировано из оригинала 10 апреля 2019 г. Получено 27 августа 2018 г.
  35. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Эловичи, Юваль (2019). CT-GAN: Злонамеренное изменение 3D-медицинских изображений с использованием глубокого обучения. стр. 461–478. arXiv : 1901.03597 . ISBN 978-1-939133-06-9. Архивировано из оригинала 20 июня 2020 . Получено 18 июня 2020 .
  36. ^ О'Нил, Патрик Хауэлл (3 апреля 2019 г.). «Исследователи демонстрируют вредоносное ПО, которое может обмануть врачей и заставить их неправильно диагностировать рак». Gizmodo . Архивировано из оригинала 10 июня 2024 г. Получено 3 июня 2022 г.
  37. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: исследование». ACM Computing Surveys . arXiv : 2004.11138 . doi : 10.1145/3425780. S2CID  216080410.
  38. ^ Карнускос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эпоха дипфейков» (PDF) . IEEE Transactions on Technology and Society . 1 (3): 1. doi :10.1109/TTS.2020.3001312. S2CID  221716206. Архивировано (PDF) из оригинала 14 июля 2021 г. . Получено 9 июля 2020 г. .
  39. ^ ab Cole, Samantha (24 января 2018 г.). «We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now». Vice . Архивировано из оригинала 7 сентября 2019 г. Получено 4 мая 2019 г.
  40. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию замены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и «Что такое 2018». Mashable . Архивировано из оригинала 24 июля 2019 г. Получено 4 апреля 2019 г.
  41. ^ "r/SFWdeepfakes". Reddit . Архивировано из оригинала 9 августа 2019 года . Получено 12 декабря 2018 года .
  42. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот куда «deepfakes», новое фейковое порно со знаменитостями, отправилось после бана на Reddit». The Daily Dot . Архивировано из оригинала 6 июля 2019 г. Получено 22 декабря 2018 г.
  43. ^ «Что такое Deepfake и как они создаются?». Online Tech Tips . 23 мая 2019 г. Архивировано из оригинала 8 ноября 2019 г. Получено 8 ноября 2019 г.
  44. ^ Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять местами лица Илона Маска и Джеффа Безоса, и у меня это очень плохо получается». The Verge . Архивировано из оригинала 24 марта 2018 г. . Получено 8 ноября 2019 г. .
  45. ^ "Deepfakes web | Лучшее приложение для онлайн-замены лиц". Deepfakes web . Архивировано из оригинала 14 июля 2021 г. Получено 21 февраля 2021 г.
  46. ^ «Faceswap — ведущее бесплатное и многоплатформенное программное обеспечение Deepfakes с открытым исходным кодом». 15 октября 2019 г. Архивировано из оригинала 31 мая 2021 г. Получено 14 июля 2021 г. — через WordPress.
  47. ^ "DeepFaceLab — это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. readme.md).: iperov/DeepFaceLab". 19 июня 2019 г. Архивировано из оригинала 9 мая 2019 г. Получено 6 марта 2019 г. — через GitHub.
  48. ^ Чандлер, Саймон. «Почему Deepfakes Are A Net Positive For Humanity». Forbes . Архивировано из оригинала 16 ноября 2020 г. Получено 3 ноября 2020 г.
  49. ^ Pangburn, DJ (21 сентября 2019 г.). «Вас предупредили: полноразмерные deepfakes — это следующий шаг в имитации человека на основе искусственного интеллекта». Fast Company . Архивировано из оригинала 8 ноября 2019 г. Получено 8 ноября 2019 г.
  50. ^ Лайонс, Ким (29 января 2020 г.). «FTC утверждает, что технология аудиодипфейков становится лучше». The Verge . Архивировано из оригинала 30 января 2020 г. . Получено 8 февраля 2020 г. .
  51. ^ "Аудиопримеры из "Перенос обучения с проверки говорящего на многоговорящий синтез текста в речь"". google.github.io . Архивировано из оригинала 14 ноября 2019 г. . Получено 8 февраля 2020 г. .
  52. ^ Цзя, Йе; Чжан, Юй; Вайс, Рон Дж.; Ван, Куан; Шен, Джонатан; Рен, Фей; Чэнь, Жифэн; Нгуен, Патрик; Пан, Руомин; Морено, Игнасио Лопес; У, Юнхуэй (2 января 2019 г.). «Перенос обучения с проверки говорящего на многоговорящий синтез текста в речь». arXiv : 1806.04558 [cs.CL].
  53. ^ "TUM Visual Computing: Prof. Matthias Nießner". www.niessnerlab.org . Архивировано из оригинала 21 февраля 2020 г. . Получено 8 февраля 2020 г. .
  54. ^ "Полная перезагрузка страницы". IEEE Spectrum: новости технологий, инженерии и науки . 11 декабря 2019 г. Архивировано из оригинала 26 июня 2020 г. Получено 8 февраля 2020 г.
  55. ^ «Внесение данных в исследование обнаружения дипфейков». 24 сентября 2019 г. Архивировано из оригинала 5 февраля 2020 г. Получено 8 февраля 2020 г.
  56. ^ Тален, Микаэль. «Теперь вы можете превратить себя в знаменитость всего за несколько щелчков». daily dot . Архивировано из оригинала 6 апреля 2020 г. Получено 3 апреля 2020 г.
  57. ^ Мэтьюз, Зейн (6 марта 2020 г.). «Веселье или страх: приложение Deepfake добавляет лица знаменитостей в ваши селфи». Kool1079 . Архивировано из оригинала 24 марта 2020 г. . Получено 6 марта 2020 г. .
  58. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли нам делать голограммы мертвых?». BBC News . 31 октября 2020 г. Архивировано из оригинала 15 ноября 2020 г. Получено 11 ноября 2020 г.
  59. ^ «Канье Уэст подарил Ким Кардашьян голограмму ее отца на день рождения». themodems . 30 октября 2020 г. Архивировано из оригинала 11 ноября 2020 г. Получено 11 ноября 2020 г.
  60. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающей мольбе к избирателям». adage.com . 2 октября 2020 г. Архивировано из оригинала 11 ноября 2020 г. Получено 11 ноября 2020 г.
  61. ^ Боуэнбанк, Старр (14 сентября 2022 г.). «Саймон Коуэлл дуэтом с Элвисом в последнем выступлении Metaphysic Deepfake 'AGT': Смотреть». Billboard . Архивировано из оригинала 15 сентября 2022 г. . Получено 8 ноября 2022 г. .
  62. ^ "John Lennon 'One Laptop per Child' Commecial". YouTube . 26 декабря 2008 г. Архивировано из оригинала 9 марта 2023 г. Получено 9 марта 2023 г.
  63. ^ Zucconi, Alan (14 марта 2018 г.). «Понимание технологии, лежащей в основе DeepFakes». Алан Zucconi . Архивировано из оригинала 1 ноября 2019 г. Получено 8 ноября 2019 г.
  64. ^ "Что такое Deepfake?". Блог - Synthesys . 3 мая 2022 г. Архивировано из оригинала 26 июня 2022 г. Получено 17 мая 2022 г.
  65. ^ ab "Эти новые трюки могут перехитрить Deepfake Videos—for Now". Wired . ISSN  1059-1028. Архивировано из оригинала 3 октября 2019 г. Получено 9 ноября 2019 г.
  66. ^ Кемп, Люк (8 июля 2019 г.). «В эпоху дипфейков могут ли виртуальные актеры вытеснить людей из бизнеса?». The Guardian . ISSN  0261-3077. Архивировано из оригинала 20 октября 2019 г. Получено 20 октября 2019 г.
  67. ^ Верма, Праншу (21 июля 2023 г.). «Цифровые клоны, созданные с помощью технологий искусственного интеллекта, могут сделать голливудских статистов устаревшими». Washington Post . Архивировано из оригинала 20 июля 2023 г. Получено 4 января 2024 г.
  68. ^ ab "High-Resolution Neural Face Swapping for Visual Effects | Disney Research Studios". Архивировано из оригинала 27 ноября 2020 г. Получено 7 октября 2020 г.
  69. ^ ab "Технология deepfake от Disney может быть использована в кино и на телевидении". Blooloop . 21 июля 2020 г. Архивировано из оригинала 12 ноября 2020 г. Получено 7 октября 2020 г.
  70. ^ Линдли, Джон А. (2 июля 2020 г.). «Disney Ventures Into Bringing Back 'Dead Actors' Through Facial Recognition». Tech Times . Архивировано из оригинала 14 июля 2021 г. Получено 7 октября 2020 г.
  71. ^ Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд — звезда «Хан Соло: Звёздные войны. Истории» благодаря технологии deepfake». Polygon . Архивировано из оригинала 20 октября 2019 г. Получено 20 октября 2019 г.
  72. ^ Виник, Эрин. «Как игра в роли марионетки Кэрри Фишер сделала карьеру принцессе Лее из «Изгоя-один»». MIT Technology Review . Архивировано из оригинала 23 октября 2019 г. Получено 20 октября 2019 г.
  73. ^ «Deepfake Luke Skywalker — это еще один шаг по отвратительному пути CGI». British GQ . 10 февраля 2022 г. Архивировано из оригинала 22 мая 2022 г. Получено 3 июня 2022 г.
  74. ^ Dazed (10 февраля 2022 г.). «Перепишут ли deepfakes историю, какой мы ее знаем?». Dazed . Архивировано из оригинала 8 июня 2022 г. . Получено 3 июня 2022 г. .
  75. ^ Шварцель, Эрих (21 декабря 2023 г.). «Behind the Making of My AI Digital Double». Wall Street Journal . Архивировано из оригинала 6 января 2024 г. Получено 4 января 2024 г.
  76. ^ Коффи, Патрик (18 июня 2023 г.). «Знаменитости используют ИИ, чтобы взять под контроль свои собственные изображения». Wall Street Journal . Архивировано из оригинала 10 июня 2024 г. Получено 4 января 2024 г.
  77. ^ Катерина Чижек, Уильям Уриччио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1] Архивировано 4 марта 2020 г. на Wayback Machine
  78. ^ "ANSA | Ornella Muti in cortometraggio a Firenze". 3 ноября 2017 г. Архивировано из оригинала 27 февраля 2020 г. Получено 27 февраля 2020 г.
  79. ^ "Создатели 'South Park' запускают новый сериал сатиры 'Sassy Justice'". NME . 27 октября 2020 г. Архивировано из оригинала 10 июня 2024 г. Получено 7 июня 2022 г.
  80. ^ ab Tayler, Kelley M.; Harris, Laurie A. (8 июня 2021 г.). Deep Fakes and National Security (Report). Congressional Research Service . стр. 1. Архивировано из оригинала 14 июня 2022 г. Получено 19 июля 2021 г.
  81. ^ Лимберг, Питер (24 мая 2020 г.). «Инфляция шантажа». CultState . Архивировано из оригинала 24 января 2021 г. . Получено 18 января 2021 г. .
  82. ^ "For Kappy". Telegraph . 24 мая 2020 г. Архивировано из оригинала 24 января 2021 г. Получено 18 января 2021 г.
  83. ^ «Реакция судей AGT на прослушивание Саймона Коуэлла была бесценной». Официальный сайт NBC Insider . 8 июня 2022 г. Архивировано из оригинала 29 августа 2022 г. Получено 29 августа 2022 г.
  84. ^ Марр, Бернард. «Может ли метавселенная ИИ победить в America's Got Talent? (И что это значит для отрасли)». Forbes . Архивировано из оригинала 30 августа 2022 г. Получено 30 августа 2022 г.
  85. ^ Моралес, Джови (10 июня 2022 г.). «Deepfakes Go Mainstream: How Metaphysic's AGT Entry Will Impact Entertainment». MUO . Архивировано из оригинала 10 июня 2024 г. Получено 29 августа 2022 г.
  86. Картер, Ребекка (1 июня 2019 г.). «Зрители BGT критикуют Саймона Коуэлла за «грубое» и «отвратительное» замечание в адрес участника». Entertainment Daily . Архивировано из оригинала 31 августа 2022 г. Получено 31 августа 2022 г.
  87. ^ Саймон Коуэлл поет на сцене?! Метафизика оставит вас безмолвными | AGT 2022, архивировано из оригинала 29 августа 2022 г. , извлечено 29 августа 2022 г.
  88. ^ Сегарра, Эдвард. «Судьи 'AGT' Саймон Коуэлл, Хоуи Мэндел получают 'глубокую подделку' от ИИ акт Metaphysic: Смотреть здесь». USA TODAY . Архивировано из оригинала 31 августа 2022 года . Получено 31 августа 2022 года .
  89. ^ Боуэнбанк, Старр (14 сентября 2022 г.). «Саймон Коуэлл дуэтом с Элвисом в последнем выступлении Metaphysic Deepfake 'AGT': Смотреть». Billboard . Архивировано из оригинала 10 июня 2024 г. . Получено 15 сентября 2022 г. .
  90. ^ Zwiezen, Zack (18 января 2021 г.). «Сайт позволяет GLaDOS говорить все, что вы хотите». Kotaku . Архивировано из оригинала 17 января 2021 г. . Получено 18 января 2021 г. .
  91. ^ Рупперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS и других любимых персонажей Portal говорить самые странные вещи с помощью этого приложения». Game Informer . Архивировано из оригинала 18 января 2021 г. Получено 18 января 2021 г.
  92. ^ Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 пересказывать старые мемы с помощью этого инструмента преобразования текста в речь на основе искусственного интеллекта». PC Gamer . Архивировано из оригинала 19 января 2021 г. Получено 19 января 2021 г.
  93. ^ Шерман, Мария (3 декабря 2023 г.). «Kiss прощаются с живыми гастролями, становятся первой американской группой, которая перешла на виртуальный формат и стала цифровыми аватарами». AP News . Associated Press. Архивировано из оригинала 1 января 2024 г. Получено 4 января 2024 г.
  94. ^ abc Cerullo, Megan (9 января 2024 г.). «Реклама, созданная искусственным интеллектом с использованием образа Тейлор Свифт, обманывает фанатов с поддельной раздачей Le Creuset». CBS News . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  95. ^ abcde Сюй, Тиффани; Лу, Ивэнь (9 января 2024 г.). «Нет, это не Тейлор Свифт, торгующая посудой Le Creuset». The New York Times . стр. B1 . Получено 10 января 2024 г.
  96. ^ abc Taylor, Derrick Bryson (2 октября 2023 г.). «Том Хэнкс предупреждает о рекламе стоматологии с использованием его версии на основе искусственного интеллекта». The New York Times . ISSN  0362-4331. Архивировано из оригинала 10 июня 2024 г. Получено 12 октября 2023 г.
  97. ^ abc Джонсон, Кирстен (11 декабря 2023 г.). «Женщина из Аризоны становится жертвой мошенничества с использованием фейков знаменитостей в социальных сетях». ABC 15 Arizona . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  98. ^ ab Kulundu, Mary (4 января 2024 г.). «Поддельные видео Илона Маска, используемые в мошенничестве с целью быстрого обогащения». Agence France-Presse . Архивировано из оригинала 10 июня 2024 г. Получено 10 января 2024 г.
  99. ^ Эсмаэль, Лисбет (3 января 2024 г.). «PH нуждается в многогранном подходе против видео «дипфейк», используемых для обмана филиппинцев». CNN Philippines . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  100. ^ Геркен, Том (4 октября 2023 г.). «MrBeast и звезды BBC, используемые в мошеннических видео с дипфейками». BBC News . Архивировано из оригинала 10 июня 2024 г. Получено 10 января 2024 г.
  101. ^ ab Lim, Kimberly (29 декабря 2023 г.). «Премьер-министр Сингапура Ли предупреждает об «очень убедительных» дипфейках, «распространяющих дезинформацию» после появления фейкового видео с ним» . South China Morning Post . Архивировано из оригинала 9 января 2024 г. Получено 10 января 2024 г.
  102. ^ Тейлор, Джош (30 ноября 2023 г.). «Мошенник заплатил Facebook 7 центов за просмотр, чтобы распространить видео с дипфейком Джимом Чалмерсом и Джиной Райнхарт». The Guardian . Архивировано из оригинала 10 июня 2024 г. Получено 10 января 2024 г.
  103. ^ Палмер, Джозеф Ольбрихт (14 декабря 2023 г.). «Глубокая подделка австралийского казначейства, должностные лица центрального банка использовались для продвижения инвестиционного мошенничества». Agence France-Presse . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  104. ^ abc Koebler, Jason (9 января 2024 г.). «Поддельная реклама знаменитостей, продвигающая мошенничество с Medicare, процветает на YouTube». 404 Media . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  105. ^ abc Rosenblatt, Kalhan (3 октября 2023 г.). «MrBeast называет рекламу TikTok, показывающую его версию с искусственным интеллектом, „мошенничеством“». NBC News . Архивировано из оригинала 10 января 2024 г. . Получено 10 января 2024 г. .
  106. ^ Кёблер, Джейсон (25 января 2024 г.). «YouTube удаляет 1000 видеороликов с мошеннической рекламой знаменитостей с использованием искусственного интеллекта». 404 Media . Архивировано из оригинала 10 июня 2024 г. Получено 2 февраля 2024 г.
  107. ^ Буччи, Нино (27 ноября 2023 г.). «Дик Смит критикует Facebook после того, как мошенники распространили фейковую видеорекламу». The Guardian . Архивировано из оригинала 10 июня 2024 г. Получено 10 января 2024 г.
  108. ^ Ломас, Наташа (7 июля 2023 г.). «Мартин Льюис предупреждает о «первой» мошеннической рекламе с дипфейком в Facebook». TechCrunch . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  109. ^ Лопатто, Элизабет (3 января 2024 г.). «Забавное новое последствие deepfake: более убедительные криптомошенничества». The Verge . Архивировано из оригинала 10 января 2024 г. Получено 10 января 2024 г.
  110. ^ Spoto, Maia; Poritz, Isaiah (11 октября 2023 г.). «MrBeast, Tom Hanks уязвлен мошенничеством с искусственным интеллектом, поскольку закон спешит идти в ногу». Bloomberg Law . Архивировано из оригинала 10 января 2024 г. . Получено 10 января 2024 г. .
  111. ^ Статт, Ник (5 сентября 2019 г.). «Воры теперь используют ИИ-глубокие фейки, чтобы обманом заставить компании отправлять им деньги». Архивировано из оригинала 15 сентября 2019 г. Получено 13 сентября 2019 г.
  112. ^ Дамиани, Джесси. «Голосовой Deepfake был использован для обмана генерального директора на $243,000». Forbes . Архивировано из оригинала 14 сентября 2019 года . Получено 9 ноября 2019 года .
  113. ^ "Deepfakes, explained". MIT Sloan . 5 марта 2024 г. Архивировано из оригинала 5 марта 2024 г. Получено 6 марта 2024 г.
  114. ^ Шварц, Кристофер; Райт, Мэтью (17 марта 2023 г.). «Голосовые дипфейки зовут — вот что это такое и как избежать мошенничества». The Conversation . Архивировано из оригинала 4 января 2024 г. . Получено 4 января 2024 г. .
  115. ^ abcd Somers, Meredith (21 июля 2020 г.). «Deepfakes, explained». MIT Sloan . Архивировано из оригинала 5 марта 2024 г. Получено 6 марта 2024 г.
  116. ^ C, Kim (22 августа 2020 г.). «Coffin Dance and More: The Music Memes of 2020 So Far». Music Times . Архивировано из оригинала 26 июня 2021 г. Получено 26 августа 2020 г.
  117. ^ Sholihyn, Ilyas (7 августа 2020 г.). «Кто-то подделал сингапурских политиков, чтобы они синхронизировали губы с этой японской мем-песней». AsiaOne . Архивировано из оригинала 3 сентября 2020 г. . Получено 26 августа 2020 г. .
  118. ^ abcd «Венн Меркель plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos» . az Aargauer Zeitung. 3 февраля 2018 года. Архивировано из оригинала 13 апреля 2019 года . Проверено 9 апреля 2018 г.
  119. ^ Генсинг, Патрик. «Deepfakes: Auf dem Weg в альтернативной реальности?». Архивировано из оригинала 11 октября 2018 года . Проверено 9 апреля 2018 г.
  120. ^ Романо, Аджа (18 апреля 2018 г.). «Имитация социальной рекламы Обамы Джордана Пила — это обоюдоострое предупреждение против фейковых новостей». Vox . Архивировано из оригинала 11 июня 2019 г. Получено 10 сентября 2018 г.
  121. ^ Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла передал в эфир отредактированную запись речи Трампа в Овальном кабинете. Сотрудник был уволен». The Washington Post . Архивировано из оригинала 15 апреля 2019 г. Получено 11 января 2019 г.
  122. ^ О'Салливан, Дони (4 июня 2019 г.). «Конгресс расследует дипфейки, поскольку поддельное видео Пелоси вызывает переполох». CNN . Архивировано из оригинала 29 июня 2019 г. Получено 9 ноября 2019 г.
  123. ^ "#TellTheTruthBelgium". Extinction Rebellion Belgium . Архивировано из оригинала 25 апреля 2020 года . Получено 21 апреля 2020 года .
  124. ^ Holubowicz, Gerald (15 апреля 2020 г.). "Extinction Rebellion s'empare des deepfakes". Journalism.design (на французском языке). Архивировано из оригинала 29 июля 2020 г. Получено 21 апреля 2020 г.
  125. ^ Карнахан, Дастин (16 сентября 2020 г.). «Фальшивые видео укрепляют ложные представления о психическом здоровье Байдена». The Conversation . Архивировано из оригинала 9 апреля 2022 г. Получено 9 апреля 2022 г.
  126. ^ Паркер, Эшли (7 сентября 2020 г.). «Трамп и его союзники наращивают усилия по распространению дезинформации и фейковых новостей» . The Independent . Получено 9 апреля 2022 г.
  127. ^ Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что увидели первое использование Deepfakes в индийской избирательной кампании». Vice . Архивировано из оригинала 19 февраля 2020 г. . Получено 19 февраля 2020 г. .
  128. ^ "Амабиэ: мифическое существо, возвращающее коронавирус". The Economist . 28 апреля 2020 г. ISSN  0013-0613. Архивировано из оригинала 20 мая 2021 г. Получено 3 июня 2021 г.
  129. ^ Рот, Эндрю (22 апреля 2021 г.). «Европейские депутаты подверглись нападкам с помощью видеозвонков с дипфейками, имитирующих российскую оппозицию». The Guardian . Архивировано из оригинала 29 марта 2022 г. Получено 29 марта 2022 г.
  130. Иванов, Максим; Ротрок, Кевин (22 апреля 2021 г.). «Привет, это Леонид Волков* Используя deepfake-видео и выдавая себя за правую руку Навального, российские пранкеры обманывают латвийских политиков и журналистов, заставляя их приглашать и давать интервью по ТВ». Meduza . Архивировано из оригинала 29 марта 2022 г. . Получено 29 марта 2022 г. .
  131. ^ «Голландские депутаты на видеоконференции с глубокой фейковой имитацией начальника штаба Навального». NL Times . 24 апреля 2021 г. Архивировано из оригинала 10 июня 2024 г. Получено 29 марта 2022 г.
  132. ^ ""Deepfake" Navalny Aide Targets European Lawmakers". The Moscow Times . 23 апреля 2021 г. Архивировано из оригинала 29 марта 2022 г. Получено 29 марта 2022 г.
  133. ^ Винсент, Джеймс (30 апреля 2021 г.). «“Дипфейк”, который якобы обманул европейских политиков, был просто двойником, говорят шутники». The Verge . Архивировано из оригинала 29 марта 2022 г. . Получено 29 марта 2022 г. .
  134. ^ Новак, Мэтт (8 мая 2023 г.). «Вирусное видео Камалы Харрис, говорящей тарабарщину, на самом деле является дипфейком». Forbes . Архивировано из оригинала 18 июля 2023 г. Получено 18 июля 2023 г.
  135. ^ "PolitiFact - Камала Харрис не говорила невнятно о сегодняшнем, вчерашнем или завтрашнем дне. Это видео изменено". Politifact . Архивировано из оригинала 10 июня 2024 года . Получено 18 июля 2023 года .
  136. ^ Шухам, Мэтт (8 июня 2023 г.). «Рекламная кампания ДеСантиса демонстрирует поддельные изображения ИИ о том, как Трамп обнимает Фаучи». HuffPost . Архивировано из оригинала 10 июня 2024 г. Получено 8 июня 2023 г.
  137. ^ ab Roettgers, Janko (21 февраля 2018 г.). «Продюсеры порно предлагают помочь Голливуду снять Deepfake-видео». Variety . Архивировано из оригинала 10 июня 2019 г. . Получено 28 февраля 2018 г. .
  138. ^ abc Dickson, EJ (7 октября 2019 г.). «Deepfake Porn Is Still a Threat, Particularly for K-Pop Stars». Rolling Stone . Архивировано из оригинала 30 октября 2019 г. Получено 9 ноября 2019 г.
  139. ^ "Состояние Deepfake - Ландшафт, Угрозы и Влияние" (PDF) . Deeptrace . 1 октября 2019 г. Архивировано (PDF) из оригинала 9 августа 2020 г. . Получено 7 июля 2020 г. .
  140. ^ Goggin, Benjamin (7 июня 2019 г.). «От порно до «Игры престолов»: как дипфейки и реалистично выглядящие фейковые видео достигли большого успеха». Business Insider . Архивировано из оригинала 8 ноября 2019 г. Получено 9 ноября 2019 г.
  141. ^ Ли, Дэйв (3 февраля 2018 г.). ««Поддельное порно» имеет серьезные последствия». Архивировано из оригинала 1 декабря 2019 г. Получено 9 ноября 2019 г.
  142. ^ Коул, Саманта (19 июня 2018 г.). «Решение Gfycat на основе искусственного интеллекта для борьбы с дипфейками не работает». Vice . Архивировано из оригинала 8 ноября 2019 г. . Получено 9 ноября 2019 г. .
  143. ^ Зои, Френи (24 ноября 2019 г.). «Deepfake Porn Is Here To Stay». Medium . Архивировано из оригинала 10 декабря 2019 г. . Получено 10 декабря 2019 г. .
  144. ^ Коул, Саманта; Майберг, Эмануэль; Кёблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком». Vice . Архивировано из оригинала 2 июля 2019 г. . Получено 2 июля 2019 г. .
  145. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Vice Media . Архивировано из оригинала 24 сентября 2020 г. Получено 14 июля 2019 г.
  146. ^ "pic.twitter.com/8uJKBQTZ0o". 27 июня 2019 г. Архивировано из оригинала 6 апреля 2021 г. Получено 3 августа 2019 г.
  147. ^ «Сотни сексуальных фейковых объявлений с использованием лица Эммы Уотсон появились на Facebook и в Instagram за последние два дня». NBC News . 7 марта 2023 г. Архивировано из оригинала 29 февраля 2024 г. Получено 8 марта 2024 г.
  148. ^ Филипович, Джилл (31 января 2024 г.). «Жертвой «глубоких фейков» может стать кто угодно. Но есть причина, по которой Тейлор Свифт стала целью». The Guardian . ISSN  0261-3077. Архивировано из оригинала 10 июня 2024 г. Получено 8 марта 2024 г.
  149. ^ Париж, Бритт (октябрь 2021 г.). «Конфигурирование фейков: оцифрованные тела, политика доказательств и агентство». Социальные медиа + общество . 7 (4). doi : 10.1177/20563051211062919 . ISSN  2056-3051.
  150. ^ Дамиани, Джесси. «Китайское приложение Deepfake Zao становится вирусным и немедленно подвергается критике из-за пользовательских данных и политики безопасности». Forbes . Архивировано из оригинала 14 сентября 2019 г. Получено 18 ноября 2019 г.
  151. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против «глубоких фейковых» видео». Independent.ie . 7 января 2020 г. Архивировано из оригинала 8 января 2020 г. Получено 7 января 2020 г.
  152. ^ «Как бельгийский визуальный эксперт Крис Уме руководил дипфейками Тома Круза». The Statesman . 6 марта 2021 г. Архивировано из оригинала 24 августа 2022 г. Получено 24 августа 2022 г.
  153. ^ Метц, Рэйчел. «Как фейковый Том Круз на TikTok превратился в вполне реальную компанию ИИ». CNN . Архивировано из оригинала 10 июня 2024 г. Получено 17 марта 2022 г.
  154. ^ Коркоран, Марк; Генри, Мэтт (23 июня 2021 г.). «Это не Том Круз. Вот что так беспокоит экспертов по безопасности». ABC News . Архивировано из оригинала 28 марта 2022 г. Получено 28 марта 2022 г.
  155. Reuters, 15 июля 2020 г., Deepfake, используемый для атаки на пару активистов, демонстрирует новый рубеж дезинформации. Архивировано 26 сентября 2020 г. на Wayback Machine.
  156. Журнал 972, 12 августа 2020 г., ««Левые за Биби»? Разоблачена фейковая пропаганда в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля привлекает сторонников левого крыла — за исключением того, что ни один из этих людей не существует». Архивировано 14 августа 2020 г. на Wayback Machine
  157. «Седьмой глаз», 9 июня 2020 г., הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מז ויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות Архивировано 18 августа 2020 года на Wayback Machine.
  158. ^ ab «Perfect Deepfake Tech Could Arrive Beforeer Than Expected» (Идеальная технология Deepfake может появиться раньше, чем ожидалось). www.wbur.org . 2 октября 2019 г. Архивировано из оригинала 30 октября 2019 г. Получено 9 ноября 2019 г.
  159. ^ Соннемейкер, Тайлер. «Поскольку платформы социальных сетей готовятся к надвигающейся волне дипфейков, бывший «царь мошенничества» Google предсказывает, что самая большая опасность заключается в том, что дипфейки в конечном итоге станут скучными». Business Insider . Архивировано из оригинала 14 апреля 2021 г. Получено 14 апреля 2021 г.
  160. ^ Ваккари, Кристиан; Чедвик, Эндрю (январь 2020 г.). «Глубокие фейки и дезинформация: изучение влияния синтетического политического видео на обман, неопределенность и доверие к новостям». Социальные медиа + общество . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  161. ^ ab Pawelec, M (2022). «Deepfakes и демократия (теория): как синтетические аудиовизуальные медиа для дезинформации и языка вражды угрожают основным демократическим функциям». Цифровое общество: этика, социально-правовые аспекты и управление цифровыми технологиями . 1 (2): 19. doi :10.1007/s44206-022-00010-6. PMC 9453721. PMID  36097613 . 
  162. ^ abc Bateman, Jon (2020). "Summary". Deepfakes and Synthetic Media in the Financial System : 1–2. Архивировано из оригинала 20 апреля 2021 г. Получено 28 октября 2020 г.
  163. ^ Kelion, Leo (сентябрь 2020 г.). «Microsoft представила инструмент обнаружения Deepfake». BBC News . Архивировано из оригинала 14 апреля 2021 г. Получено 15 апреля 2021 г.
  164. ^ Коэн, Ариэль; Раймон, Инбал; Афлало, Эран; Пермутер, Хаим Х. (июнь 2022 г.). «Исследование дополнения данных в борьбе с подменой голоса». Речевая коммуникация . 141 : 56–67. arXiv : 2110.10491 . doi : 10.1016/j.specom.2022.04.005. S2CID  239050551.
  165. ^ abc Manke, Kara (18 июня 2019 г.). «Исследователи используют черты лица, чтобы разоблачить „глубокие подделки“». Berkeley News . Архивировано из оригинала 9 ноября 2019 г. . Получено 9 ноября 2019 г. .
  166. ^ Фарид, Хани (1 декабря 2006 г.). «Цифровое врачевание: как отличить настоящее от поддельного». Значимость . 3 (4): 162–166. doi : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  167. ^ "Присоединяйтесь к Deepfake Detection Challenge (DFDC)". deepfakedetectionchallenge.ai. Архивировано из оригинала 12 января 2020 года . Получено 8 ноября 2019 года .
  168. ^ "Результаты конкурса Deepfake Detection Challenge: открытая инициатива по продвижению ИИ". ai.facebook.com . Архивировано из оригинала 29 октября 2020 г. . Получено 30 сентября 2022 г. .
  169. ^ Гро, Мэтью; Эпштейн, Зив; Файрстоун, Чаз; Пикард, Розалинд (2022). «Обнаружение дипфейков толпами людей, машинами и толпами, информированными машинами». Труды Национальной академии наук . 119 (1). arXiv : 2105.06496 . Bibcode : 2022PNAS..11910013G. doi : 10.1073/pnas.2110013119 . PMC 8740705. PMID  34969837 . 
  170. ^ Ху, Шу; Ли, Юэцзун; Лю, Сивэй (12 октября 2020 г.). «Выявление лиц, созданных с помощью GAN, с использованием несогласованных бликов роговицы». arXiv : 2009.11924 [cs.CV].
  171. ^ Boháček, M; Farid, H (29 ноября 2022 г.). «Защита мировых лидеров от глубоких фейков с использованием мимики, жестов и вокальных манер». Труды Национальной академии наук Соединенных Штатов Америки . 119 (48): e2216035119. Bibcode : 2022PNAS..11916035B. doi : 10.1073/pnas.2216035119 . PMC 9860138. PMID  36417442. 
  172. ^ ab "Google Scholar". scholar.google.com . Получено 30 апреля 2022 г. .
  173. ^ ab Masi, Iacopo; Killekar, Aditya; Mascarenhas, Royston Marian; Gurudatt, Shenoy Pratik; Abdalmageed, Wael (2020). Двухветвевая рекуррентная сеть для изоляции deepfakes в видео. Lecture Notes in Computer Science. Vol. 12352. pp. 667–684. arXiv : 2008.03412 . doi :10.1007/978-3-030-58571-6_39. ISBN 978-3-030-58570-9. Архивировано из оригинала 10 июня 2024 . Получено 30 апреля 2022 .
  174. ^ abc "The Blockchain Solution to Our Deepfake Problems". Wired . ISSN  1059-1028. Архивировано из оригинала 7 ноября 2019 г. Получено 9 ноября 2019 г.
  175. ^ ab Leetaru, Kalev. «Почему цифровые подписи не предотвратят глубокие фейки, но помогут репрессивным правительствам». Forbes . Архивировано из оригинала 14 апреля 2021 г. Получено 17 февраля 2021 г.
  176. ^ «Чтобы раскрыть поддельный видеозвонок, попросите звонящего повернуться боком». Metaphysic . 8 августа 2022 г. Архивировано из оригинала 26 августа 2022 г. Получено 24 августа 2022 г.
  177. ^ «Кольцо Кейт Миддлтон таинственно исчезает, вызывая еще больше беспокойства по поводу ИИ». MSN. 25 марта 2024 г. Архивировано из оригинала 10 июня 2024 г. Получено 19 мая 2024 г.
  178. Hindustan Times (5 апреля 2024 г.). «Признание Кейт в раке — фейк», — фанат Меган Маркл и директор Калифорнийского университета в Лос-Анджелесе Джонатан Перкинс выдвигает теорию заговора». The Hindustan Times. Архивировано из оригинала 10 июня 2024 г. Получено 19 мая 2024 г.
  179. ^ Фейган, Кейли. «Вирусное видео, на котором Обама, по-видимому, называет Трампа „дипсом---“, демонстрирует тревожную новую тенденцию под названием „дипфейки“». Business Insider . Архивировано из оригинала 22 сентября 2020 г. Получено 3 ноября 2020 г.
  180. ^ ab "Расцвет deepfake и угроза демократии". The Guardian . Архивировано из оригинала 1 ноября 2020 года . Получено 3 ноября 2020 года .
  181. ^ ab "Сгенерированные искусственным интеллектом изображения ареста Трампа распространяются в социальных сетях". AP News. 21 марта 2023 г. Архивировано из оригинала 10 июня 2024 г. Получено 10 октября 2023 г.
  182. ^ «Трамп делится фейковой фотографией себя молящегося, в то время как в сети распространяются изображения ареста, полученные с помощью искусственного интеллекта». The Independent . 24 марта 2023 г. Архивировано из оригинала 28 мая 2023 г. Получено 16 июня 2023 г.
  183. ^ Towers-Clark, Charles. «Мона Лиза и Нэнси Пелоси: Последствия Deepfakes». Forbes . Архивировано из оригинала 23 ноября 2020 г. Получено 7 октября 2020 г.
  184. ^ «В чем разница между Deepfake и Shallowfake?». 21 апреля 2020 г. Архивировано из оригинала 26 июня 2022 г. Получено 5 декабря 2021 г.
  185. ^ "Галерея: 'Spectre' Launches (Press Release)". Bill Posters . 29 мая 2019 г. Архивировано из оригинала 10 июня 2024 г. Получено 15 мая 2024 г.
  186. ^ Коул, Саманта (11 июня 2019 г.). «Этот Deepfake Марка Цукерберга проверяет политику Facebook в отношении фейковых видео». Vice . Архивировано из оригинала 10 июня 2024 г. Получено 15 мая 2024 г.
  187. ^ abc "Deepfake Путин здесь, чтобы предупредить американцев об их самонаведенной гибели". MIT Technology Review . Архивировано из оригинала 30 октября 2020 года . Получено 7 октября 2020 года .
  188. ^ Зонне, Пол (5 июня 2023 г.). «В России транслировалась фальшивая речь Путина, призывающая к введению военного положения». The New York Times . Архивировано из оригинала 10 июня 2024 г. Получено 6 июня 2023 г.
  189. ^ Эллин, Бобби (16 марта 2022 г.). «Эксперты предупреждают, что фейковое видео Зеленского может оказаться «верхушкой айсберга» в информационной войне». NPR . Архивировано из оригинала 29 марта 2022 г. Получено 17 марта 2022 г.
  190. ^ Сатариано, Адам; Мозур, Пол (7 февраля 2023 г.). «Люди на экране — фальшивка. Дезинформация — реальность». The New York Times . Архивировано из оригинала 10 июня 2024 г. Получено 10 февраля 2023 г.
  191. ^ «Папа Франциск в фейковом образе Balenciaga обманывает миллионы: «Определенно страшно». New York Post . 28 марта 2023 г. Архивировано из оригинала 10 июня 2024 г. Получено 16 июня 2023 г.
  192. ^ Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа Римский в фуражке: что может и чего не может сделать быстро развивающийся ИИ». The Guardian . Архивировано из оригинала 10 июня 2024 г. Получено 16 июня 2023 г.
  193. ^ Мерфи, Хизер Тал (29 марта 2023 г.). «Папа в пальто — не из святого места». Slate . Архивировано из оригинала 10 июня 2024 г. . Получено 16 июня 2023 г. .
  194. ^ "Поддельная аудиозапись сэра Кейра Стармера была выпущена в первый день конференции лейбористов". Sky News . Получено 29 мая 2024 г.
  195. ^ «Женщина в deepfake-видео с лицом Рашмики Манданны нарушает тишину: Я глубоко встревожена и расстроена происходящим». The Times of India . 9 ноября 2023 г. ISSN  0971-8257. Архивировано из оригинала 23 ноября 2023 г. Получено 23 ноября 2023 г.
  196. ^ Купин, Беа (24 апреля 2024 г.). «Malacañang flags deepfake audio of Marcos orders military attack». Rappler . Архивировано из оригинала 10 июня 2024 г. Получено 14 мая 2024 г.
  197. ^ Флорес, Хелен (27 апреля 2024 г.). «За аудиоподделкой президента Маркоса замечен „иностранный актер“». The Philippines Star . Архивировано из оригинала 10 июня 2024 г. Получено 14 мая 2024 г.
  198. ^ Argosino, Faith (14 мая 2024 г.). «Raps подали на страницы социальных сетей за клеветнический контент, дипфейк Маркоса». Philippine Daily Inquirer . Архивировано из оригинала 10 июня 2024 г. Получено 14 мая 2024 г.
  199. ^ «Подмена лиц? Детектор дипфейков помечает предполагаемое видео Маркоса как «подозрительное»». Rappler . 23 июля 2024 г. . Получено 25 июля 2024 г. .
  200. ^ «Выводы NBI и PNP показывают, что видео «польворон» — подделка». The Philippine Star . 24 июля 2024 г. . Получено 25 июля 2024 г. .
  201. ^ Шепардсон, Дэвид (23 мая 2024 г.). «Американскому политическому консультанту предъявлены обвинения в совершении звонков Байдену с использованием искусственного интеллекта». Reuters .
  202. ^ "Американскому политическому консультанту предъявлены обвинения в совершении звонков Байдену с использованием искусственного интеллекта". AP News . 23 мая 2024 г. Архивировано из оригинала 10 июня 2024 г. Получено 8 июня 2024 г.
  203. ^ abcd «Помогите нам сформировать наш подход к синтетическим и манипулируемым медиа». blog.twitter.com . Архивировано из оригинала 28 октября 2020 г. . Получено 7 октября 2020 г. .
  204. ^ "TechCrunch". TechCrunch . 11 ноября 2019 г. Архивировано из оригинала 14 июля 2021 г. Получено 7 октября 2020 г.
  205. ^ Пять штатов США требуют от Маска исправить ИИ-чат-бот из-за дезинформации о выборах. Доступ Reuters получен 19 августа 2024 г.
  206. Вредные изображения распространяются после того, как Илон Маск запускает инструмент на основе искусственного интеллекта с небольшим количеством защитных ограждений. The Washington Post, дата обращения 19 августа 2024 г.
  207. ^ Как Илон Маск и X стали крупнейшими распространителями интернет-дезинформации. Rolling Stone, дата обращения 19 августа 2024 г.
  208. ^ ab "Результаты конкурса Deepfake Detection Challenge: открытая инициатива по продвижению ИИ". ai.facebook.com . Архивировано из оригинала 29 октября 2020 г. Получено 7 октября 2020 г.
  209. ^ ab Пол, Кэти (4 февраля 2020 г.). «Twitter будет маркировать deepfakes и другие обманчивые медиа». Reuters . Архивировано из оригинала 10 октября 2020 г. Получено 7 октября 2020 г.
  210. ^ Коул, Саманта (31 января 2018 г.). «Создатели фейкового порно, созданного с помощью искусственного интеллекта, были выгнаны со своего любимого хоста». Vice . Архивировано из оригинала 1 ноября 2019 г. . Получено 18 ноября 2019 г. .
  211. ^ ab Ghoshal, Abhimanyu (7 февраля 2018 г.). «Twitter, Pornhub и другие платформы запрещают сгенерированное искусственным интеллектом порно со знаменитостями». The Next Web . Архивировано из оригинала 20 декабря 2019 г. Получено 9 ноября 2019 г.
  212. Бём, Маркус (7 февраля 2018 г.). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Шпигель онлайн . Архивировано из оригинала 23 сентября 2019 года . Проверено 9 ноября 2019 г.
  213. ^ barbara.wimmer (8 февраля 2018 г.). «Deepfakes: Reddit löscht Forum for künstlich Generierte Fake-Pornos». Futurezone.at (на немецком языке). Архивировано из оригинала 8 февраля 2018 года . Проверено 9 ноября 2019 г.
  214. ^ "Deepfakes: Auch Reddit verbannt Fake-Porn". heise online (на немецком языке). 8 февраля 2018 г. Архивировано из оригинала 10 апреля 2019 г. Получено 9 ноября 2019 г.
  215. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". DER STANDARD (на австрийском немецком). Архивировано из оригинала 9 ноября 2019 года . Получено 9 ноября 2019 года .
  216. ^ Робертсон, Ади (7 февраля 2018 г.). «Reddit банит сообщества порно с ИИ „deepfakes“». The Verge . Архивировано из оригинала 24 сентября 2019 г. Получено 9 ноября 2019 г.
  217. ^ Коул, Саманта (6 февраля 2018 г.). «Twitter — последняя платформа для запрета порно, созданного искусственным интеллектом». Vice . Архивировано из оригинала 1 ноября 2019 г. . Получено 8 ноября 2019 г. .
  218. Прайс, Роб (27 января 2018 г.). «Discord только что закрыл чат-группу, посвященную обмену порновидео, отредактированными с помощью ИИ, чтобы включить знаменитостей». Business Insider Australia . Архивировано из оригинала 15 декабря 2019 г. . Получено 28 ноября 2019 г.
  219. ^ "Twitter запрещает порно с 'deepfake', созданное искусственным интеллектом". Engadget . 20 июля 2019 г. Архивировано из оригинала 15 декабря 2019 г. Получено 28 ноября 2019 г.
  220. ^ ab Harrell, Drew. «Фейковые порновидео используются как оружие для преследования и унижения женщин: «Каждый человек — потенциальная цель»». The Washington Post . Архивировано из оригинала 2 января 2019 года . Получено 1 января 2019 года .
  221. ^ ab Cole, Samantha (6 февраля 2018 г.). «Pornhub запрещает фейковые порновидео, созданные искусственным интеллектом, и заявляет, что они не являются консенсуальными». Vice . Архивировано из оригинала 1 ноября 2019 г. . Получено 9 ноября 2019 г. .
  222. ^ Берес, Дэймон; Гилмер, Маркус (2 февраля 2018 г.). «Руководство по «дипфейкам», последнему моральному кризису Интернета». Mashable . Архивировано из оригинала 9 декабря 2019 г. Получено 9 ноября 2019 г.
  223. ^ ab "Facebook пообещал оставить поддельное видео Марка Цукерберга". MIT Technology Review . Архивировано из оригинала 16 октября 2019 года . Получено 9 ноября 2019 года .
  224. ^ Коул, Саманта (11 июня 2019 г.). «Этот Deepfake Марка Цукерберга проверяет политику Facebook в отношении фейковых видео». Vice . Архивировано из оригинала 12 октября 2019 г. Получено 9 ноября 2019 г.
  225. ^ Андерсон, Мартин (2022). Google запретил обучение Deepfakes в Colab Архивировано 30 мая 2022 г. в Wayback Machine , Unite.ai, 28 мая 2022 г.
  226. ^ Maiberg, Emanuel (2022). Требуется 2 щелчка, чтобы перейти от «Глубокого Тома Круза» к отвратительному Deepfake порно Архивировано 30 мая 2022 в Wayback Machine , VICE, 17 мая 2022
  227. ^ Сасс, Бен (21 декабря 2018 г.). «S. 3805–115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018». www.congress.gov . Архивировано из оригинала 16 октября 2019 г. . Получено 16 октября 2019 г. .
  228. ^ Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019-2020 гг.): Защита каждого человека от ложных показаний путем соблюдения Закона об ответственности за эксплуатацию 2019 г.». www.congress.gov . Архивировано из оригинала 17 декабря 2019 г. . Получено 16 октября 2019 г. .
  229. ^ «Порно месть „Deepfake“ теперь незаконна в Вирджинии». TechCrunch . Июль 2019. Архивировано из оригинала 14 июля 2021. Получено 16 октября 2019 .
  230. ^ Iacono Brown, Nina (15 июля 2019 г.). «Конгресс хочет решить проблему Deepfakes к 2020 году. Это должно нас беспокоить». Slate Magazine . Архивировано из оригинала 16 октября 2019 г. Получено 16 октября 2019 г.
  231. ^ ab "Текст законопроекта - AB-602 Изображение лица, использующего цифровые или электронные технологии: сексуально откровенные материалы: причина иска". leginfo.legislature.ca.gov . Архивировано из оригинала 17 ноября 2019 г. . Получено 9 ноября 2019 г. .
  232. ^ ab "Текст законопроекта - AB-730 Выборы: обманчивые аудио- или визуальные медиа". leginfo.legislature.ca.gov . Архивировано из оригинала 31 октября 2019 г. Получено 9 ноября 2019 г.
  233. ^ HR 5586: Закон об ответственности за ДИПФЕЙКИ Govtrack.US, доступ 15 августа 2024 г.
  234. ^ HR 6943: No AI FRAUD Act Govtrack.US, дата обращения 15 августа 2024 г.
  235. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента». Reuters.com . Reuters . 29 ноября 2019 г. Архивировано из оригинала 17 декабря 2019 г. Получено 17 декабря 2019 г. .
  236. ^ Statt, Nick (29 ноября 2019 г.). «Китай делает уголовным преступлением публикацию deepfakes или фейковых новостей без раскрытия информации». The Verge . Архивировано из оригинала 22 декабря 2019 г. . Получено 17 декабря 2019 г. .
  237. ^ Китай будет регулировать технологию глубокого синтеза (Deepfake) с 2023 года. Брифинг по Китаю, доступный 15 августа 2024 года.
  238. ^ Китай: вступают в силу положения о технологии глубокого синтеза. Доступ к Библиотеке Конгресса США от 15 августа 2024 г.
  239. ^ Призыв к законопроекту о подглядывании, включающему запрет на порнографию с использованием «глубоких фейков». Архивировано 21 июня 2018 г. в Wayback Machine The Guardian
  240. ^ Создание откровенно сексуальных дипфейков станет уголовным преступлением. BBC, дата обращения 15 августа 2024 г.
  241. ^ Создание откровенно сексуальных фейковых изображений будет считаться преступлением в Великобритании, дата обращения 15 августа 2024 г.
  242. ^ [2] Архивировано 22 ноября 2019 г. на Wayback Machine , см. стр. 18.
  243. ^ Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году». Федеральные выборы 2019 г. Архивировано из оригинала 27 января 2020 г. Получено 28 января 2020 г.
  244. ^ "Что может сделать закон о Deepfake". mcmillan.ca . Архивировано из оригинала 7 декабря 2019 года . Получено 28 января 2020 года .
  245. ^ Обзор Закона Канады о защите от вреда в Интернете TechPolicy.Press] Доступ 15 августа 2024 г.
  246. ^ ЗАКОНОПРОЕКТ C-63 Палаты общин Канады, доступ 15 августа 2024 г.
  247. ^ Venkatasubbbu, Satish (27 июня 2023 г.). «Как deepfakes используются для мошенничества с You & Me? Современные тенденции обнаружения с использованием ИИ и правовых норм во всем мире». cybermitha.in . Архивировано из оригинала 10 июня 2024 г. . Получено 3 июля 2023 г. .
  248. ^ Ромеро-Морено, Фелипе (29 марта 2024 г.). «Генеративный ИИ и дипфейки: подход к борьбе с вредоносным контентом с точки зрения прав человека». International Review of Law, Computers & Technology . 39 (2): 1–30. doi : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN  1360-0869.
  249. ^ Компания X Илона Маска подверглась девяти жалобам на нарушение конфиденциальности после того, как она захватила данные пользователей из ЕС для обучения Grok. Доступ к данным TechCrunch получен 19 августа 2024 г.
  250. ^ Hatmaker, Taylor (1 мая 2018 г.). «DARPA финансирует новую технологию, которая может определять смонтированные видео и «дипфейки»». TechCrunch . Архивировано из оригинала 8 декабря 2023 г. Получено 14 апреля 2024 г.
  251. ^ Hsu, Jeremy (22 июня 2018 г.). «Эксперты делают ставку на первый политический скандал с дипфейками — IEEE Spectrum». IEEE . Архивировано из оригинала 22 февраля 2024 г. . Получено 14 апреля 2024 г. .
  252. ^ "Media Forensics". www.darpa.mil . Архивировано из оригинала 29 октября 2020 г. Получено 7 октября 2020 г.
  253. ^ «Военные США финансируют усилия по выявлению дипфейков и других уловок ИИ». MIT Technology Review . Архивировано из оригинала 1 ноября 2020 г. Получено 7 октября 2020 г.
  254. ^ Коллинз, Коннор (11 марта 2019 г.). «DARPA борется с дипфейками с помощью ИИ». GovCIO Media & Research . Архивировано из оригинала 2 марта 2024 г. Получено 14 апреля 2024 г.
  255. ^ ab "DARPA Is Taking On the Deepfake Problem". Nextgov.com . 6 августа 2019 г. Архивировано из оригинала 28 октября 2020 г. Получено 7 октября 2020 г.
  256. ^ Sybert, Sarah (16 сентября 2021 г.). «DARPA запускает новые программы для обнаружения фальсифицированных медиа». GovCIO Media & Research . Архивировано из оригинала 10 июня 2024 г. Получено 14 апреля 2024 г.
  257. ^ Купер, Наоми (15 марта 2024 г.). «DARPA запускает 2 новых усилия по усилению защиты от манипулируемых медиа». Архивировано из оригинала 15 марта 2024 г. Получено 14 апреля 2024 г.
  258. ^ "Семантическая криминалистика - Аналитический каталог". semanticforensics.com . Архивировано из оригинала 18 апреля 2024 г. Получено 14 апреля 2024 г.
  259. ^ Национальные академии наук, инженерии и медицины (22 июня 2023 г.). «Нобелевский саммит стимулирует инициативы по борьбе с дезинформацией и недостоверной информацией и укреплению доверия к науке». Национальные академии наук, инженерии и медицины . Wikidata  Q124711722.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  260. ^ "Picaper". Internet Speculative Fiction Database . Архивировано из оригинала 29 июля 2020 года . Получено 9 июля 2019 года .
  261. ^ Керр, Филип (2010). Философское исследование . National Geographic Books. ISBN 978-0143117537.
  262. ^ Бернал, Наташа (8 октября 2019 г.). «Тревожная правда о The Capture и реальных фейках». The Telegraph . Архивировано из оригинала 14 октября 2019 г. Получено 24 октября 2019 г.
  263. ^ Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажении и двуличии». The Irish Times . Архивировано из оригинала 9 сентября 2019 г. Получено 24 октября 2019 г.
  264. ^ Джон Траволта — Форрест Гамп [DeepFake]. Архивировано из оригинала 20 апреля 2024 г. Получено 20 апреля 2024 г. — через www.youtube.com.
  265. ^ Новак, Лорен (24 ноября 2023 г.). «Джон Траволта отказался от «Форреста Гампа» и других звезд, которые решили не играть культовых персонажей». Напомнить . Архивировано из оригинала 10 июня 2024 г. . Получено 20 апреля 2024 г. .
  266. ^ "ESPN Films Latest 30 for 30 Documentary Al Davis vs. The NFL to Premiere 4 February" (пресс-релиз). ESPN. 15 января 2021 г. Архивировано из оригинала 6 февраля 2021 г. Получено 5 февраля 2021 г.
  267. ^ Sprung, Shlomo (1 февраля 2021 г.). «Документальный фильм ESPN «Эл Дэвис против НФЛ» использует технологию Deepfake, чтобы вернуть к жизни покойного владельца Raiders». Forbes . Архивировано из оригинала 14 апреля 2021 г. Получено 4 февраля 2021 г.
  268. ^ "Hudson and Rex". Архивировано из оригинала 13 января 2022 года . Получено 13 января 2022 года .
  269. ^ ab Wood, Mikael (9 мая 2022 г.). «Смотрите, как Кендрик Ламар превращается в OJ, Kanye, Kobe, Nipsey Hussle в новом видео». Los Angeles Times . Архивировано из оригинала 30 октября 2022 г. Получено 10 мая 2022 г.
  270. ^ Aloe Blacc - Wake Me Up (Universal Language Mix), 20 апреля 2022 г., архивировано из оригинала 24 августа 2022 г. , извлечено 24 августа 2022 г.
  271. ^ "Смотрите, как Алоэ Блэк исполняет "Wake Me Up" на 3 языках в честь Авичи, используя Respeecher AI Translation". Voicebot.ai . 5 мая 2022 г. Архивировано из оригинала 24 августа 2022 г. Получено 24 августа 2022 г.
  272. ^ Лис, Доминик (27 января 2023 г.). «Deep Fake Neighbour Wars: комедия ITV показывает, как ИИ может преобразовать популярную культуру». The Conversation . Архивировано из оригинала 24 июня 2023 г. . Получено 3 июля 2023 г. .

Дальнейшее чтение

External links