stringtranslate.com

Дипфейк

Дипфейки ( сочетание « глубокого обучения » и «фейка» [1] ) — это синтетические носители информации [2] , которые подвергаются цифровым манипуляциям с целью убедительной замены сходства одного человека на сходство другого. Дипфейки — это манипуляции внешним видом лица с помощью глубоких генеративных методов. [3] Хотя создание фейкового контента не является чем-то новым, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и аудиоконтента, который легче обмануть. [4] [5] Основные методы машинного обучения, используемые для создания дипфейков, основаны на глубоком обучении и включают обучение архитектур генеративных нейронных сетей , таких как автоэнкодеры , [4] или генеративно-состязательные сети (GAN). [6] [7] В свою очередь, область криминалистики изображений разрабатывает методы обнаружения манипулируемых изображений . [8]

Дипфейки привлекли широкое внимание из-за их потенциального использования в создании материалов о сексуальном насилии над детьми , порнографических видеороликах со знаменитостями , порномести , фейковых новостях , мистификациях , издевательствах и финансовом мошенничестве . [9] [10] [11] [12] Распространение дезинформации и разжигания ненависти посредством дипфейков может подорвать основные функции и нормы демократических систем, мешая людям участвовать в принятии решений, которые их затрагивают, определять коллективные программы и выражать политическую волю посредством принятия обоснованных решений. [13] Это вызвало реакцию как промышленности, так и правительства, направленную на обнаружение и ограничение их использования. [14] [15]

От традиционных развлечений к играм технология дипфейков развивалась и становилась все более убедительной [16] и доступной для общественности, что позволило революционизировать индустрию развлечений и медиа . [17]

История

Изображение вымышленного персонажа от Stable Diffusion

Фотоманипуляция была разработана в 19 веке и вскоре применена к кинофильмам. Технологии неуклонно совершенствовались в течение 20-го века, и еще быстрее с появлением цифрового видео .

Технология Deepfake разрабатывалась исследователями академических учреждений, начиная с 1990-х годов, а затем любителями в интернет-сообществах. [18] [19] Совсем недавно эти методы были приняты промышленностью. [20]

Академическое исследование

Академические исследования, связанные с дипфейками, разделены между областью компьютерного зрения , подобластью компьютерных наук, [18] которая разрабатывает методы создания и идентификации дипфейков, а также подходами гуманитарных и социальных наук, которые изучают социальные, этические и эстетические последствия дипфейков. дипфейки.

Социально-гуманитарные подходы к дипфейкам

В исследованиях кино дипфейки демонстрируют, как «человеческое лицо становится центральным объектом амбивалентности в эпоху цифровых технологий». [21] Видеохудожники использовали дипфейки, чтобы «игриво переписать историю кино, дооснащая каноническое кино новыми звездными исполнителями». [22] Киновед Кристофер Холлидей анализирует, как смена пола и расы исполнителей в знакомых сценах фильмов дестабилизирует гендерные классификации и категории. [22] Идея « квиринговых » дипфейков также обсуждается Оливером М. Гингричем в обсуждении медиа-произведений, в которых дипфейки используются для переосмысления гендера, [23] включая работу британского художника Джейка Элвеса « Зизи: Queering the Dataset» , произведение искусства, в котором используются дипфейки трансвеститы намеренно играют с полом. Эстетический потенциал дипфейков также начинает исследоваться. Историк театра Джон Флетчер отмечает, что ранние демонстрации дипфейков представляют собой спектакли, и помещает их в контекст театра, обсуждая «некоторые из наиболее тревожных сдвигов парадигмы», которые дипфейки представляют собой жанр перформанса. [24]

Философы и исследователи медиа обсуждали этику дипфейков, особенно в отношении порнографии. [25] Медиа-исследователь Эмили ван дер Нагель опирается на исследования фотографий, посвященных манипулированию изображениями, для обсуждения систем проверки, которые позволяют женщинам давать согласие на использование их изображений. [26]

Помимо порнографии, философы называют дипфейки «эпистемической угрозой» знаниям и, следовательно, обществу. [27] Есть несколько других предложений о том, как бороться с рисками «эксплуатации, запугивания и личного саботажа», которые создают дипфейки не только для порнографии, но и для корпораций, политиков и других лиц, [28] и существует несколько научных дискуссий. потенциальных правовых и нормативных мер как в юридических исследованиях, так и в исследованиях средств массовой информации. [29] В исследованиях в области психологии и средств массовой информации ученые обсуждают последствия дезинформации с использованием дипфейков, [30] [31] и социальное воздействие дипфейков. [32]

В то время как большинство англоязычных академических исследований дипфейков сосредоточено на опасениях Запада по поводу дезинформации и порнографии, цифровой антрополог Габриэле де Сета проанализировала китайское восприятие дипфейков, известных как хуанлянь , что переводится как «меняющееся лицо». Китайский термин не содержит «подделки» английского deepfake, и де Сета утверждает, что этот культурный контекст может объяснить, почему реакция Китая была больше связана с практическими регулятивными ответами на «риски мошенничества, права на имидж, экономическую прибыль и этический дисбаланс». ". [33]

Компьютерные исследования дипфейков

Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [34] Это была первая система, полностью автоматизировавшая такого рода реанимацию лица, и она делала это с помощью методов машинного обучения, чтобы установить связь между звуками, издаваемыми объектом видео, и формой лица субъекта. [34]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и совершенствовании методов. [35] [36] Программа «Синтезируя Обаму», опубликованная в 2017 году, модифицирует видеозапись бывшего президента Барака Обамы , чтобы показать, как он произносит слова, содержащиеся в отдельной аудиодорожке. [35] В качестве основного исследовательского вклада в проекте указана фотореалистичная техника синтеза формы рта из аудио. [35] Программа Face2Face, опубликованная в 2016 году, изменяет видеозапись лица человека, изображая его имитирующим выражение лица другого человека в реальном времени. [36] В качестве основного исследовательского вклада в проекте указан первый метод воспроизведения выражений лица в реальном времени с использованием камеры, которая не фиксирует глубину, что позволяет реализовать эту технику с использованием обычных потребительских камер. [36]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили фальшивое танцевальное приложение, которое может создавать впечатление мастерских танцевальных способностей с помощью искусственного интеллекта. [37] Этот проект расширяет возможности применения дипфейков ко всему телу; предыдущие работы были сосредоточены на голове или частях лица. [38]

Исследователи также показали, что дипфейки распространяются и на другие области, например, подделку медицинских изображений. [39] В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легких на 3D-КТ пациента . Результат был настолько убедительным, что обманул трех рентгенологов и современный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно осуществили атаку на больницу в ходе теста на проникновение White Hat . [40]

Обзор дипфейков, опубликованный в мае 2020 года, дает представление о том, как продвинулись в создании и обнаружении дипфейков за последние несколько лет. [41] Исследование показывает, что исследователи сосредоточили внимание на решении следующих проблем, связанных с созданием дипфейков:

В целом ожидается, что дипфейки будут иметь ряд последствий в средствах массовой информации и обществе, производстве средств массовой информации, репрезентациях в средствах массовой информации, аудитории средств массовой информации, гендере, законодательстве и регулировании, а также политике. [42]

Любительская разработка

Термин «дипфейки» возник примерно в конце 2017 года пользователем Reddit по имени «deepfakes». [43] Он, как и другие участники сообщества Reddit r/deepfakes, поделился созданными ими дипфейками; во многих видеороликах лица знаменитостей заменены на тела актрис в порнографических видеороликах, [43] в то время как непорнографический контент включает множество видеороликов, в которых лицо актера Николаса Кейджа заменено в различных фильмах. [44]

Другие онлайн-сообщества остаются, в том числе сообщества Reddit, которые не делятся порнографией, такие как r/SFWdeepfakes (сокращение от «безопасные для работы дипфейки»), в которых члены сообщества делятся дипфейками, изображающими знаменитостей, политиков и других лиц в непорнографических сценариях. [45] Другие онлайн-сообщества продолжают делиться порнографией на платформах, которые не запретили дипфейк-порнографию. [46]

Коммерческое развитие

В январе 2018 года было запущено фирменное десктопное приложение FakeApp. [47] Это приложение позволяет пользователям легко создавать и обмениваться видео, поменяв лица друг друга. [48] ​​По состоянию на 2019 год FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com [49] [50] [51]

Более крупные компании начали использовать дипфейки. [20] Корпоративные обучающие видеоролики можно создавать с использованием дипфейковых аватаров и их голосов, например Synthesia, которая использует технологию дипфейков с аватарами для создания персонализированных видеороликов. [52] Гигант мобильных приложений Momo создал приложение Zao, которое позволяет пользователям накладывать свое лицо на телепередачи и видеоклипы на одно изображение. [20] По состоянию на 2019 год японская компания DataGrid, занимающаяся искусственным интеллектом, создала дипфейк в полный рост, который мог бы создать человека с нуля. [53] Они намерены использовать их для моды и одежды.

По состоянию на 2020 год также существуют аудиодипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонировать человеческие голоса после 5 секунд прослушивания. [54] [55] [56] [57] [58] [59] Мобильное приложение для дипфейков Impressions было запущено в марте 2020 года. Это было первое приложение для создания дипфейк-видео знаменитостей с мобильных телефонов. [60] [61]

Воскрешение

Технологию дипфейков можно использовать не только для фабрикации сообщений и действий других людей, но и для оживления умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео своего покойного отца Роберта Кардашьян ; Лицо в видео Роберта Кардашьян было создано с помощью технологии deepfake. [62] Голограмма была создана компанией Kaleida, которая при создании голограммы использовала комбинацию технологий Performance, Motion Tracking, SFX, VFX и DeepFake . [63]

В 2020 году в рамках кампании по безопасности оружия было создано дипфейковое видео Хоакина Оливера, жертвы стрельбы в Паркленде . Родители Оливера в партнерстве с некоммерческой организацией Change the Ref и McCann Health создали видео, в котором Оливер призывает людей поддержать закон о безопасности оружия, а также политиков, которые поддерживают его. [64]

В 2022 году дипфейковое видео Элвиса Пресли было использовано в программе America's Got Talent 17 . [65]

В телевизионной рекламе использовалось фейковое видео участника группы «Битлз» Джона Леннона , убитого в 1980 году. [66]

Техники

Дипфейки полагаются на тип нейронной сети, называемый автокодировщиком . [7] [67] Они состоят из кодера, который сводит изображение к скрытому пространству меньшей размерности , и декодера, который восстанавливает изображение из скрытого представления. [68] Дипфейки используют эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытое пространство. [69] Скрытое представление содержит ключевые особенности черт лица и позы тела. Затем это можно декодировать с помощью модели, специально обученной для целевой цели. [7] Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве. [7]

Популярное обновление этой архитектуры присоединяет к декодеру генеративно-состязательную сеть . [69] GAN обучает генератор, в данном случае декодер, и дискриминатор в состязательных отношениях . [69] Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, сгенерировано ли изображение. [69] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, поскольку любые дефекты будут обнаружены дискриминатором. [70] Оба алгоритма постоянно совершенствуются в игре с нулевой суммой . [69] Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; в любой момент, когда обнаружен дефект, его можно исправить. [70]

Приложения

Действующий

Цифровые клоны профессиональных актеров и раньше появлялись в фильмах , и ожидается, что прогресс в технологии дипфейков повысит доступность и эффективность таких клонов. [71] Использование технологии искусственного интеллекта было серьезной проблемой во время забастовки SAG-AFTRA в 2023 году , поскольку новые методы позволили создавать и хранить цифровые изображения для использования вместо актеров. [72]

Disney улучшила свои визуальные эффекты, используя технологию замены лиц в высоком разрешении. [73] Disney улучшила свою технологию посредством прогрессивного обучения, запрограммированного на распознавание выражений лица, реализации функции замены лиц и повторений для стабилизации и уточнения выходных данных. [73] Эта технология дипфейков с высоким разрешением экономит значительные эксплуатационные и производственные затраты. [74] Модель генерации дипфейков Диснея может создавать медиафайлы, генерируемые искусственным интеллектом, с разрешением 1024 x 1024, в отличие от обычных моделей, которые создают медиафайлы с разрешением 256 x 256. [74] Эта технология позволяет Диснею стареть персонажей или оживлять умерших актеров. [75] Подобная технология изначально использовалась фанатами для неофициальной вставки лиц в существующие медиа, например, наложение молодого лица Харрисона Форда на лицо Хана Соло в « Соло: Истории Звездных войн» . [76] Дисней использовал дипфейки для персонажей принцессы Леи и гранд-моффа Таркина в «Изгой-один» . [77] [78]

В документальном фильме 2020 года «Добро пожаловать в Чечню» использовалась технология дипфейков, чтобы скрыть личности опрошенных и защитить их от возмездия. [79]

Агентство Creative Artists разработало средство для создания образа актера «за один день», а также для разработки цифрового клона актера, который будет контролироваться актером или его имуществом наряду с другими правами личности . [80]

Компании, которые использовали цифровые клоны профессиональных актеров в рекламе, включают Puma , Nike и Procter & Gamble . [81]

Искусство

В марте 2018 года многопрофильный художник Джозеф Айерле опубликовал видеоработу Un'emozione per semper 2.0 (английское название: The Italian Game ). Художник работал с технологией Deepfake для создания искусственного интеллекта актрисы , синтетической версии кинозвезды 80-х Орнеллы Мути , путешествующей во времени с 1978 по 2018 год. Массачусетский технологический институт включил это произведение в исследование «Коллективная мудрость». [82] Художница использовала путешествие во времени Орнеллы Мути , чтобы исследовать размышления поколений, а также исследовала вопросы о роли провокации в мире искусства. [83] Для технической реализации Айерл использовал кадры с фотомоделью Кендалл Дженнер . Программа заменила лицо Дженнер на рассчитанное ИИ лицо Орнеллы Мути. В результате у ИИ-актрисы лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Дипфейки широко используются в сатире или для пародии на знаменитостей и политиков. Веб-сериал 2020 года «Нахальное правосудие» , созданный Треем Паркером и Мэттом Стоуном , широко демонстрирует использование дипфейковых общественных деятелей для высмеивания текущих событий и повышения осведомленности о технологии дипфейков. [84]

Шантажировать

Дипфейки могут использоваться для создания материалов шантажа, ложно инкриминирующих жертву. В отчете Исследовательской службы американского Конгресса содержится предупреждение о том, что дипфейки могут использоваться для шантажа избранных должностных лиц или тех, кто имеет доступ к секретной информации , в целях шпионажа или оказания влияния . [85]

В качестве альтернативы, поскольку подделки невозможно надежно отличить от подлинных материалов, жертвы фактического шантажа теперь могут утверждать, что настоящие артефакты являются подделками, что дает им возможность правдоподобного отрицания. В результате доверие к существующим материалам шантажа лишается доверия, что стирает лояльность к шантажистам и разрушает контроль шантажиста. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» реальный шантаж, делая его бесполезным. [86] Можно использовать обычное графическое оборудование с небольшой программой для создания такого шантажного контента для любого количества субъектов в огромных количествах, что приводит к безграничному и легко масштабируемому увеличению поставок фальшивого шантажного контента. [87]

Развлечение

8 июня 2022 года [88] Дэниел Эммет, бывший участник AGT , объединился со стартапом в области искусственного интеллекта [89] [90] Metaphysic AI, чтобы создать гиперреалистичный дипфейк, выглядящий как Саймон Коуэлл . Коуэлл, известный своей резкой критикой участников, [91] был на сцене, интерпретируя « You're The Inspiration » Чикаго . Эммет пел на сцене, а образ Саймона Коуэлла появился на экране позади него в безупречной синхронности. [92]

30 августа 2022 года Metaphysical AI заставила «глубокую фальшивку» Саймона Коуэлла , Хоуи Мэндела и Терри Крюса петь оперу на сцене. [93]

13 сентября 2022 года Metaphysical AI выступила с синтетической версией Элвиса Пресли на финале America's Got Talent . [94]

Проект искусственного интеллекта MIT 15.ai использовался для создания контента для множества интернет- фандомов , особенно в социальных сетях. [95] [96] [97]

В 2023 году группы ABBA и KISS объединились с Industrial Light & Magic и Pophouse Entertainment для разработки дипфейковых аватаров, способных давать виртуальные концерты . [98]

Мошенничество и мошенничество

Мошенники и мошенники используют дипфейки, чтобы обманом заставить людей использовать фальшивые инвестиционные схемы, финансовые махинации , криптовалюты , отправлять деньги и получать одобрения . Изображения знаменитостей и политиков использовались для крупномасштабных афер, а также портретов частных лиц для целенаправленных фишинговых атак. По данным Better Business Bureau , мошенничество с дипфейками становится все более распространенным. [99]

В фейковой рекламе использовались личности таких знаменитостей, как Тейлор Свифт , [100] [99] Том Хэнкс , [101] Опра Уинфри , [102] и Илон Маск ; [103] ведущие новостей [104] такие как Гейл Кинг [101] и Салли Бандок ; [105] и такие политики, как Ли Сянь Лун [106] и Джим Чалмерс . [107] [108] Их видео появлялись в онлайн-рекламе на YouTube , Facebook и TikTok , которые проводят политику против синтетических и манипулируемых СМИ . [109] [100] [110] Рекламу с этими видеороликами видят миллионы людей. Одна кампания по мошенничеству в программе Medicare была просмотрена более 195 миллионов раз на тысячах видео. [109] [111] Дипфейки использовались для: фальшивой раздачи кухонной посуды Le Creuset за «плату за доставку» без получения продуктов, за исключением скрытых ежемесячных платежей; [100] жевательные конфеты для похудения, стоимость которых значительно выше заявленной; [102] поддельная раздача iPhone; [100] [110] и мошеннические схемы быстрого обогащения , [103] [112] инвестиции, [113] и криптовалютные схемы. [106] [114]

Во многих рекламных роликах клонирование голоса с помощью искусственного интеллекта сочетается с «вырванным из контекста видео знаменитости», чтобы имитировать подлинность. Другие используют целый клип знаменитости, прежде чем перейти к другому актеру или голосу. [109] Некоторые виды мошенничества могут включать в себя дипфейки в реальном времени. [110]

Знаменитости предупреждают людей об этих фальшивых одобрениях и требуют быть более бдительными в отношении них. [99] [100] [102] Знаменитости вряд ли будут подавать иски против каждого человека, занимающегося дипфейковыми мошенничествами, поскольку «поиск и судебное преследование анонимных пользователей социальных сетей требуют больших ресурсов», хотя перестаньте писать письма в компании социальных сетей, занимающиеся получением видео и рекламу сняли. [115]

Аудиодипфейки использовались в рамках мошенничества с использованием социальной инженерии , заставляя людей думать, что они получают инструкции от доверенного лица. [116] В 2019 году генеральный директор британской энергетической компании подвергся мошенничеству по телефону, когда ему приказал перевести 220 000 евро на счет в венгерском банке от человека, который использовал технологию аудио-дипфейка, чтобы выдать себя за голос генерального директора материнской компании фирмы. . [117]

По состоянию на 2023 год эта комбинация продвинулась в области технологии дипфейков, которая могла бы клонировать голос человека, записывая его длительностью от нескольких секунд до минуты, и новых инструментов генерации текста , которые позволили осуществлять автоматическое мошенничество с выдачей себя за другое лицо, ориентируясь на жертв с использованием убедительного цифрового клона друга или друга. родственник. [118]

Мемы

В 2020 году появился интернет-мем, использующий дипфейки для создания видеороликов, на которых люди поют припев «Baka Mitai» (ばかみたい) , песни из игры Yakuza 0 из серии видеоигр Yakuza . В сериале меланхоличную песню поет игрок в мини-игре -караоке . В большинстве итераций этого мема в качестве шаблона используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует песню по губам. [119] [120]

Политика

Дипфейки использовались для искажения изображения известных политиков в видеороликах.

Порнография

В 2017 году порнография Deepfake стала заметной в Интернете, особенно на Reddit . [140] По состоянию на 2019 год многие дипфейки в Интернете содержат порнографию знаменитостей, чьи изображения обычно используются без их согласия. [141] В отчете голландского стартапа по кибербезопасности Deeptrace, опубликованном в октябре 2019 года, говорится, что 96% всех дипфейков в Интернете были порнографическими. [142] В 2018 году внимание впервые привлек дипфейк Дейзи Ридли , [140] среди других. [143] [144] [145] По состоянию на октябрь 2019 года большинство субъектов дипфейков в Интернете были британскими и американскими актрисами. [141] Однако около четверти участников — южнокорейцы, большинство из которых — звезды K-pop. [141] [146]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративно-состязательные сети , для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, платная версия стоила 50 долларов. [147] [148] 27 июня создатели удалили приложение и вернули потребителям деньги. [149]

Социальные медиа

Дипфейки начали использоваться на популярных платформах социальных сетей, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять свои собственные лица лицами персонажей в сценах из фильмов и телешоу, таких как «Ромео + Джульетта» и «Игра престолов» . [150] Первоначально приложение подверглось тщательной проверке из-за агрессивного использования пользовательских данных и политики конфиденциальности, после чего компания опубликовала заявление, утверждающее, что пересмотрит политику. [20] В январе 2020 года Facebook объявил, что вводит новые меры противодействия этому на своих платформах. [151]

Исследовательская служба Конгресса привела неуказанные доказательства того, что сотрудники иностранной разведки использовали дипфейки для создания учетных записей в социальных сетях с целью вербовки лиц, имеющих доступ к секретной информации . [85]

В 2021 году на TikTok были опубликованы реалистичные дипфейковые видеоролики актера Тома Круза , которые стали вирусными и собрали более десятков миллионов просмотров. В дипфейковых видеороликах был показан «двойник Круза, созданный искусственным интеллектом», который выполнял различные действия, такие как первый удар на поле для гольфа, демонстрация фокуса с монетой и откусывание леденца. Создатель клипов, бельгийский художник по визуальным эффектам Крис Уме, [152] рассказал, что впервые заинтересовался дипфейками в 2018 году и увидел в них «творческий потенциал». [153] [154]

Носоккуклы

Дипфейковые фотографии можно использовать для создания кукол-марионеток , несуществующих людей, которые активны как в Интернете, так и в традиционных СМИ. Дипфейковая фотография, судя по всему, была создана вместе с легендой о якобы несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Личность Оливера Тейлора публиковала свои статьи в нескольких газетах и ​​активно участвовала в онлайн-СМИ, нападая на британского ученого-юриста и его жену как на «сочувствующих террористам». Ученый привлек международное внимание в 2018 году, когда он подал в Израиле иск против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что стали жертвами технологии взлома телефонов NSO . Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было никаких записей о нем. Многие эксперты сошлись во мнении, что фотография в профиле — дипфейк. Некоторые газеты не отозвали приписываемые ему статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в сфере дезинформации . [155]

Коллекции дипфейковых фотографий несуществующих людей в социальных сетях также использовались в рамках израильской партизанской пропаганды. На странице Facebook «Сионистская весна» были размещены фотографии несуществующих людей вместе с их «свидетельствами», призванными объяснить, почему они отказались от своей левой политики и приняли политику правого , а также на странице было большое количество сообщений от Prime . Министр Израиля Биньямин Нетаньяху и его сын, а также из других источников израильского правого крыла. Фотографии, судя по всему, были созданы с помощью технологии « синтеза изображений человека » — компьютерного программного обеспечения, которое берет данные из фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. В большинстве «свидетельств» причиной принятия политических правых сил был шок, узнав о предполагаемом подстрекательстве к насилию в отношении премьер-министра. Правые израильские телевещатели затем транслировали «свидетельства» этих несуществующих людей, основываясь на том факте, что ими «делились» в Интернете. Телеканалы транслировали эти «свидетельства», несмотря на то, что не смогли найти таких людей, объяснив: «Почему происхождение имеет значение?» Другие фейковые профили Facebook — профили вымышленных лиц — содержали материалы, которые якобы содержали подобное подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [156] [157]

Обеспокоенность

Надежность и подлинность

Хотя фейковых фотографий уже давно предостаточно, подделать кинофильмы сложнее, а наличие дипфейков затрудняет классификацию видео как подлинных или нет. [122] Исследователь искусственного интеллекта Алекс Шампандар заявил, что люди должны знать, как быстро все может быть испорчено с помощью технологии дипфейков, и что проблема не техническая, а скорее проблема, которую нужно решить, доверяя информации и журналистике. [122] Дипфейки могут использоваться для клеветы, выдачи себя за другое лицо и распространения дезинформации. [158]

Основная ошибка заключается в том, что человечество может впасть в эпоху, когда уже невозможно будет определить, соответствует ли содержание СМИ истине. [122] [159] Дипфейки — один из множества инструментов дезинформационной атаки , создания сомнений и подрыва доверия. У них есть потенциал вмешиваться в демократические функции в обществе, такие как определение коллективных программ, обсуждение проблем, информирование решений и решение проблем посредством проявления политической воли. [13]

Аналогичным образом, доцент компьютерных наук Хао Ли из Университета Южной Калифорнии утверждает, что дипфейки, созданные для злонамеренного использования, такие как фейковые новости , будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [160] Ли предсказал, что подлинные видео и дипфейки станут неотличимы уже через полгода, по состоянию на октябрь 2019 года, благодаря быстрому развитию искусственного интеллекта и компьютерной графики. [160]

Бывший глава Google по борьбе с мошенничеством Шуман Госемаджумдер назвал дипфейки областью «общественной озабоченности» и заявил, что они неизбежно разовьются до такой степени, что их можно будет генерировать автоматически, и человек сможет использовать эту технологию для создания миллионов дипфейковых видео. [161]

Дипфейки обладают способностью наносить огромный ущерб отдельным объектам. [162] Это связано с тем, что дипфейки часто нацелены на одного человека и/или его отношения с другими людьми в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью дипфейкового голосового фишинга, который манипулирует звуком для создания фальшивых телефонных звонков или разговоров. [162] Еще один метод использования дипфейков — это сфабрикованные частные высказывания, которые манипулируют средствами массовой информации, чтобы передать людям озвучивающие оскорбительные комментарии. [162]

В сентябре 2020 года Microsoft объявила, что разрабатывает программный инструмент для обнаружения Deepfake. [163]

Примеры событий

Барак Обама

17 апреля 2018 года американский актер Джордан Пил , BuzzFeed и Monkeypaw Productions разместили на YouTube дипфейк Барака Обамы, на котором Барак Обама ругался и обзывал Дональда Трампа. [164] В этом дипфейке голос и лицо Пила были преобразованы и манипулированы так, как у Обамы. Целью этого видео было показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить кого-то говорить что угодно.

Дональд Трамп

5 мая 2019 года сайт Derpfakes разместил на YouTube дипфейк Дональда Трампа , основанный на пародии Джимми Фэллона , исполненной на The Tonight Show . [165] В оригинальной пародии (вышедшей в эфир 4 мая 2016 г.) Джимми Фэллон переоделся Дональдом Трампом и притворился, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастался своей победой на первичных выборах в Индиане. [165] В дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа, а звук остался прежним. Это дипфейковое видео было создано Derpfakes с комедийной целью.

Поддельное изображение ареста Дональда Трампа, созданное Midjourney [166]

В марте 2023 года появилась серия изображений, на которых видно, как сотрудники полиции Нью-Йорка удерживают Трампа. [167] Изображения, созданные с помощью Midjourney , первоначально были опубликованы в Твиттере Элиотом Хиггинсом , но позже были повторно опубликованы без контекста, что заставило некоторых зрителей поверить в то, что это настоящие фотографии. [166]

Нэнси Пелоси

В 2019 году был выпущен отрывок из выступления Нэнси Пелоси в Центре американского прогресса (прочитанного 22 мая 2019 года), в котором видео было замедлено, а также изменена высота звука, чтобы создать впечатление, будто она была пьяна, широко распространялась в социальных сетях. Критики утверждают, что это был не дипфейк, а мелкий фейк — менее сложная форма видеоманипуляции. [168] [169]

Ким Чен Ын и Владимир Путин

"Ким Чен Ын"

29 сентября 2020 года на YouTube были загружены дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина , созданные беспартийной правозащитной группой RepresentUs . [170]

Дипфейковое видео: Владимир Путин предупреждает американцев о вмешательстве в выборы и усилении политического раскола

Дипфейки с изображением Кима и Путина должны были транслироваться публично в качестве рекламы, транслирующей идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии Соединенных Штатов. Рекламные ролики также были направлены на то, чтобы шокировать американцев, осознать, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от доверия к ним. [170] Однако, хотя рекламные ролики содержали завершающий комментарий, в котором подробно описывалось, что отснятый материал не соответствует действительности, в конечном итоге они не вышли в эфир из-за опасений и чувствительности относительно того, как американцы могут отреагировать. [170]

5 июня 2023 года неизвестный источник транслировал по нескольким радио- и телеканалам дипфейк с изображением Владимира Путина. В ролике Путин, кажется, произносит речь, объявляющую о вторжении в Россию и призывающую к всеобщей мобилизации армии. [171]

Владимир Зеленский

16 марта 2022 года в социальных сетях было распространено одноминутное дипфейковое видео, на котором президент Украины Владимир Зеленский, по-видимому, говорит своим солдатам сложить оружие и сдаться во время российского вторжения в Украину в 2022 году . [13] Российские социальные сети разрекламировали это сообщение, но после того, как оно было опровергнуто, Facebook и YouTube удалили его. Twitter разрешил публиковать видео в твитах, где оно было разоблачено как фейк, но заявил, что оно будет удалено, если оно будет опубликовано с целью обмана людей. Хакеры вставили дезинформацию в прямую трансляцию новостей на телеканале «Украина 24», и видео ненадолго появилось на сайте телеканала в дополнение к ложным утверждениям о том, что Зеленский покинул столицу своей страны Киев . Не сразу стало ясно, кто создал дипфейк, на что Зеленский ответил собственным видео, заявив: «Мы не планируем складывать оружие. До нашей победы». [172]

Волчьи новости

В конце 2022 года прокитайские пропагандисты начали распространять дипфейковые видеоролики якобы из «Wolf News», в которых использовались синтетические актеры. Технология была разработана лондонской компанией Synthesia, которая позиционирует ее как дешевую альтернативу живым актерам для обучения и HR-видео. [173]

Папа Франциск

Поддельное изображение Папы Франциска в пуховике, созданное Midjourney.

В марте 2023 года анонимный строитель из Чикаго использовал Midjourney для создания фейкового изображения Папы Франциска в белой куртке-пуховике Balenciaga . Изображение стало вирусным, получив более двадцати миллионов просмотров. [174] Писатель Райан Бродерик назвал это «первым настоящим случаем дезинформации искусственного интеллекта на массовом уровне». [175] Эксперты, с которыми консультировался Slate, охарактеризовали изображение как бесхитростное: «его можно было сделать в Photoshop пять лет назад». [176]

Рашмика Манданна

В начале ноября 2023 года известный южноиндийский актер Рашмика Манданна стал жертвой DeepFake, когда в социальных сетях начало появляться измененное видео известного британско-индийского влиятельного лица Зары Патель с лицом Рашмики. Зара Патель утверждает, что не участвовала в его создании. [177]

Ответы

Платформы социальных сетей

Твиттер

Twitter принимает активные меры по борьбе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, содержащих манипулируемые медиа и/или дипфейки, которые сигнализируют зрителям о том, что СМИ манипулируют. [178] Также появится предупреждение для пользователей, которые планируют ретвитнуть твит, поставить ему «Нравится» или присоединиться к нему. [178] Twitter также будет работать над тем, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на момент Twitter или заслуживающую доверия новостную статью на соответствующую тему — в качестве разоблачающего действия. [178] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести ущерб безопасности пользователей. [178] Чтобы улучшить обнаружение дипфейков и манипулируемых СМИ, Twitter попросил пользователей, заинтересованных в партнерстве с ними, разработать решения для обнаружения дипфейков, заполнив форму. [179]

Фейсбук

Facebook предпринял усилия по поощрению создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook выступил ведущим партнером в проведении конкурса Deepfake Detection Challenge (DFDC), состоявшегося в декабре 2019 года, для 2114 участников, которые создали более 35 000 моделей. [180] Самые эффективные модели с самой высокой точностью обнаружения были проанализированы на предмет сходств и различий; Эти результаты представляют собой область интересов для дальнейших исследований, направленных на улучшение и усовершенствование моделей обнаружения дипфейков. [180] Facebook также сообщил, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [181] Однако средства массовой информации, которые были отредактированы с целью изменения порядка или контекста слов в сообщении, останутся на сайте, но будут помечены как ложные, поскольку они не были созданы искусственным интеллектом. [181]

Обнаружение

Аудио

Обнаружение поддельного звука — очень сложная задача, требующая пристального внимания к аудиосигналу для достижения хороших характеристик. Использование глубокого обучения, предварительной обработки дизайна функций и увеличения маскирования доказало свою эффективность в повышении производительности. [182]

видео

Большая часть академических исследований, посвященных дипфейкам, сосредоточена на обнаружении дипфейковых видео. [183] ​​Один из подходов к обнаружению дипфейков заключается в использовании алгоритмов для распознавания закономерностей и обнаружения тонких несоответствий, возникающих в дипфейковых видео. [183] ​​Например, исследователи разработали автоматические системы, которые проверяют видео на предмет таких ошибок, как нерегулярное мигание освещения. [184] [18] Этот подход подвергся критике, поскольку обнаружение дипфейков характеризуется « движущейся целью », при которой производство дипфейков продолжает меняться и совершенствоваться по мере совершенствования алгоритмов обнаружения дипфейков. [183] ​​Чтобы оценить наиболее эффективные алгоритмы обнаружения дипфейков, коалиция ведущих технологических компаний организовала конкурс Deepfake Detection Challenge, направленный на ускорение технологии выявления манипулируемого контента. [185] Модель-победитель конкурса Deepfake Detection Challenge имела точность 65 % на выборке из 4000 видео. [186] В декабре 2021 года команда Массачусетского технологического института опубликовала статью, демонстрирующую, что обычные люди с точностью 69–72 % идентифицируют случайную выборку из 50 таких видео. [187]

В октябре 2020 года команда из Университета Буффало опубликовала статью, в которой изложила свою технику использования отражений света в глазах изображенных для обнаружения дипфейков с высоким уровнем успеха, даже без использования инструмента обнаружения искусственного интеллекта, по крайней мере, для в настоящее время. [188]

В случае хорошо задокументированных лиц, таких как политические лидеры, были разработаны алгоритмы, позволяющие различать особенности личности, такие как черты лица, жесты и голосовые манеры, и обнаруживать фальшивых имитаторов. [189]

Другая группа под руководством Ваэля АбдАльмагида из Лаборатории визуального интеллекта и мультимедийной аналитики (VIMAL) Института информационных наук Университета Южной Калифорнии разработала два поколения [190] [191] детекторов дипфейков на основе сверточных нейронных сетей . Первое поколение [190] использовало рекуррентные нейронные сети для обнаружения пространственно-временных несоответствий и выявления визуальных артефактов, оставленных процессом генерации дипфейков. Алгоритм показал точность 96% на FaceForensics++, единственном доступном на тот момент крупномасштабном тесте для дипфейков. Второе поколение [191] использовало сквозные глубокие сети для различения артефактов и семантической лицевой информации высокого уровня с использованием двухветвевых сетей. Первая ветвь распространяет информацию о цвете, в то время как другая ветвь подавляет содержимое лица и усиливает низкоуровневые частоты с помощью лапласиана Гаусса (LoG) . Кроме того, они включили новую функцию потерь, которая изучает компактное представление настоящих лиц, рассеивая при этом представления (т.е. особенности) дипфейков. Подход ВИМАЛ показал высочайшую производительность в тестах FaceForensics++ и Celeb-DF, а 16 марта 2022 года (в тот же день релиза) был использован для выявления дипфейка Владимира Зеленского «из коробки». без какой-либо переподготовки или знания алгоритма, с помощью которого был создан дипфейк. [ нужна цитата ]

Другие методы предполагают, что блокчейн можно использовать для проверки источника медиа. [192] Например, видео, возможно, придется проверить через реестр, прежде чем оно будет показано на платформах социальных сетей. [192] Благодаря этой технологии будут одобряться только видео из надежных источников, что уменьшит распространение потенциально вредных дипфейковых медиа. [192]

Для борьбы с дипфейками было предложено цифровое подписание всего видео и изображений камерами и видеокамерами, в том числе камерами смартфонов. [193] Это позволяет отследить первоначальный владелец каждой фотографии или видео, что может быть использовано для преследования диссидентов. [193]

Один из простых способов обнаружить фейковые видеозвонки — попросить звонящего повернуться боком. [194]

Реакция Интернета

С 2017 года Саманта Коул из Vice опубликовала серию статей, посвященных новостям, связанным с дипфейковой порнографией. [195] [196] [197] [147] [145] [198] [199] [43] [ чрезмерное цитирование ] 31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки. [197] [14] На Reddit субреддит r/deepfakes был заблокирован 7 февраля 2018 года из-за нарушения политики «принудительной порнографии». [200] [201] [202] [203] [204] В том же месяце представители Twitter заявили, что заблокируют учетные записи, подозреваемые в размещении дипфейкового контента без согласия. [198] Чат-сайт Discord в прошлом принимал меры против дипфейков, [205] и занимал общую позицию против дипфейков. [14] [206] В сентябре 2018 года Google добавила в свой список запретов «принудительные синтетические порнографические изображения», что позволило любому запрашивать блок результатов, показывающих его фейковую обнаженную натуру. [207] [ проверьте синтаксис цитаты ] В феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом, не согласованным с общественностью», который нарушает их условия обслуживания. [196] Ранее они также заявили Mashable, что будут удалять контент, помеченный как дипфейки. [208] Авторы Motherboard из Buzzfeed News сообщили, что при поиске «дипфейков» на Pornhub по-прежнему выдавалось несколько недавних дипфейковых видео. [196]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ. [209] Вместо этого видео будут помечены третьими лицами как фейковые, а затем будут иметь меньший приоритет в лентах пользователей. [195] Такая реакция была вызвана в июне 2019 года после того, как в Facebook и Instagram распространился дипфейк с видео Марка Цукерберга 2016 года . [209]

В мае 2022 года Google официально изменила условия обслуживания своих колабов Jupyter Notebook , запретив использование своего колаб-сервиса с целью создания дипфейков. [210] Это произошло через несколько дней после публикации статьи VICE, в которой утверждалось, что «большинство дипфейков представляют собой порнографию без согласия» и что основное использование популярного программного обеспечения для дипфейков DeepFaceLab (DFL), «наиболее важной технологии, лежащей в основе подавляющего большинства дипфейков этого поколения», который часто использовался в сочетании с колабами Google, будет означать создание порнографии без согласия, указывая на тот факт, что среди многих других хорошо известных примеров сторонних реализаций DFL, таких как дипфейки, заказанные The Walt Disney Company , официальные музыкальные клипы и веб-сериал Sassy Justice от создателей South Park , страница DFL на GitHub также ссылается на дипфейковый порносайт Mr. ‍ Deepfakes и участники сервера DFL Discord также участвуют в Mr. ‍ Deepfakes . [211]

Юридический ответ

В США были приняты некоторые меры реагирования на проблемы, связанные с дипфейками. В 2018 году в Сенат США был внесен Закон о запрете злонамеренных глубоких фейков , [212] а в 2019 году в Палату представителей был внесен Закон об ответственности DEEPFAKES . [15] Несколько штатов также приняли законы, касающиеся дипфейков, включая Вирджинию, [213] Техас, Калифорнию и Нью-Йорк. [214] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал законопроекты о Ассамблее № 602 и № 730. [215] [216] Законопроект о Ассамблее № 602 предоставляет лицам, на которых направлен дипфейк сексуального характера, созданный без их согласия, причина иска против создателя контента. [215] Законопроект Собрания № 730 запрещает распространение вредоносных дипфейковых аудио- и визуальных материалов, нацеленных на кандидата, баллотирующегося на государственную должность, в течение 60 дней после его избрания. [216]

В ноябре 2019 года Китай объявил, что начиная с 2020 года на дипфейках и других искусственно сфальсифицированных материалах должно быть четкое указание об их фальшивости. Невыполнение этого требования может считаться преступлением, о чем Администрация киберпространства Китая заявила на своем веб-сайте. [217] Правительство Китая, судя по всему, оставляет за собой право привлекать к ответственности как пользователей, так и онлайн-видеоплатформы, не соблюдающие правила. [218]

В Соединенном Королевстве производители дипфейковых материалов могут быть привлечены к ответственности за преследование, но звучат призывы объявить дипфейк конкретным преступлением; [219] В Соединенных Штатах, где преследовались такие разнообразные обвинения, как кража личных данных , киберпреследование и порноместь , также обсуждалась идея более всеобъемлющего закона. [207]

В Канаде Управление безопасности коммуникаций опубликовало отчет, в котором говорится, что дипфейки могут использоваться для вмешательства в канадскую политику, в частности, для дискредитации политиков и влияния на избирателей. [220] [221] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они становятся их мишенью. [222]

В Индии нет прямых законов или постановлений об искусственном интеллекте или дипфейках, но есть положения Индийского уголовного кодекса и Закона об информационных технологиях 2000/2008 года, которые можно рассмотреть в качестве средств правовой защиты, а новый предложенный Закон о цифровой Индии будет иметь глава об искусственном интеллекте и дипфейках, в частности, согласно МО Радживу Чандрасекхару. [223]

Ответ от DARPA

В 2018 году Агентство перспективных исследовательских проектов Министерства обороны (DARPA) профинансировало проект, в котором люди будут соревноваться в создании видео, аудио и изображений, генерируемых искусственным интеллектом, а также автоматизированных инструментов для обнаружения этих дипфейков. [224] В 2019 году DARPA провело «день предложений» для проекта, связанного с программой семантической криминалистики, где исследователи были призваны предотвратить вирусное распространение СМИ, манипулируемых ИИ. [225] DARPA и Программа семантической криминалистики также работали вместе над обнаружением средств массовой информации, манипулируемых ИИ, путем обучения компьютеров использованию здравого смысла и логических рассуждений. [225] В 2020 году DARPA создало программу Media Forensics (MediFor) для обнаружения и смягчения растущего вреда, который наносят дипфейки и медиа, созданные искусственным интеллектом, для предоставления информации о том, как были созданы медиа, а также для рассмотрения и подчеркивания последующей роли дипфейков. и их влияние на принятие решений. [226]

В популярной культуре

Смотрите также

Рекомендации

  1. Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: количество жутких видео-«дипфейков» растет». Фокс Ньюс . Архивировано из оригинала 15 июня 2018 года . Проверено 20 февраля 2018 г.
  2. ^ «Готовьтесь, не паникуйте: синтетические медиа и дипфейки» . свидетель.орг. Архивировано из оригинала 2 декабря 2020 года . Проверено 25 ноября 2020 г.
  3. ^ Джуфей-Сюй, Феликс; Ван, Беги; Хуан, Ихао; Го, Цин; Ма, Лей; Лю, Ян (1 июля 2022 г.). «Противодействие вредоносным DeepFakes: обзор, поле битвы и горизонт». Международный журнал компьютерного зрения . 130 (7): 1678–1734. дои : 10.1007/s11263-022-01606-8. ISSN  1573-1405. ПМК 9066404 . ПМИД  35528632. 
  4. ^ Аб Китцманн, Дж.; Ли, ЛВ; Маккарти, IP; Китцманн, TC (2020). «Дипфейки: Кошелек или жизнь?» (PDF) . Горизонты бизнеса . 63 (2): 135–146. дои :10.1016/j.bushor.2019.11.006. S2CID  213818098.
  5. Уолдроп, М. Митчелл (16 марта 2020 г.). «Синтетические медиа: настоящая проблема с дипфейками». Знающий журнал . Ежегодные обзоры. doi : 10.1146/knowable-031320-1 . Проверено 19 декабря 2022 г.
  6. Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости — это плохо? В глубоких фейках истина умирает». Хранитель . Архивировано из оригинала 16 июня 2019 года . Проверено 14 ноября 2018 г.
  7. ↑ abcd Шарлеер, Свен (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил жену на вечернее шоу». Середина . Архивировано из оригинала 11 февраля 2018 года . Проверено 8 ноября 2019 г.
  8. Фарид, Хани (15 сентября 2019 г.). «Криминалистика изображений». Ежегодный обзор Vision Science . 5 (1): 549–573. doi : 10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880.
  9. Бэнкс, Алек (20 февраля 2018 г.). «Что такое дипфейки и почему будущее порно ужасно». Высокоблагородство . Архивировано из оригинала 14 июля 2021 года . Проверено 20 февраля 2018 г.
  10. ^ Кристиан, Джон. «Эксперты опасаются, что технология подмены лиц может стать началом международного противостояния». Схема . Архивировано из оригинала 16 января 2020 года . Проверено 28 февраля 2018 г.
  11. Руз, Кевин (4 марта 2018 г.). «А вот и фальшивые видео» . Нью-Йорк Таймс . ISSN  0362-4331. Архивировано из оригинала 18 июня 2019 года . Проверено 24 марта 2018 г.
  12. ^ Шрейер, Марко; Саттаров Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.). «Состязательное изучение дипфейков в бухгалтерском учете». arXiv : 1910.03810 [cs.LG].
  13. ^ abc Павелец, М (2022). «Дипфейки и демократия (теория): как синтетические аудиовизуальные средства дезинформации и разжигания ненависти угрожают основным демократическим функциям». Цифровое общество: этика, социально-правовая политика и управление цифровыми технологиями . 1 (2): 19. дои : 10.1007/s44206-022-00010-6. ПМЦ 9453721 . ПМИД  36097613. 
  14. ↑ abc Ghoshal, Абхиманью (7 февраля 2018 г.). «Twitter, Pornhub и другие платформы запрещают порно со знаменитостями, созданное искусственным интеллектом». Следующая сеть . Архивировано из оригинала 20 декабря 2019 года . Проверено 9 ноября 2019 г.
  15. ^ аб Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019–2020 гг.): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности 2019 года». www.congress.gov . Архивировано из оригинала 17 декабря 2019 года . Проверено 16 октября 2019 г.
  16. Карамансьон, Кевин Матте (21 апреля 2021 г.). «Демографический профиль, которому больше всего грозит дезинформация». Международная конференция IEEE по Интернету вещей, электронике и мехатронике (IEMTRONICS) 2021 г. IEEE. стр. 1–7. doi : 10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888.
  17. ^ Лалла, Веджай; Митрани, Адин; Харнед, Зак. «Искусственный интеллект: дипфейки в индустрии развлечений». Всемирная организация интеллектуальной собственности . Проверено 8 ноября 2022 г.
  18. ^ abc Харвелл, Дрю (12 июня 2019 г.). «Ведущие исследователи искусственного интеллекта спешат обнаружить «дипфейковые» видео: «Нас превосходят в вооружении»» . Вашингтон Пост . Архивировано из оригинала 31 октября 2019 года . Проверено 8 ноября 2019 г.
  19. Санчес, Джулиан (8 февраля 2018 г.). «Благодаря искусственному интеллекту будущее «фейковых новостей» впервые появляется в домашнем порно». Новости Эн-Би-Си . Архивировано из оригинала 9 ноября 2019 года . Проверено 8 ноября 2019 г.
  20. ^ abcd Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное фейковое приложение стало вирусным, вызвав немедленную негативную реакцию в отношении конфиденциальности». Грань . Архивировано из оригинала 3 сентября 2019 года . Проверено 8 ноября 2019 г.
  21. ^ Боде, Лиза; Лиз, Доминик; Голдинг, Дэн (29 июля 2021 г.). «Цифровое лицо и дипфейки на экране». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 849–854. дои : 10.1177/13548565211034044 . ISSN  1354-8565. S2CID  237402465.
  22. ↑ Аб Холлидей, Кристофер (26 июля 2021 г.). «Переписывая звезды: поверхностное напряжение и гендерные проблемы в онлайн-СМИ, производящих цифровые дипфейки». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 899–918. дои : 10.1177/13548565211029412 . ISSN  1354-8565. S2CID  237402548.
  23. Гингрич, Оливер М. (5 июля 2021 г.). «ГЕНДЕР*УК: Переосмысление гендера и медиаискусства». Труды EVA London 2021 (ЕВА 2021) . Электронные семинары по информатике. дои : 10.14236/ewic/EVA2021.25 . S2CID  236918199.
  24. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и какая-то антиутопия: новые лица онлайн-спектакля постфактум». Театральный журнал . 70 (4): 455–471. дои : 10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  25. Оман, Карл (1 июня 2020 г.). «Представляя дилемму извращенца: вклад в критику Deepfake Pornography». Этика и информационные технологии . 22 (2): 133–140. дои : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  26. ван дер Нагель, Эмили (1 октября 2020 г.). «Проверка изображений: дипфейки, контроль и согласие». Порно исследования . 7 (4): 424–429. дои : 10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792.
  27. Фаллис, Дон (1 декабря 2021 г.). «Эпистемическая угроза дипфейков». Философия и технология . 34 (4): 623–643. дои : 10.1007/s13347-020-00419-2. ISSN  2210-5433. ПМЦ 7406872 . ПМИД  32837868. 
  28. ^ Чесни, Роберт; Цитрон, Даниэль Китс (2018). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». Электронный журнал ССРН . дои : 10.2139/ssrn.3213954. ISSN  1556-5068.
  29. ^ Ядлин-Сегал, Ая; Оппенгейм, Яэль (февраль 2021 г.). «Чья это антиутопия вообще? Дипфейки и регулирование социальных сетей». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (1): 36–51. дои : 10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536.
  30. ^ Хван, Юри; Рю, Джи Юн; Чон, Се Хун (1 марта 2021 г.). «Эффекты дезинформации с использованием Deepfake: защитный эффект медиаобразования». Киберпсихология, поведение и социальные сети . 24 (3): 188–193. дои : 10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561.
  31. Хайт, Крейг (12 ноября 2021 г.). «Дипфейки и документальная практика в эпоху дезинформации». Континуум . 36 (3): 393–410. дои : 10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288.
  32. ^ Хэнкок, Джеффри Т.; Бейленсон, Джереми Н. (1 марта 2021 г.). «Социальное влияние дипфейков». Киберпсихология, поведение и социальные сети . 24 (3): 149–152. дои : 10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146.
  33. де Сета, Габриэле (30 июля 2021 г.). «Хуанлянь, или меняющиеся лица: дипфейки на китайских цифровых медиа-платформах». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 935–953. дои : 10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447.
  34. ^ аб Бреглер, Кристоф; Ковелл, Мишель; Слэни, Малькольм (1997). «Переписывание видео: управление визуальной речью с помощью звука». Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным технологиям – SIGGRAPH '97 . Том. 24. С. 353–360. дои : 10.1145/258734.258880. ISBN 0897918967. S2CID  2341707.
  35. ^ abc Суваджанакорн, Супасорн; Зейтц, Стивен М.; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтезирование Обамы: изучение синхронизации губ по аудио». АКМ Транс. График . 36 (4): 95:1–95:13. дои : 10.1145/3072959.3073640. S2CID  207586187.
  36. ^ abc Тиес, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Ниснер, Матиас (июнь 2016 г.). «Face2Face: захват лиц в реальном времени и реконструкция RGB-видео». Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 2387–2395. arXiv : 2007.14808 . дои :10.1109/CVPR.2016.262. ISBN 9781467388511. S2CID  206593693.
  37. ^ «Дипфейки для танцев: теперь вы можете использовать ИИ, чтобы имитировать те танцевальные движения, которые вы всегда хотели» . Грань . Архивировано из оригинала 17 мая 2019 года . Проверено 27 августа 2018 г.
  38. Фаркуар, Питер (27 августа 2018 г.). «Скоро появится программа искусственного интеллекта, которая поможет вам танцевать дипфейс – только не называйте это дипфейком». Бизнес-инсайдер Австралии . Архивировано из оригинала 10 апреля 2019 года . Проверено 27 августа 2018 г.
  39. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: Злонамеренное вмешательство в 3D-медицинские изображения с использованием глубокого обучения. стр. 461–478. arXiv : 1901.03597 . ISBN 978-1-939133-06-9. Архивировано из оригинала 20 июня 2020 года . Проверено 18 июня 2020 г.
  40. ^ О'Нил, Патрик Хауэлл (3 апреля 2019 г.). «Исследователи демонстрируют вредоносное ПО, которое может обманом заставить врачей поставить неправильный диагноз рака». Гизмодо . Проверено 3 июня 2022 г.
  41. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: исследование». Обзоры вычислительной техники ACM . arXiv : 2004.11138 . дои : 10.1145/3425780. S2CID  216080410.
  42. ^ Карнускос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эра дипфейков» (PDF) . Транзакции IEEE по технологиям и обществу . 1 (3): 1. дои :10.1109/TTS.2020.3001312. S2CID  221716206. Архивировано (PDF) из оригинала 14 июля 2021 года . Проверено 9 июля 2020 г.
  43. ^ abc Коул, Саманта (24 января 2018 г.). «Мы действительно облажались: сейчас все делают фейковое порно, созданное искусственным интеллектом». Порок . Архивировано из оригинала 7 сентября 2019 года . Проверено 4 мая 2019 г.
  44. Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию замены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и что такое 2018 год» . Машаемый . Архивировано из оригинала 24 июля 2019 года . Проверено 4 апреля 2019 г.
  45. ^ "r/SFWdeepfakes". Реддит . Архивировано из оригинала 9 августа 2019 года . Проверено 12 декабря 2018 г.
  46. Хэтэуэй, Джей (8 февраля 2018 г.). «Вот куда пошли дипфейки, новое фейковое порно о знаменитостях, после запрета Reddit». Ежедневная точка . Архивировано из оригинала 6 июля 2019 года . Проверено 22 декабря 2018 г.
  47. ^ «Что такое дипфейк и как они создаются?». Технические советы в Интернете . 23 мая 2019 г. Архивировано из оригинала 8 ноября 2019 г. . Проверено 8 ноября 2019 г.
  48. Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять лица Илона Маска и Джеффа Безоса, и у меня это очень плохо получается». Грань . Архивировано из оригинала 24 марта 2018 года . Проверено 8 ноября 2019 г.
  49. ^ «Сеть Deepfakes | Лучшее онлайн-приложение для замены лиц» . Сеть дипфейков . Архивировано из оригинала 14 июля 2021 года . Проверено 21 февраля 2021 г.
  50. ^ «Faceswap — ведущее бесплатное многоплатформенное программное обеспечение Deepfakes с открытым исходным кодом» . 15 октября 2019 года. Архивировано из оригинала 31 мая 2021 года . Проверено 14 июля 2021 г. - через WordPress.
  51. ^ «DeepFaceLab — это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. readme.md).: iperov/DeepFaceLab». 19 июня 2019 года. Архивировано из оригинала 9 мая 2019 года . Получено 6 марта 2019 г. - через GitHub.
  52. ^ Чендлер, Саймон. «Почему дипфейки приносят пользу человечеству». Форбс . Архивировано из оригинала 16 ноября 2020 года . Проверено 3 ноября 2020 г. .
  53. Пэнгберн, диджей (21 сентября 2019 г.). «Вас предупредили: дипфейки в полный рост — это следующий шаг в имитации человека на основе искусственного интеллекта». Компания Фаст . Архивировано из оригинала 8 ноября 2019 года . Проверено 8 ноября 2019 г.
  54. Лайонс, Ким (29 января 2020 г.). «FTC заявляет, что технология создания аудиоподделок становится лучше». Грань . Архивировано из оригинала 30 января 2020 года . Проверено 8 февраля 2020 г.
  55. ^ «Аудиообразцы из «Перенос обучения от проверки говорящего к синтезу речи с несколькими говорящими»» . google.github.io . Архивировано из оригинала 14 ноября 2019 года . Проверено 8 февраля 2020 г.
  56. ^ Цзя, Йе; Чжан, Ю; Вайс, Рон Дж.; Ван, Цюань; Шен, Джонатан; Рен, Фей; Чен, Чжифэн; Нгуен, Патрик; Панг, Руомин; Морено, Игнасио Лопес; У, Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего к синтезу текста в речь с несколькими говорящими». arXiv : 1806.04558 [cs.CL].
  57. ^ "Визуальные вычисления TUM: профессор Маттиас Ниснер" . www.niessnerlab.org . Архивировано из оригинала 21 февраля 2020 года . Проверено 8 февраля 2020 г.
  58. ^ «Полная перезагрузка страницы» . IEEE Spectrum: Новости технологий, техники и науки . 11 декабря 2019 года. Архивировано из оригинала 26 июня 2020 года . Проверено 8 февраля 2020 г.
  59. ^ «Вклад данных в исследования по обнаружению дипфейков» . 24 сентября 2019 года. Архивировано из оригинала 5 февраля 2020 года . Проверено 8 февраля 2020 г.
  60. ^ Тален, Микаэль. «Теперь вы можете превратить себя в знаменитость всего за несколько кликов». ежедневный точка . Архивировано из оригинала 6 апреля 2020 года . Проверено 3 апреля 2020 г. .
  61. Мэтьюз, Зейн (6 марта 2020 г.). «Весело или страх: приложение Deepfake помещает лица знаменитостей на ваши селфи». Kool1079 . Архивировано из оригинала 24 марта 2020 года . Проверено 6 марта 2020 г.
  62. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли нам делать голограммы мертвых?». Новости BBC . 31 октября 2020 года. Архивировано из оригинала 15 ноября 2020 года . Проверено 11 ноября 2020 г.
  63. ^ «Канье Уэст подарил Ким Кардашьян голограмму ее отца на ее день рождения» . модемы . 30 октября 2020 года. Архивировано из оригинала 11 ноября 2020 года . Проверено 11 ноября 2020 г.
  64. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям» . adage.com . 2 октября 2020 г. Архивировано из оригинала 11 ноября 2020 г. . Проверено 11 ноября 2020 г.
  65. Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем дипфейковом представлении Metaphysical 'AGT': смотреть» . Рекламный щит . Проверено 8 ноября 2022 г.
  66. ^ "Реклама Джона Леннона «Один ноутбук на ребенка»» . YouTube .
  67. Зуккони, Алан (14 марта 2018 г.). «Понимание технологии DeepFakes». Алан Зуккони . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  68. ^ «Что такое дипфейк?». Блог — Синтез . 3 мая 2022 г. Проверено 17 мая 2022 г.
  69. ^ abcde Kan, CE (10 декабря 2018 г.). «Что, черт возьми, такое VAE-GAN?». Середина . Архивировано из оригинала 14 июля 2021 года . Проверено 8 ноября 2019 г.
  70. ^ ab «Эти новые трюки могут перехитрить дипфейковые видео — на данный момент». Проводной . ISSN  1059-1028. Архивировано из оригинала 3 октября 2019 года . Проверено 9 ноября 2019 г.
  71. Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры в эпоху дипфейков лишить людей бизнеса?» Хранитель . ISSN  0261-3077. Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  72. Верма, Праншу (21 июля 2023 г.). «Цифровые клоны, созданные с помощью технологий искусственного интеллекта, могут сделать голливудскую статистку устаревшей». Вашингтон Пост . Проверено 4 января 2024 г.
  73. ^ ab «Нейронная замена лиц с высоким разрешением для визуальных эффектов | Disney Research Studios». Архивировано из оригинала 27 ноября 2020 года . Проверено 7 октября 2020 г.
  74. ^ ab «Технологию дипфейков Диснея можно использовать в кино и на телевидении». Блулуп . 21 июля 2020 года. Архивировано из оригинала 12 ноября 2020 года . Проверено 7 октября 2020 г.
  75. Линдли, Джон А. (2 июля 2020 г.). «Дисней решается вернуть «мертвых актеров» посредством распознавания лиц». Тех Таймс . Архивировано из оригинала 14 июля 2021 года . Проверено 7 октября 2020 г.
  76. Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд стал звездой фильма «Соло: Звёздные войны. Истории» благодаря технологии дипфейков». Полигон . Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  77. ^ Виник, Эрин. «Как марионетка Кэрри Фишер сделала карьеру принцессы Леи из «Изгоя-один»». Обзор технологий Массачусетского технологического института . Архивировано из оригинала 23 октября 2019 года . Проверено 20 октября 2019 г.
  78. ^ «Deepfake Люк Скайуокер - еще один шаг на омерзительном пути компьютерной графики» . Британский журнал GQ . 10 февраля 2022 г. Проверено 3 июня 2022 г.
  79. Dazed (10 февраля 2022 г.). «Перепишут ли дипфейки историю такой, какой мы ее знаем?». Ошеломленный . Проверено 3 июня 2022 г.
  80. Шварцель, Эрих (21 декабря 2023 г.). «За созданием моего цифрового двойника искусственного интеллекта». Уолл Стрит Джорнал . Проверено 4 января 2024 г.
  81. Кофе, Патрик (18 июня 2023 г.). «Знаменитости используют ИИ, чтобы контролировать свои изображения». Уолл Стрит Джорнал . Проверено 4 января 2024 г.
  82. ^ Катерина Чижек, Уильям Уриккио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1]. Архивировано 4 марта 2020 года в Wayback Machine.
  83. ^ "ANSA | Орнелла Мути в кортометраджио во Флоренции" . 3 ноября 2017 г. Архивировано из оригинала 27 февраля 2020 г. . Проверено 27 февраля 2020 г.
  84. ^ «Создатели «Южного парка» запускают новый фейковый сатирический сериал «Нахальное правосудие»» . НМЕ . 27 октября 2020 г. Проверено 7 июня 2022 г.
  85. ^ аб Тайлер, Келли М.; Харрис, Лори А. (8 июня 2021 г.). Глубокие фейки и национальная безопасность (Доклад). Исследовательская служба Конгресса . п. 1 . Проверено 19 июля 2021 г.
  86. Лимберг, Питер (24 мая 2020 г.). «Инфляция шантажа». КультГосударство . Архивировано из оригинала 24 января 2021 года . Проверено 18 января 2021 г.
  87. ^ «Для Каппи». Телеграф . 24 мая 2020 года. Архивировано из оригинала 24 января 2021 года . Проверено 18 января 2021 г.
  88. ^ «Судьи AGT бесценно отреагировали на прослушивание пения Саймона Коуэлла» . Официальный сайт NBC Insider . 8 июня 2022 г. Проверено 29 августа 2022 г.
  89. ^ Марр, Бернард. «Может ли ИИ Метавселенной победить в талантах Америки? (И что это значит для отрасли)». Форбс . Проверено 30 августа 2022 г.
  90. Моралес, Джови (10 июня 2022 г.). «Дипфейки становятся мейнстримом: как появление AGT от Metaphysical повлияет на индустрию развлечений». МУО . Проверено 29 августа 2022 г.
  91. Картер, Ребекка (1 июня 2019 г.). «Зрители BGT раскритиковали Саймона Коуэлла за «грубое» и «неприятное» замечание в адрес участника». Развлечения Ежедневно . Проверено 31 августа 2022 г.
  92. ^ Саймон Коуэлл поет на сцене?! Метафизика лишит вас дара речи | AGT 2022 , получено 29 августа 2022 г.
  93. ^ Сегарра, Эдвард. «Судьи AGT Саймон Коуэлл и Хоуи Мэндел подвергаются «дипфейковому» обращению со стороны ИИ-акта «Метафизика»: смотрите здесь» . США СЕГОДНЯ . Проверено 31 августа 2022 г.
  94. Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем дипфейковом представлении Metaphysical 'AGT': смотреть» . Рекламный щит . Проверено 15 сентября 2022 г.
  95. Цвизен, Зак (18 января 2021 г.). «Веб-сайт позволяет заставить GLaDOS говорить все, что вы хотите» . Котаку . Архивировано из оригинала 17 января 2021 года . Проверено 18 января 2021 г.
  96. Руперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS из Portal и других любимых персонажей говорить самые странные вещи с помощью этого приложения» . Игровой информер . Игровой информер . Архивировано из оригинала 18 января 2021 года . Проверено 18 января 2021 г.
  97. Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 декламировать старые мемы с помощью этого инструмента преобразования текста в речь ИИ». ПК-геймер . Архивировано из оригинала 19 января 2021 года . Проверено 19 января 2021 г.
  98. Шерман, Мария (3 декабря 2023 г.). «Kiss попрощались с живыми гастролями, стали первой группой в США, которая перешла в виртуальный формат и стала цифровыми аватарами». АП Новости . Ассошиэйтед Пресс . Проверено 4 января 2024 г.
  99. ↑ abc Cerullo, Меган (9 января 2024 г.). «Реклама, созданная искусственным интеллектом с использованием образа Тейлор Свифт, обманывает фанатов фальшивой раздачей Le Creuset» . Новости CBS . Проверено 10 января 2024 г.
  100. ^ abcde Сюй, Тиффани; Лу, Ивэнь (9 января 2024 г.). «Нет, это не Тейлор Свифт, торгующая посудой Le Creuset». Нью-Йорк Таймс . п. Б1 . Проверено 10 января 2024 г.
  101. ^ abc Тейлор, Деррик Брайсон (2 октября 2023 г.). «Том Хэнкс предупреждает о том, что в стоматологической рекламе используется его версия с искусственным интеллектом» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 12 октября 2023 г.
  102. ^ abc Джонсон, Кирстен (11 декабря 2023 г.). «Женщина из Аризоны стала жертвой дипфейкового мошенничества с использованием знаменитостей в социальных сетях» . ABC 15 Аризона . Проверено 10 января 2024 г.
  103. ↑ Аб Кулунду, Мэри (4 января 2024 г.). «Дипфейковые видео Илона Маска, используемые в аферах с целью быстрого обогащения» . Агентство Франс-Пресс . Проверено 10 января 2024 г.
  104. Эсмаэль, Лисбет (3 января 2024 г.). «PH нуждается в многогранном подходе по сравнению с видео «дипфейками», используемыми для мошенничества с Pinoys». CNN Филиппины . Архивировано из оригинала 10 января 2024 года . Проверено 10 января 2024 г.
  105. Геркен, Том (4 октября 2023 г.). «Звезды MrBeast и BBC используются в мошеннических видеороликах» . Новости BBC . Проверено 10 января 2024 г.
  106. ↑ Аб Лим, Кимберли (29 декабря 2023 г.). «Премьер-министр Сингапура Ли предупреждает об «очень убедительных» дипфейках, «распространяющих дезинформацию» после того, как появилось фейковое видео с ним» . Южно-Китайская Морнинг Пост . Архивировано из оригинала 9 января 2024 года . Проверено 10 января 2024 г.
  107. Тейлор, Джош (30 ноября 2023 г.). «Мошенник заплатил Facebook 7 центов за просмотр, чтобы распространить видео с дипфейковым Джимом Чалмерсом и Джиной Райнхарт». Хранитель . Проверено 10 января 2024 г.
  108. Палмер, Джозеф Ольбрихт (14 декабря 2023 г.). «Подделка казначейства Австралии, которую чиновники центрального банка использовали для продвижения инвестиционного мошенничества» . Агентство Франс-Пресс . Проверено 10 января 2024 г.
  109. ^ abc Кеблер, Джейсон (9 января 2024 г.). «На YouTube широко распространена фальсифицированная реклама знаменитостей, пропагандирующая мошенничество в сфере медицинского обслуживания». 404 Медиа . Проверено 10 января 2024 г.
  110. ^ abc Rosenblatt, Калхан (3 октября 2023 г.). «MrBeast называет рекламу TikTok, показывающую его ИИ-версию, «мошенничеством»». Новости Эн-Би-Си . Проверено 10 января 2024 г.
  111. Кеблер, Джейсон (25 января 2024 г.). «YouTube удаляет 1000 видеороликов с мошеннической рекламой с использованием искусственного интеллекта знаменитостей» . 404 Медиа . Проверено 2 февраля 2024 г.
  112. Буччи, Нино (27 ноября 2023 г.). «Дик Смит раскритиковал Facebook после того, как мошенники распространили фейковую видеорекламу» . Хранитель . Проверено 10 января 2024 г.
  113. Ломас, Наташа (7 июля 2023 г.). «Мартин Льюис предупреждает о «первой» фейковой видеомошеннической рекламе, циркулирующей на Facebook» . ТехКранч . Проверено 10 января 2024 г.
  114. Лопатто, Элизабет (3 января 2024 г.). «Новое интересное последствие дипфейка: более убедительное мошенничество с криптовалютой». Грань . Проверено 10 января 2024 г.
  115. ^ Спото, Майя; Поритц, Исайя (11 октября 2023 г.). «MrBeast, Том Хэнкс уязвлен мошенничеством с искусственным интеллектом, поскольку закон спешит идти в ногу» . Закон Блумберга . Проверено 10 января 2024 г.
  116. ^ Статт, Ник (5 сентября 2019 г.). «Воры теперь используют дипфейки с использованием искусственного интеллекта, чтобы обманом заставить компании отправлять им деньги». Архивировано из оригинала 15 сентября 2019 года . Проверено 13 сентября 2019 г.
  117. ^ Дамиани, Джесси. «Голосовой дипфейк был использован, чтобы обмануть генерального директора на 243 000 долларов» . Форбс . Архивировано из оригинала 14 сентября 2019 года . Проверено 9 ноября 2019 г.
  118. ^ Шварц, Кристофер; Райт, Мэтью (17 марта 2023 г.). «Звонят голосовые дипфейки – вот что это такое и как не попасться на мошенничество». Разговор .
  119. C, Ким (22 августа 2020 г.). «Танец с гробом и многое другое: музыкальные мемы 2020 года». Музыкальные времена . Архивировано из оригинала 26 июня 2021 года . Проверено 26 августа 2020 г.
  120. Шолигин, Ильяс (7 августа 2020 г.). «Кто-то подделал сингапурских политиков, чтобы синхронизировать по губам эту японскую песню-мем». АзияОдин . Архивировано из оригинала 3 сентября 2020 года . Проверено 26 августа 2020 г.
  121. Романо, Ая (18 апреля 2018 г.). «Имитация PSA Джордана Пила — это обоюдоострое предупреждение против фейковых новостей». Вокс . Архивировано из оригинала 11 июня 2019 года . Проверено 10 сентября 2018 г.
  122. ^ abcd «Венн Меркель plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos» . az Aargauer Zeitung. 3 февраля 2018 года. Архивировано из оригинала 13 апреля 2019 года . Проверено 9 апреля 2018 г.
  123. ^ Генсинг, Патрик. «Deepfakes: Auf dem Weg в альтернативной реальности?». Архивировано из оригинала 11 октября 2018 года . Проверено 9 апреля 2018 г.
  124. Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал сфальсифицированную запись речи Трампа в Овальном кабинете. Сотрудник был уволен». Вашингтон Пост . Архивировано из оригинала 15 апреля 2019 года . Проверено 11 января 2019 г.
  125. ^ О'Салливан, Дони (4 июня 2019 г.). «Конгресс расследует дипфейки, поскольку подделанное видео Пелоси вызывает переполох» . CNN . Архивировано из оригинала 29 июня 2019 года . Проверено 9 ноября 2019 г.
  126. ^ "#TellTheTruthБельгия" . Восстание вымирания в Бельгии . Архивировано из оригинала 25 апреля 2020 года . Проверено 21 апреля 2020 г.
  127. Голубович, Джеральд (15 апреля 2020 г.). «Восстание вымирания в мире дипфейков». Журналистика.дизайн (на французском языке). Архивировано из оригинала 29 июля 2020 года . Проверено 21 апреля 2020 г.
  128. Карнахан, Дастин (16 сентября 2020 г.). «Фальшивые видео укрепляют ложные представления о психическом здоровье Байдена». Разговор . Проверено 9 апреля 2022 г.
  129. Паркер, Эшли (7 сентября 2020 г.). «Трамп и его союзники наращивают усилия по распространению дезинформации и фейковых новостей» . Независимый . Проверено 9 апреля 2022 г.
  130. Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что стали свидетелями первого использования дипфейков в избирательной кампании в Индии». Порок . Архивировано из оригинала 19 февраля 2020 года . Проверено 19 февраля 2020 г.
  131. ^ «Амаби: мифическое существо, возвращающее коронавирус» . Экономист . 28 апреля 2020 г. ISSN  0013-0613. Архивировано из оригинала 20 мая 2021 года . Проверено 3 июня 2021 г.
  132. Рот, Эндрю (22 апреля 2021 г.). «Европейские депутаты подверглись фейковым видеозвонкам, имитирующим российскую оппозицию». Хранитель . Проверено 29 марта 2022 г.
  133. ^ Иванов, Максим; Ротрок, Кевин (22 апреля 2021 г.). «Здравствуйте, это Леонид Волков*. Используя дипфейковые видео и выдавая себя за правую руку Навального, российские шутники обманывают латвийских политиков и журналистов, заставляя их приглашать и давать телеинтервью». Медуза . Проверено 29 марта 2022 г.
  134. ^ "Голландские депутаты на видеоконференции с глубокой фейковой имитацией главы администрации Навального" . НЛ Таймс . 24 апреля 2021 г. Проверено 29 марта 2022 г.
  135. ^ «Помощник Навального 'Deepfake' нацелен на европейских законодателей» . Московская Таймс . 23 апреля 2021 г. Проверено 29 марта 2022 г.
  136. Винсент, Джеймс (30 апреля 2021 г.). «Дипфейк, который якобы обманул европейских политиков, был всего лишь двойником, говорят шутники». Грань .
  137. Новак, Мэтт (8 мая 2023 г.). «Вирусное видео, на котором Камала Харрис говорит тарабарщину, на самом деле является дипфейком» . Форбс .
  138. ^ «PolitiFact - Камала Харрис не говорила невнятно о сегодняшнем, вчерашнем или завтрашнем дне. Это видео изменено» . Политифакт .
  139. Шухам, Мэтт (8 июня 2023 г.). «Реклама предвыборной кампании ДеСантиса показывает фальшивые изображения искусственного интеллекта, на которых Трамп обнимает Фаучи» . ХаффПост . Проверено 8 июня 2023 г.
  140. ^ Аб Реттгерс, Янко (21 февраля 2018 г.). «Порнопродюсеры предлагают помочь Голливуду удалить дипфейковые видео». Разнообразие . Архивировано из оригинала 10 июня 2019 года . Проверено 28 февраля 2018 г.
  141. ^ abc Диксон, EJ (7 октября 2019 г.). «Дипфейковое порно по-прежнему представляет угрозу, особенно для звезд K-Pop». Катящийся камень . Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  142. ^ «Состояние дипфейков – ландшафт, угрозы и влияние» (PDF) . Диптрейс . 1 октября 2019 г. Архивировано (PDF) из оригинала 9 августа 2020 г. . Проверено 7 июля 2020 г.
  143. Гоггин, Бенджамин (7 июня 2019 г.). «От порно к «Игре престолов»: как дипфейки и реалистично выглядящие фейковые видеоролики стали популярными». Бизнес-инсайдер . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  144. Ли, Дэйв (3 февраля 2018 г.). «Фейковое порно имеет серьезные последствия». Архивировано из оригинала 1 декабря 2019 года . Проверено 9 ноября 2019 г.
  145. ↑ Аб Коул, Саманта (19 июня 2018 г.). «Решение Gfycat на основе искусственного интеллекта для борьбы с дипфейками не работает» . Порок . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  146. ^ Зои, Френи (24 ноября 2019 г.). «Глубокое фейковое порно никуда не денется» . Середина . Архивировано из оригинала 10 декабря 2019 года . Проверено 10 декабря 2019 г.
  147. ^ Аб Коул, Саманта; Майберг, Эмануэль; Кеблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши». Порок . Архивировано из оригинала 2 июля 2019 года . Проверено 2 июля 2019 г.
  148. Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Вице Медиа . Архивировано из оригинала 24 сентября 2020 года . Проверено 14 июля 2019 г.
  149. ^ "pic.twitter.com/8uJKBQTZ0o" . 27 июня 2019 года. Архивировано из оригинала 6 апреля 2021 года . Проверено 3 августа 2019 г.
  150. ^ Дамиани, Джесси. «Китайское приложение-дипфейк Zao становится вирусным и сразу же сталкивается с критикой по поводу пользовательских данных и политики безопасности» . Форбс . Архивировано из оригинала 14 сентября 2019 года . Проверено 18 ноября 2019 г.
  151. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против видео с дипфейками» . Независимый.т.е . 7 января 2020 года. Архивировано из оригинала 8 января 2020 года . Проверено 7 января 2020 г.
  152. ^ «Как бельгийский визуальный эксперт Крис Уме придумал дипфейки Тома Круза» . Государственный деятель . 6 марта 2021 г. Проверено 24 августа 2022 г.
  153. ^ Мец, Рэйчел. «Как дипфейк Тома Круза в TikTok превратился в настоящую компанию по искусственному интеллекту». CNN .
  154. ^ Коркоран, Марк; Генри, Мэтт (23 июня 2021 г.). «Это не Том Круз. Вот что так беспокоит экспертов по безопасности». Новости АВС . Проверено 28 марта 2022 г.
  155. ^ Reuters, 15 июля 2020 г., Deepfake, использованный для нападения на активистскую пару, показывает новый рубеж дезинформации. Архивировано 26 сентября 2020 г. на Wayback Machine.
  156. ^ Журнал 972, 12 августа 2020 г., «Левые за Биби»? Разоблачена пропаганда Deepfake в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что ни один из людей в Вопрос существует». Архивировано 14 августа 2020 г. на Wayback Machine.
  157. «Седьмой глаз», 9 июня 2020 г., הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזו יפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקר Архивировано 18 августа 2020 года на Wayback Machine .
  158. ^ «Вооруженные дипфейки: национальная безопасность и демократия на JSTOR» . www.jstor.org . Архивировано из оригинала 22 октября 2020 года . Проверено 21 октября 2020 г.
  159. ^ Ваккари, Кристиан; Чедвик, Эндрю (январь 2020 г.). «Дипфейки и дезинформация: изучение влияния синтетического политического видео на обман, неопределенность и доверие к новостям». Социальные сети + Общество . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  160. ^ ab «Идеальная технология Deepfake может появиться раньше, чем ожидалось» . www.wbur.org . 2 октября 2019 года. Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  161. ^ Зоннемакер, Тайлер. «Пока платформы социальных сетей готовятся к наступающей волне дипфейков, бывший «царь мошенничества» Google предсказывает, что самая большая опасность заключается в том, что дипфейки со временем станут скучными». Бизнес-инсайдер . Архивировано из оригинала 14 апреля 2021 года . Проверено 14 апреля 2021 г.
  162. ^ abc Бейтман, Джон (2020). "Краткое содержание". Дипфейки и синтетические медиа в финансовой системе : 1–2. Архивировано из оригинала 20 апреля 2021 года . Проверено 28 октября 2020 г.
  163. Келион, Лев (сентябрь 2020 г.). «Инструмент обнаружения Deepfake, представленный Microsoft». Новости BBC . Архивировано из оригинала 14 апреля 2021 года . Проверено 15 апреля 2021 г.
  164. ^ Фэган, Кейли. «Вирусное видео, на котором видно, как Обама называет Трампа «отморозком», демонстрирует тревожную новую тенденцию, называемую «дипфейками»». Бизнес-инсайдер . Архивировано из оригинала 22 сентября 2020 года . Проверено 3 ноября 2020 г. .
  165. ^ ab «Рост дипфейков и угроза демократии». Хранитель . Архивировано из оригинала 1 ноября 2020 года . Проверено 3 ноября 2020 г. .
  166. ^ ab «В социальных сетях распространяются изображения ареста Трампа, созданные искусственным интеллектом» . АП Новости. 21 марта 2023 г. Проверено 10 октября 2023 г.
  167. ^ «Трамп делится фейковой фотографией, на которой он молится, в то время как изображения ареста, сделанные искусственным интеллектом, распространяются в Интернете» . Независимый . 24 марта 2023 г. Проверено 16 июня 2023 г.
  168. ^ Тауэрс-Кларк, Чарльз. «Мона Лиза и Нэнси Пелоси: последствия дипфейков». Форбс . Архивировано из оригинала 23 ноября 2020 года . Проверено 7 октября 2020 г.
  169. ^ «В чем разница между Deepfake и Shallowfake?». 21 апреля 2020 года. Архивировано из оригинала 26 июня 2022 года . Проверено 5 декабря 2021 г.
  170. ^ abc «Deepfake Путин здесь, чтобы предупредить американцев об их собственной гибели». Обзор технологий Массачусетского технологического института . Архивировано из оригинала 30 октября 2020 года . Проверено 7 октября 2020 г.
  171. Зонне, Пол (5 июня 2023 г.). «В России транслируется фейковая речь Путина с призывом к введению военного положения» . Нью-Йорк Таймс . Проверено 6 июня 2023 г.
  172. Аллин, Бобби (16 марта 2022 г.). «Дипфейк-видео Зеленского может оказаться «верхушкой айсберга» в информационной войне, - предупреждают эксперты». ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Проверено 17 марта 2022 г.
  173. ^ Сатариано, Адам; Мозур, Пол (7 февраля 2023 г.). «Люди на экране фальшивые. Дезинформация реальна». Нью-Йорк Таймс .
  174. ^ «Папа Франциск в дипфейке Balenciaga обманывает миллионы: 'Определенно страшно'» . Нью-Йорк Пост . 28 марта 2023 г. Проверено 16 июня 2023 г.
  175. Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ». Хранитель . Проверено 16 июня 2023 г.
  176. Мерфи, Хизер Тал (29 марта 2023 г.). «Папа в пальто не из святилища». Сланец . Проверено 16 июня 2023 г.
  177. ^ «Женщина в дипфейковом видео с лицом Рашмики Манданны нарушает молчание: я глубоко обеспокоена и расстроена происходящим» . Таймс оф Индия . 9 ноября 2023 г. ISSN  0971-8257 . Проверено 23 ноября 2023 г.
  178. ^ abcd «Помогите нам сформировать наш подход к синтетическим и манипулируемым медиа». блог.twitter.com . Архивировано из оригинала 28 октября 2020 года . Проверено 7 октября 2020 г.
  179. ^ "ТехКранч". ТехКранч . 11 ноября 2019 г. Архивировано из оригинала 14 июля 2021 г. Проверено 7 октября 2020 г.
  180. ^ ab «Результаты задачи по обнаружению Deepfake: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Архивировано из оригинала 29 октября 2020 года . Проверено 7 октября 2020 г.
  181. ^ аб Пол, Кэти (4 февраля 2020 г.). «Твиттер для маркировки дипфейков и других вводящих в заблуждение средств массовой информации» . Рейтер . Архивировано из оригинала 10 октября 2020 года . Проверено 7 октября 2020 г.
  182. ^ Коэн, Ариэль; Римон, Инбал; Афлало, Эран; Пермутер, Хаим Х. (июнь 2022 г.). «Исследование увеличения данных в борьбе с подделкой голоса». Речевое общение . 141 : 56–67. arXiv : 2110.10491 . doi :10.1016/j.specom.2022.04.005. S2CID  239050551.
  183. ^ abc Манке, Кара (18 июня 2019 г.). «Исследователи используют черты лица, чтобы разоблачить «дипфейки»». Новости Беркли . Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  184. ^ Фарид, Хани (1 декабря 2006 г.). «Цифровое врачевание: как отличить настоящее от подделки». Значение . 3 (4): 162–166. дои : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  185. ^ «Присоединяйтесь к конкурсу по обнаружению дипфейков (DFDC)» . deepfakedetectionchallenge.ai. Архивировано из оригинала 12 января 2020 года . Проверено 8 ноября 2019 г.
  186. ^ «Результаты задачи по обнаружению Deepfake: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Проверено 30 сентября 2022 г.
  187. ^ Гро, Мэтью; Эпштейн, Зив; Файерстоун, Чаз; Пикард, Розалинда (2022). «Обнаружение дипфейков толпами людей, машин и толп, информированных машинами». Труды Национальной академии наук . 119 (1). arXiv : 2105.06496 . Бибкод : 2022PNAS..11910013G. дои : 10.1073/pnas.2110013119 . ПМЦ 8740705 . ПМИД  34969837. 
  188. ^ Ху, Шу; Ли, Юэцзун; Лю, Сивэй (12 октября 2020 г.). «Экспонирование лиц, сгенерированных GAN, с использованием непоследовательных бликов роговицы». arXiv : 2009.11924 [cs.CV].
  189. ^ Богачек, М; Фарид, Х. (29 ноября 2022 г.). «Защита мировых лидеров от глубоких фейков с использованием мимики, жестов и голосовых манер». Труды Национальной академии наук Соединенных Штатов Америки . 119 (48): e2216035119. Бибкод : 2022PNAS..11916035B. дои : 10.1073/pnas.2216035119 . ПМЦ 9860138 . ПМИД  36417442. 
  190. ^ ab "Академия Google". ученый.google.com . Проверено 30 апреля 2022 г.
  191. ^ ab «Двухветвевая рекуррентная сеть для изоляции дипфейков в видео». ученый.google.com . Проверено 30 апреля 2022 г.
  192. ^ abc «Блокчейн-решение наших проблем с дипфейками». Проводной . ISSN  1059-1028. Архивировано из оригинала 7 ноября 2019 года . Проверено 9 ноября 2019 г.
  193. ^ аб Летару, Калев. «Почему цифровые подписи не предотвратят глубокие фейки, но помогут репрессивным правительствам». Форбс . Архивировано из оригинала 14 апреля 2021 года . Проверено 17 февраля 2021 г.
  194. ^ «Чтобы раскрыть фейковый видеозвонок, попросите звонящего повернуться боком» . Метафизика . 8 августа 2022 г. Проверено 24 августа 2022 г.
  195. ↑ Аб Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фейкового видео». Порок . Архивировано из оригинала 12 октября 2019 года . Проверено 9 ноября 2019 г.
  196. ^ abc Коул, Саманта (6 февраля 2018 г.). «Pornhub запрещает фальшивые порновидео, созданные искусственным интеллектом, и утверждает, что они не согласованы» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 9 ноября 2019 г.
  197. ↑ Аб Коул, Саманта (31 января 2018 г.). «Создатели фейкового порно, созданные искусственным интеллектом, были изгнаны со своего любимого ведущего» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 18 ноября 2019 г.
  198. ↑ Аб Коул, Саманта (6 февраля 2018 г.). «Twitter — новейшая платформа для запрета порнографии, созданной искусственным интеллектом». Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  199. Коул, Саманта (11 декабря 2017 г.). «Фейковое порно с помощью искусственного интеллекта уже здесь, и мы все облажались» . Порок . Архивировано из оригинала 7 сентября 2019 года . Проверено 19 декабря 2018 г.
  200. Бём, Маркус (7 февраля 2018 г.). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Шпигель онлайн . Архивировано из оригинала 23 сентября 2019 года . Проверено 9 ноября 2019 г.
  201. ^ barbara.wimmer (8 февраля 2018 г.). «Deepfakes: Reddit löscht Forum for künstlich Generierte Fake-Pornos». Futurezone.at (на немецком языке). Архивировано из оригинала 8 февраля 2018 года . Проверено 9 ноября 2019 г.
  202. ^ "Deepfakes: Auch Reddit verbannt Fake-Porn" . heise онлайн (на немецком языке). 8 февраля 2018 г. Архивировано из оригинала 10 апреля 2019 г. . Проверено 9 ноября 2019 г.
  203. ^ "Раскрытие Reddit Deepfake-Pornos - derStandard.de" . DER STANDARD (на австрийском немецком языке). Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  204. Робертсон, Ади (7 февраля 2018 г.). «Reddit запрещает «дипфейковые» порносообщества с искусственным интеллектом» . Грань . Архивировано из оригинала 24 сентября 2019 года . Проверено 9 ноября 2019 г.
  205. Прайс, Роб (27 января 2018 г.). «Discord только что закрыл чат-группу, посвященную обмену порновидео, отредактированными с помощью искусственного интеллекта и включающим знаменитостей». Бизнес-инсайдер Австралии . Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  206. ^ «Twitter запрещает дипфейковое порно, созданное искусственным интеллектом» . Engadget . 20 июля 2019 года. Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  207. ^ Аб Харрелл, Дрю. «Фейковые порновидео используются для преследования и унижения женщин: «Каждый является потенциальной мишенью»». Вашингтон Пост . Архивировано из оригинала 2 января 2019 года . Проверено 1 января 2019 г.
  208. ^ Берес, Дэймон; Гилмер, Маркус (2 февраля 2018 г.). «Руководство по «дипфейкам», последнему моральному кризису в Интернете». Машаемый . Архивировано из оригинала 9 декабря 2019 года . Проверено 9 ноября 2019 г.
  209. ^ ab «Facebook пообещал оставить дипфейковое видео Марка Цукерберга» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 16 октября 2019 года . Проверено 9 ноября 2019 г.
  210. ^ Андерсон, Мартин (2022). Google запретил обучение дипфейков в Colab. Архивировано 30 мая 2022 г. на Wayback Machine , Unite.ai, 28 мая 2022 г.
  211. ^ Майберг, Эмануэль (2022). Требуется 2 клика, чтобы перейти от «Глубокого Тома Круза» к мерзкому дипфейковому порно. Архивировано 30 мая 2022 года на Wayback Machine , VICE, 17 мая 2022 года.
  212. Сасс, Бен (21 декабря 2018 г.). «S. 3805–115-й Конгресс (2017–2018 гг.): Закон о запрете злонамеренных глубоких фейков 2018 года». www.congress.gov . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  213. ^ «Порноместь 'Deepfake' теперь незаконно в Вирджинии» . ТехКранч . Июль 2019. Архивировано из оригинала 14 июля 2021 года . Проверено 16 октября 2019 г.
  214. Яконо Браун, Нина (15 июля 2019 г.). «Конгресс хочет раскрыть дипфейки к 2020 году. Это должно нас беспокоить». Журнал «Сланец» . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  215. ^ ab «Текст законопроекта - AB-602 Изображение человека, использующего цифровые или электронные технологии: материалы откровенно сексуального характера: причина иска» . leginfo.legislature.ca.gov . Архивировано из оригинала 17 ноября 2019 года . Проверено 9 ноября 2019 г.
  216. ^ ab «Текст законопроекта - Выборы AB-730: вводящие в заблуждение аудио или визуальные средства массовой информации» . leginfo.legislature.ca.gov . Архивировано из оригинала 31 октября 2019 года . Проверено 9 ноября 2019 г.
  217. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента» . Reuters.com . Рейтер . 29 ноября 2019 года. Архивировано из оригинала 17 декабря 2019 года . Проверено 17 декабря 2019 г.
  218. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без раскрытия». Грань . Архивировано из оригинала 22 декабря 2019 года . Проверено 17 декабря 2019 г.
  219. Призыв к законопроекту об апскирте, включающему запрет на «дипфейковую» порнографию. Архивировано 21 июня 2018 года в Wayback Machine The Guardian.
  220. ^ [2] Архивировано 22 ноября 2019 г. в Wayback Machine , см. стр. 18.
  221. Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году». Федеральные выборы 2019 . Архивировано из оригинала 27 января 2020 года . Проверено 28 января 2020 г.
  222. ^ «Что может сделать закон с Deepfake» . Mcmillan.ca . Архивировано из оригинала 7 декабря 2019 года . Проверено 28 января 2020 г.
  223. Венкатасубббу, Сатиш (27 июня 2023 г.). «Как дипфейки используются для мошенничества с вами и мной? Текущие тенденции в обнаружении с использованием искусственного интеллекта и правовые нормы во всем мире». кибермитра.в . Проверено 3 июля 2023 г.
  224. ^ «Военные США финансируют усилия по обнаружению дипфейков и других уловок искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 1 ноября 2020 года . Проверено 7 октября 2020 г.
  225. ^ ab «DARPA решает проблему дипфейков» . Nextgov.com . 6 августа 2019 года. Архивировано из оригинала 28 октября 2020 года . Проверено 7 октября 2020 г.
  226. ^ "СМИ-криминалистика". www.darpa.mil . Архивировано из оригинала 29 октября 2020 года . Проверено 7 октября 2020 г.
  227. ^ "Пикапер". База данных спекулятивной фантастики в Интернете . Архивировано из оригинала 29 июля 2020 года . Проверено 9 июля 2019 г.
  228. ^ Керр, Филип (2010). Философское исследование . Национальные географические книги. ISBN 978-0143117537.
  229. Берналь, Наташа (8 октября 2019 г.). «Тревожная правда о «Захвате» и дипфейках из реальной жизни». Телеграф . Архивировано из оригинала 14 октября 2019 года . Проверено 24 октября 2019 г.
  230. Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажениях и двуличности». Ирландские Таймс . Архивировано из оригинала 9 сентября 2019 года . Проверено 24 октября 2019 г.
  231. ^ «ESPN Films Последние 30 из 30 документальных фильмов « Эл Дэвис против НФЛ», премьера которых состоится 4 февраля» (пресс-релиз). ЭСПН. 15 января 2021 года. Архивировано из оригинала 6 февраля 2021 года . Проверено 5 февраля 2021 г.
  232. ^ Спрунг, Шломо (1 февраля 2021 г.). «Документальный фильм ESPN «Эл Дэвис против НФЛ» использует технологию Deepfake, чтобы вернуть к жизни владельца покойных рейдеров» . Форбс . Архивировано из оригинала 14 апреля 2021 года . Проверено 4 февраля 2021 г.
  233. ^ «Хадсон и Рекс».
  234. ↑ Аб Вуд, Микаэль (9 мая 2022 г.). «Смотрите, как Кендрик Ламар превращается в О Джея, Канье, Коби, Нипси Хассла в новом видео» . Лос-Анджелес Таймс . Проверено 10 мая 2022 г.
  235. Aloe Blacc - Wake Me Up (Universal Language Mix) , получено 24 августа 2022 г.
  236. ^ «Посмотрите, как Алоэ Блэк исполняет «Wake Me Up» на трех языках в честь Авичи, используя перевод Respeecher AI» . Voicebot.ai . 5 мая 2022 г. Проверено 24 августа 2022 г.
  237. Лис, Доминик (27 января 2023 г.). «Deep Fake Neighbor Wars: комедия ITV показывает, как искусственный интеллект может изменить популярную культуру». Разговор . Проверено 3 июля 2023 г.

дальнейшее чтение

Внешние ссылки