stringtranslate.com

Дипфейк

Дипфейки ( сочетание « глубокого обучения » и «фейка» [1] ) — это синтетические носители информации [2] , которые подвергаются цифровым манипуляциям с целью убедительной замены сходства одного человека на сходство другого. Дипфейки — это манипуляции внешним видом лица с помощью глубоких генеративных методов. [3] Хотя создание фейкового контента не является чем-то новым, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для манипулирования или создания визуального и аудиоконтента, который легче обмануть. [4] [5] Основные методы машинного обучения, используемые для создания дипфейков, основаны на глубоком обучении и включают обучение архитектур генеративных нейронных сетей , таких как автоэнкодеры , [4] или генеративно-состязательные сети (GAN). [6] [7] В свою очередь, область криминалистики изображений разрабатывает методы обнаружения манипулируемых изображений . [8]

Дипфейки привлекли широкое внимание из-за их потенциального использования в создании материалов о сексуальном насилии над детьми , порнографических видеороликах со знаменитостями , порномести , фейковых новостях , мистификациях , издевательствах и финансовом мошенничестве . [9] [10] [11] [12] Распространение дезинформации и разжигания ненависти посредством дипфейков может подорвать основные функции и нормы демократических систем, мешая людям участвовать в принятии решений, которые их затрагивают, определять коллективные программы и выражать политическую волю посредством принятия обоснованных решений. [13] Это вызвало реакцию как промышленности, так и правительства, направленную на обнаружение и ограничение их использования. [14] [15]

От традиционных развлечений к играм технология дипфейков развивалась и становилась все более убедительной [16] и доступной для общественности, что позволило революционизировать индустрию развлечений и медиа . [17]

История

Портрет актрисы Сидни Суини, созданный Stable Diffusion

Фотоманипуляция была разработана в 19 веке и вскоре применена к кинофильмам. Технологии неуклонно совершенствовались в течение 20-го века, и еще быстрее с появлением цифрового видео .

Технология Deepfake разрабатывалась исследователями академических учреждений, начиная с 1990-х годов, а затем любителями в интернет-сообществах. [18] [19] Совсем недавно эти методы были приняты промышленностью. [20]

Академическое исследование

Академические исследования, связанные с дипфейками, разделены между областью компьютерного зрения , подобластью компьютерных наук, [18] которая разрабатывает методы создания и идентификации дипфейков, а также подходами гуманитарных и социальных наук, которые изучают социальные, этические и эстетические последствия дипфейков. дипфейки.

Социально-гуманитарные подходы к дипфейкам

В исследованиях кино дипфейки демонстрируют, как «человеческое лицо становится центральным объектом амбивалентности в эпоху цифровых технологий». [21] Видеохудожники использовали дипфейки, чтобы «игриво переписать историю кино, дооснащая каноническое кино новыми звездными исполнителями». [22] Киновед Кристофер Холлидей анализирует, как смена пола и расы исполнителей в знакомых сценах фильмов дестабилизирует гендерные классификации и категории. [22] Идея « квиринговых » дипфейков также обсуждается Оливером М. Гингричем в обсуждении медиа-произведений, использующих дипфейки для переосмысления гендера, [23] включая работу британского художника Джейка Элвеса « Зизи: Queering the Dataset» , произведение искусства, в котором используются дипфейки трансвеститы намеренно играют с полом. Эстетический потенциал дипфейков также начинает исследоваться. Историк театра Джон Флетчер отмечает, что ранние демонстрации дипфейков представляют собой спектакли, и помещает их в контекст театра, обсуждая «некоторые из наиболее тревожных сдвигов парадигмы», которые дипфейки представляют собой жанр перформанса. [24]

Философы и исследователи медиа обсуждали этику дипфейков, особенно в отношении порнографии. [25] Медиа-исследователь Эмили ван дер Нагель опирается на исследования фотографий, посвященных манипулированию изображениями, для обсуждения систем проверки, которые позволяют женщинам давать согласие на использование их изображений. [26]

Помимо порнографии, философы называют дипфейки «эпистемической угрозой» знаниям и, следовательно, обществу. [27] Есть несколько других предложений о том, как бороться с рисками «эксплуатации, запугивания и личного саботажа», которые создают дипфейки не только для порнографии, но и для корпораций, политиков и других лиц, [28] и существует несколько научных дискуссий. потенциальных правовых и нормативных мер как в юридических исследованиях, так и в исследованиях средств массовой информации. [29] В исследованиях в области психологии и средств массовой информации ученые обсуждают последствия дезинформации с использованием дипфейков, [30] [31] и социальное воздействие дипфейков. [32]

В то время как большинство англоязычных академических исследований дипфейков сосредоточено на опасениях Запада по поводу дезинформации и порнографии, цифровой антрополог Габриэле де Сета проанализировала китайское восприятие дипфейков, известных как хуанлянь , что переводится как «меняющееся лицо». Китайский термин не содержит «подделки» английского deepfake, и де Сета утверждает, что этот культурный контекст может объяснить, почему реакция Китая была больше связана с практическими регулятивными ответами на «риски мошенничества, права на имидж, экономическую прибыль и этический дисбаланс». ". [33]

Компьютерные исследования дипфейков

Ранним знаковым проектом была программа Video Rewrite, опубликованная в 1997 году, которая модифицировала существующие видеозаписи говорящего человека, чтобы изобразить, как этот человек произносит слова, содержащиеся в другой звуковой дорожке. [34] Это была первая система, которая полностью автоматизировала такого рода реанимацию лица, и она делала это с использованием методов машинного обучения, чтобы установить связь между звуками, издаваемыми объектом видео, и формой лица субъекта. [34]

Современные академические проекты сосредоточены на создании более реалистичных видеороликов и совершенствовании методов. [35] [36] Программа «Синтезируя Обаму», опубликованная в 2017 году, модифицирует видеозапись бывшего президента Барака Обамы , чтобы показать, как он произносит слова, содержащиеся в отдельной аудиодорожке. [35] В качестве основного исследовательского вклада в проекте указана фотореалистичная техника синтеза формы рта из аудио. [35] Программа Face2Face, опубликованная в 2016 году, изменяет видеозапись лица человека, изображая его имитирующим выражение лица другого человека в реальном времени. [36] В качестве основного исследовательского вклада в проекте указан первый метод воспроизведения выражений лица в реальном времени с использованием камеры, которая не фиксирует глубину, что позволяет реализовать эту технику с использованием обычных потребительских камер. [36]

В августе 2018 года исследователи из Калифорнийского университета в Беркли опубликовали статью, в которой представили фальшивое танцевальное приложение, которое может создавать впечатление мастерских танцевальных способностей с помощью искусственного интеллекта. [37] Этот проект расширяет возможности применения дипфейков ко всему телу; предыдущие работы были сосредоточены на голове или частях лица. [38]

Исследователи также показали, что дипфейки распространяются и на другие области, например, подделку медицинских изображений. [39] В этой работе было показано, как злоумышленник может автоматически ввести или удалить рак легких на 3D-КТ пациента . Результат был настолько убедительным, что обманул трех рентгенологов и современный искусственный интеллект для обнаружения рака легких. Чтобы продемонстрировать угрозу, авторы успешно осуществили атаку на больницу в ходе теста на проникновение White Hat . [40]

Обзор дипфейков, опубликованный в мае 2020 года, дает представление о том, как продвинулись в создании и обнаружении дипфейков за последние несколько лет. [41] Исследование показывает, что исследователи сосредоточили внимание на решении следующих проблем, связанных с созданием дипфейков:

В целом ожидается, что дипфейки будут иметь ряд последствий в средствах массовой информации и обществе, производстве средств массовой информации, репрезентациях в средствах массовой информации, аудитории средств массовой информации, гендере, законодательстве и регулировании, а также политике. [42]

Любительская разработка

Термин «дипфейки» возник примерно в конце 2017 года пользователем Reddit по имени «deepfakes». [43] Он, как и другие участники сообщества Reddit r/deepfakes, поделился созданными ими дипфейками; во многих видеороликах лица знаменитостей заменены на тела актрис в порнографических видеороликах, [43] в то время как непорнографический контент включает множество видеороликов, в которых лицо актера Николаса Кейджа заменено в различных фильмах. [44]

Другие интернет-сообщества остаются, в том числе сообщества Reddit, которые не делятся порнографией, такие как r/SFWdeepfakes (сокращение от «безопасные для работы дипфейки»), в которых члены сообщества делятся дипфейками, изображающими знаменитостей, политиков и других лиц в непорнографических сценариях. [45] Другие онлайн-сообщества продолжают делиться порнографией на платформах, которые не запретили дипфейк-порнографию. [46]

Коммерческое развитие

В январе 2018 года было запущено фирменное десктопное приложение FakeApp. [47] Это приложение позволяет пользователям легко создавать и обмениваться видео, поменяв лица друг друга. [48] ​​По состоянию на 2019 год FakeApp был заменен альтернативами с открытым исходным кодом, такими как Faceswap, DeepFaceLab на основе командной строки и веб-приложениями, такими как DeepfakesWeb.com [49] [50] [51]

Более крупные компании начали использовать дипфейки. [20] Корпоративные обучающие видеоролики можно создавать с использованием дипфейковых аватаров и их голосов, например Synthesia, которая использует технологию дипфейков с аватарами для создания персонализированных видеороликов. [52] Гигант мобильных приложений Momo создал приложение Zao, которое позволяет пользователям накладывать свое лицо на телепередачи и видеоклипы на одно изображение. [20] По состоянию на 2019 год японская компания DataGrid, занимающаяся искусственным интеллектом, создала дипфейк в полный рост, который мог бы создать человека с нуля. [53] Они намерены использовать их для моды и одежды.

По состоянию на 2020 год также существуют аудиодипфейки и программное обеспечение искусственного интеллекта, способное обнаруживать дипфейки и клонировать человеческие голоса после 5 секунд прослушивания. [54] [55] [56] [57] [58] [59] Мобильное приложение для дипфейков Impressions было запущено в марте 2020 года. Это было первое приложение для создания дипфейк-видео знаменитостей с мобильных телефонов. [60] [61]

Воскрешение

Технологию дипфейков можно использовать не только для фабрикации сообщений и действий других людей, но и для оживления умерших людей. 29 октября 2020 года Ким Кардашьян опубликовала видео своего покойного отца Роберта Кардашьян ; Лицо в видео Роберта Кардашьян было создано с помощью технологии deepfake. [62] Голограмма была создана компанией Kaleida, которая при создании голограммы использовала комбинацию технологий Performance, Motion Tracking, SFX, VFX и DeepFake . [63]

В 2020 году в рамках кампании по безопасности оружия было создано дипфейковое видео Хоакина Оливера, жертвы стрельбы в Паркленде . Родители Оливера в партнерстве с некоммерческой организацией Change the Ref и McCann Health создали видео, в котором Оливер призывает людей поддержать закон о безопасности оружия, а также политиков, которые поддерживают его. [64]

В 2022 году дипфейковое видео Элвиса Пресли было использовано в программе America's Got Talent 17 . [65]

В телевизионной рекламе использовалось фейковое видео участника группы «Битлз» Джона Леннона , убитого в 1980 году. [66]

Техники

Дипфейки полагаются на тип нейронной сети, называемый автокодировщиком . [7] [67] Они состоят из кодера, который сводит изображение к скрытому пространству меньшей размерности , и декодера, который восстанавливает изображение из скрытого представления. [68] Дипфейки используют эту архитектуру, имея универсальный кодировщик, который кодирует человека в скрытое пространство. [69] Скрытое представление содержит ключевые особенности черт лица и позы тела. Затем это можно декодировать с помощью модели, специально обученной для целевой цели. [7] Это означает, что подробная информация о цели будет наложена на основные черты лица и тела исходного видео, представленные в скрытом пространстве. [7]

Популярное обновление этой архитектуры присоединяет к декодеру генеративно-состязательную сеть . [69] GAN обучает генератор, в данном случае декодер, и дискриминатор в состязательных отношениях . [69] Генератор создает новые изображения из скрытого представления исходного материала, в то время как дискриминатор пытается определить, сгенерировано ли изображение. [69] Это заставляет генератор создавать изображения, которые очень хорошо имитируют реальность, поскольку любые дефекты будут обнаружены дискриминатором. [70] Оба алгоритма постоянно совершенствуются в игре с нулевой суммой . [69] Это затрудняет борьбу с дипфейками, поскольку они постоянно развиваются; в любой момент, когда обнаружен дефект, его можно исправить. [70]

Приложения

Действующий

Цифровые клоны профессиональных актеров и раньше появлялись в фильмах , и ожидается, что прогресс в технологии дипфейков повысит доступность и эффективность таких клонов. [71] Использование технологии искусственного интеллекта было серьезной проблемой во время забастовки SAG-AFTRA в 2023 году , поскольку новые методы позволили создавать и хранить цифровые изображения для использования вместо актеров. [72]

Disney улучшила свои визуальные эффекты, используя технологию замены лиц в высоком разрешении. [73] Disney улучшила свою технологию посредством прогрессивного обучения, запрограммированного на распознавание выражений лица, реализации функции замены лиц и повторений для стабилизации и уточнения выходных данных. [73] Эта технология дипфейков с высоким разрешением экономит значительные эксплуатационные и производственные затраты. [74] Модель генерации дипфейков Диснея может создавать медиафайлы, генерируемые искусственным интеллектом, с разрешением 1024 x 1024, в отличие от обычных моделей, которые создают медиафайлы с разрешением 256 x 256. [74] Эта технология позволяет Диснею стареть персонажей или оживлять умерших актеров. [75] Подобная технология изначально использовалась фанатами для неофициальной вставки лиц в существующие медиа, например, наложение молодого лица Харрисона Форда на лицо Хана Соло в « Соло: Истории Звездных войн» . [76] Дисней использовал дипфейки для персонажей принцессы Леи и гранд-моффа Таркина в «Изгой-один» . [77] [78]

В документальном фильме 2020 года «Добро пожаловать в Чечню» использовалась технология дипфейков, чтобы скрыть личности опрошенных и защитить их от возмездия. [79]

Агентство Creative Artists разработало средство для создания образа актера «за один день», а также для разработки цифрового клона актера, который будет контролироваться актером или его имуществом наряду с другими правами личности . [80]

Компании, которые использовали цифровые клоны профессиональных актеров в рекламе, включают Puma , Nike и Procter & Gamble . [81]

Искусство

В марте 2018 года многопрофильный художник Джозеф Айерле опубликовал видеоработу Un'emozione per semper 2.0 (английское название: The Italian Game ). Художник работал с технологией Deepfake для создания искусственного интеллекта актрисы , синтетической версии кинозвезды 80-х Орнеллы Мути , путешествующей во времени с 1978 по 2018 год. Массачусетский технологический институт включил это произведение в исследование «Коллективная мудрость». [82] Художница использовала путешествие во времени Орнеллы Мути , чтобы исследовать размышления поколений, а также исследовала вопросы о роли провокации в мире искусства. [83] Для технической реализации Айерл использовал кадры с фотомоделью Кендалл Дженнер . Программа заменила лицо Дженнер на рассчитанное ИИ лицо Орнеллы Мути. В результате у ИИ-актрисы лицо итальянской актрисы Орнеллы Мути и тело Кендалл Дженнер.

Дипфейки широко используются в сатире или для пародии на знаменитостей и политиков. Веб-сериал 2020 года «Нахальное правосудие» , созданный Треем Паркером и Мэттом Стоуном , широко демонстрирует использование дипфейковых общественных деятелей для высмеивания текущих событий и повышения осведомленности о технологии дипфейков. [84]

Шантажировать

Дипфейки могут использоваться для создания материалов шантажа, ложно инкриминирующих жертву. В отчете Исследовательской службы американского Конгресса содержится предупреждение о том, что дипфейки могут использоваться для шантажа избранных должностных лиц или тех, кто имеет доступ к секретной информации , в целях шпионажа или оказания влияния . [85]

В качестве альтернативы, поскольку подделки невозможно надежно отличить от подлинных материалов, жертвы фактического шантажа теперь могут утверждать, что настоящие артефакты являются подделками, что дает им возможность правдоподобного отрицания. В результате доверие к существующим материалам шантажа лишается доверия, что стирает лояльность к шантажистам и разрушает контроль шантажиста. Это явление можно назвать «инфляцией шантажа», поскольку оно «обесценивает» реальный шантаж, делая его бесполезным. [86] Можно использовать обычное графическое оборудование с небольшой программой для создания такого шантажного контента для любого количества субъектов в огромных количествах, что приводит к безграничному и легко масштабируемому увеличению поставок фальшивого шантажного контента. [87]

Развлечение

8 июня 2022 года [88] Дэниел Эммет, бывший участник AGT , объединился со стартапом в области искусственного интеллекта [89] [90] Metaphysic AI, чтобы создать гиперреалистичный дипфейк, выглядящий как Саймон Коуэлл . Коуэлл, известный своей резкой критикой участников, [91] был на сцене, интерпретируя « You're The Inspiration » Чикаго . Эммет пел на сцене, а образ Саймона Коуэлла появился на экране позади него в безупречной синхронности. [92]

30 августа 2022 года Metaphysical AI заставила «глубокую фальшивку» Саймона Коуэлла , Хоуи Мэндела и Терри Крюса петь оперу на сцене. [93]

13 сентября 2022 года Metaphysical AI выступила с синтетической версией Элвиса Пресли на финале America's Got Talent . [94]

Проект искусственного интеллекта MIT 15.ai использовался для создания контента для множества интернет- фандомов , особенно в социальных сетях. [95] [96] [97]

В 2023 году группы ABBA и KISS объединились с Industrial Light & Magic и Pophouse Entertainment для разработки дипфейковых аватаров, способных давать виртуальные концерты . [98]

Мошенничество и мошенничество

Мошенники и мошенники используют дипфейки, чтобы обманом заставить людей использовать фальшивые инвестиционные схемы, финансовые махинации , криптовалюты , отправлять деньги и получать одобрения . Изображения знаменитостей и политиков использовались для крупномасштабных афер, а также портретов частных лиц для целенаправленных фишинговых атак. По данным Better Business Bureau , мошенничество с дипфейками становится все более распространенным. [99]

В фейковой рекламе использовались личности таких знаменитостей, как Тейлор Свифт , [100] [99] Том Хэнкс , [101] Опра Уинфри , [102] и Илон Маск ; [103] ведущие новостей [104] такие как Гейл Кинг [101] и Салли Бандок ; [105] и такие политики, как Ли Сянь Лун [106] и Джим Чалмерс . [107] [108] Их видео появлялись в онлайн-рекламе на YouTube , Facebook и TikTok , которые проводят политику против синтетических и манипулируемых СМИ . [109] [100] [110] Рекламу с этими видеороликами видят миллионы людей. Одна кампания по мошенничеству в программе Medicare была просмотрена более 195 миллионов раз на тысячах видео. [109] [111] Дипфейки использовались для: фальшивой раздачи кухонной посуды Le Creuset за «плату за доставку» без получения продуктов, за исключением скрытых ежемесячных платежей; [100] жевательные конфеты для похудения, стоимость которых значительно выше заявленной; [102] поддельная раздача iPhone; [100] [110] и мошеннические схемы быстрого обогащения , [103] [112] инвестиции, [113] и криптовалютные схемы. [106] [114]

Во многих рекламных роликах клонирование голоса с помощью искусственного интеллекта сочетается с «вырванным из контекста видео знаменитости», чтобы имитировать подлинность. Другие используют целый клип знаменитости, прежде чем перейти к другому актеру или голосу. [109] Некоторые виды мошенничества могут включать в себя дипфейки в реальном времени. [110]

Знаменитости предупреждают людей об этих фальшивых одобрениях и требуют быть более бдительными в отношении них. [99] [100] [102] Знаменитости вряд ли будут подавать иски против каждого человека, занимающегося дипфейковыми мошенничествами, поскольку «поиск и судебное преследование анонимных пользователей социальных сетей требуют больших ресурсов», хотя перестаньте писать письма в компании социальных сетей, занимающиеся получением видео и рекламу сняли. [115]

Аудиодипфейки использовались в рамках мошенничества с использованием социальной инженерии , заставляя людей думать, что они получают инструкции от доверенного лица. [116] В 2019 году генеральный директор британской энергетической компании подвергся мошенничеству по телефону, когда ему приказал перевести 220 000 евро на счет в венгерском банке от человека, который использовал технологию аудио-дипфейка, чтобы выдать себя за голос генерального директора материнской компании фирмы. . [117]

По состоянию на 2023 год эта комбинация продвинулась в области технологии дипфейков, которая могла бы клонировать голос человека, записывая его длительностью от нескольких секунд до минуты, и новых инструментов генерации текста , которые позволили осуществлять автоматическое мошенничество с выдачей себя за другое лицо, ориентируясь на жертв с использованием убедительного цифрового клона друга или друга. родственник. [118]

Мемы

В 2020 году появился интернет-мем, использующий дипфейки для создания видеороликов, на которых люди поют припев «Baka Mitai» (ばかみたい) , песни из игры Yakuza 0 из серии видеоигр Yakuza . В сериале меланхоличную песню поет игрок в мини-игре -караоке . В большинстве итераций этого мема в качестве шаблона используется видео 2017 года, загруженное пользователем Dobbsyrules, который синхронизирует песню по губам. [119] [120]

Политика

Дипфейки использовались для искажения изображения известных политиков в видеороликах.

Порнография

В 2017 году порнография Deepfake стала заметной в Интернете, особенно на Reddit . [140] По состоянию на 2019 год многие дипфейки в Интернете содержат порнографию знаменитостей, чьи изображения обычно используются без их согласия. [141] В отчете голландского стартапа по кибербезопасности Deeptrace, опубликованном в октябре 2019 года, говорится, что 96% всех дипфейков в Интернете были порнографическими. [142] В 2018 году внимание впервые привлек дипфейк Дейзи Ридли , [140] среди других. [143] [144] [145] По состоянию на октябрь 2019 года большинство субъектов дипфейков в Интернете были британскими и американскими актрисами. [141] Однако около четверти участников — южнокорейцы, большинство из которых — звезды K-pop. [141] [146]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративно-состязательные сети , для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, платная версия стоила 50 долларов. [147] [148] 27 июня создатели удалили приложение и вернули потребителям деньги. [149]

Социальные медиа

Дипфейки начали использоваться на популярных платформах социальных сетей, в частности, через Zao, китайское приложение для дипфейков, которое позволяет пользователям заменять свои собственные лица лицами персонажей в сценах из фильмов и телешоу, таких как «Ромео + Джульетта» и «Игра престолов» . [150] Первоначально приложение подверглось тщательной проверке из-за агрессивных пользовательских данных и политики конфиденциальности, после чего компания опубликовала заявление, утверждающее, что пересмотрит политику. [20] В январе 2020 года Facebook объявил, что вводит новые меры противодействия этому на своих платформах. [151]

Исследовательская служба Конгресса привела неуказанные доказательства того, что сотрудники иностранной разведки использовали дипфейки для создания учетных записей в социальных сетях с целью вербовки лиц, имеющих доступ к секретной информации . [85]

В 2021 году на TikTok были опубликованы реалистичные дипфейковые видеоролики актера Тома Круза , которые стали вирусными и собрали более десятков миллионов просмотров. В дипфейковых видеороликах был показан «двойник Круза, созданный искусственным интеллектом», который выполнял различные действия, такие как первый удар на поле для гольфа, демонстрация фокуса с монетой и откусывание леденца. Создатель клипов, бельгийский художник по визуальным эффектам Крис Уме, [152] рассказал, что впервые заинтересовался дипфейками в 2018 году и увидел в них «творческий потенциал». [153] [154]

Носоккуклы

Дипфейковые фотографии можно использовать для создания кукол-марионеток , несуществующих людей, которые активны как в Интернете, так и в традиционных СМИ. Дипфейковая фотография, судя по всему, была создана вместе с легендой о якобы несуществующем человеке по имени Оливер Тейлор, личность которого была описана как студент университета в Соединенном Королевстве. Личность Оливера Тейлора опубликовала свои статьи в нескольких газетах и ​​активно участвовала в онлайн-СМИ, нападая на британского ученого-юриста и его жену как на «сочувствующих террористам». Ученый привлек международное внимание в 2018 году, когда он подал в Израиле иск против NSO, компании по наблюдению, от имени людей в Мексике, которые утверждали, что стали жертвами технологии взлома телефонов NSO . Рейтер смог найти лишь скудные записи об Оливере Тейлоре, а в «его» университете не было никаких записей о нем. Многие эксперты сошлись во мнении, что фото профиля — дипфейк. Некоторые газеты не отозвали приписываемые ему статьи и не удалили их со своих сайтов. Есть опасения, что такие методы станут новым полем битвы в сфере дезинформации . [155]

Коллекции дипфейковых фотографий несуществующих людей в социальных сетях также использовались в рамках израильской партизанской пропаганды. На странице Facebook «Сионистская весна» были размещены фотографии несуществующих людей вместе с их «свидетельствами», призванными объяснить, почему они отказались от своей левой политики и перешли к правой политике , а также на странице было большое количество сообщений от Prime . Министр Израиля Биньямин Нетаньяху и его сын, а также из других источников израильского правого крыла. Фотографии, судя по всему, были созданы с помощью технологии « синтеза изображений человека » — компьютерного программного обеспечения, которое берет данные из фотографий реальных людей для создания реалистичного составного изображения несуществующего человека. В большинстве «свидетельств» причиной принятия правых политических сил был шок, узнав о предполагаемом подстрекательстве к насилию в отношении премьер-министра. Правые израильские телевещатели затем транслировали «свидетельства» этих несуществующих людей, основываясь на том факте, что ими «делились» в Интернете. Телеканалы транслировали эти «свидетельства», несмотря на то, что не смогли найти таких людей, объяснив: «Почему происхождение имеет значение?» Другие фейковые профили в Facebook — профили вымышленных лиц — содержали материалы, которые якобы содержали подобное подстрекательство против правого премьер-министра, в ответ на что премьер-министр пожаловался, что существует заговор с целью его убийства. [156] [157]

Обеспокоенность

Надежность и подлинность

Хотя фейковых фотографий уже давно предостаточно, подделать кинофильмы сложнее, а наличие дипфейков затрудняет классификацию видео как подлинных или нет. [122] Исследователь искусственного интеллекта Алекс Шампандар заявил, что люди должны знать, как быстро все может быть испорчено с помощью технологии дипфейков, и что проблема не техническая, а скорее проблема, которую нужно решить, доверяя информации и журналистике. [122] Дипфейки могут использоваться для клеветы, выдачи себя за другое лицо и распространения дезинформации. [158]

Основная ошибка заключается в том, что человечество может впасть в эпоху, когда уже невозможно будет определить, соответствует ли содержание СМИ истине. [122] [159] Дипфейки — один из множества инструментов дезинформационной атаки , создания сомнений и подрыва доверия. У них есть потенциал вмешиваться в демократические функции в обществе, такие как определение коллективных программ, обсуждение проблем, информирование решений и решение проблем посредством проявления политической воли. [13]

Аналогичным образом, доцент компьютерных наук Хао Ли из Университета Южной Калифорнии утверждает, что дипфейки, созданные для злонамеренного использования, такие как фейковые новости , будут еще более вредными, если ничего не будет сделано для распространения информации о технологии дипфейков. [160] Ли предсказал, что подлинные видео и дипфейки станут неотличимы уже через полгода, по состоянию на октябрь 2019 года, благодаря быстрому развитию искусственного интеллекта и компьютерной графики. [160]

Бывший глава Google по борьбе с мошенничеством Шуман Госемаджумдер назвал дипфейки областью «общественной озабоченности» и заявил, что они неизбежно разовьются до такой степени, что их можно будет генерировать автоматически, и человек сможет использовать эту технологию для создания миллионов дипфейковых видео. [161]

Дипфейки обладают способностью наносить огромный ущерб отдельным объектам. [162] Это связано с тем, что дипфейки часто нацелены на одного человека и/или его отношения с другими людьми в надежде создать повествование, достаточно мощное, чтобы повлиять на общественное мнение или убеждения. Это можно сделать с помощью дипфейкового голосового фишинга, который манипулирует звуком для создания фальшивых телефонных звонков или разговоров. [162] Еще один метод использования дипфейков — это сфабрикованные частные высказывания, которые манипулируют средствами массовой информации, чтобы передать людям озвучивающие оскорбительные комментарии. [162]

В сентябре 2020 года Microsoft объявила, что разрабатывает программный инструмент для обнаружения Deepfake. [163]

Примеры событий

Барак Обама

17 апреля 2018 года американский актер Джордан Пил , BuzzFeed и Monkeypaw Productions разместили на YouTube дипфейк Барака Обамы, на котором Барак Обама ругался и обзывал Дональда Трампа. [164] В этом дипфейке голос и лицо Пила были преобразованы и манипулированы так, как у Обамы. Целью этого видео было показать опасные последствия и силу дипфейков, а также то, как дипфейки могут заставить кого-то говорить что угодно.

Дональд Трамп

5 мая 2019 года сайт Derpfakes разместил на YouTube дипфейк Дональда Трампа , основанный на пародии Джимми Фэллона , исполненной на The Tonight Show . [165] В оригинальной пародии (вышедшей в эфир 4 мая 2016 г.) Джимми Фэллон переоделся Дональдом Трампом и притворился, что участвует в телефонном разговоре с Бараком Обамой, разговаривая таким образом, что он хвастался своей победой на первичных выборах в Индиане. [165] В дипфейке лицо Джимми Фэллона трансформировалось в лицо Дональда Трампа, а звук остался прежним. Это дипфейковое видео было создано Derpfakes с комедийной целью.

Поддельное изображение ареста Дональда Трампа, созданное Midjourney [166]

В марте 2023 года появилась серия изображений, на которых видно, как сотрудники полиции Нью-Йорка удерживают Трампа. [167] Изображения, созданные с помощью Midjourney , первоначально были опубликованы в Твиттере Элиотом Хиггинсом , но позже были повторно опубликованы без контекста, что заставило некоторых зрителей поверить в то, что это настоящие фотографии. [166]

Нэнси Пелоси

В 2019 году был выпущен отрывок из выступления Нэнси Пелоси в Центре американского прогресса (прочитанного 22 мая 2019 года), в котором видео было замедлено, а также изменена высота звука, чтобы создать впечатление, будто она была пьяна, широко распространялась в социальных сетях. Критики утверждают, что это был не дипфейк, а мелкий фейк — менее сложная форма видеоманипуляции. [168] [169]

Ким Чен Ын и Владимир Путин

"Ким Чен Ын"

29 сентября 2020 года на YouTube были загружены дипфейки северокорейского лидера Ким Чен Ына и президента России Владимира Путина , созданные беспартийной правозащитной группой RepresentUs . [170]

Дипфейковое видео: Владимир Путин предупреждает американцев о вмешательстве в выборы и усилении политического раскола

Дипфейки с изображением Кима и Путина должны были транслироваться публично в качестве рекламы, транслирующей идею о том, что вмешательство этих лидеров в выборы в США нанесет ущерб демократии Соединенных Штатов. Рекламные ролики также были направлены на то, чтобы шокировать американцев, осознав, насколько хрупка демократия и как средства массовой информации и новости могут существенно повлиять на путь страны, независимо от доверия к ним. [170] Однако, хотя рекламные ролики содержали завершающий комментарий, в котором подробно говорилось, что отснятый материал не был реальным, в конечном итоге они не вышли в эфир из-за опасений и чувствительности относительно того, как американцы могут отреагировать. [170]

5 июня 2023 года неизвестный источник транслировал по нескольким радио- и телеканалам дипфейк с изображением Владимира Путина. В ролике Путин, кажется, произносит речь, объявляющую о вторжении в Россию и призывающую к всеобщей мобилизации армии. [171]

Владимир Зеленский

16 марта 2022 года в социальных сетях было распространено одноминутное дипфейковое видео, на котором президент Украины Владимир Зеленский, по-видимому, говорит своим солдатам сложить оружие и сдаться во время российского вторжения в Украину в 2022 году . [13] Российские социальные сети разрекламировали это сообщение, но после того, как оно было опровергнуто, Facebook и YouTube удалили его. Twitter разрешил публиковать видео в твитах, где оно было разоблачено как фейк, но заявил, что оно будет удалено, если оно будет опубликовано с целью обмана людей. Хакеры вставили дезинформацию в прямую трансляцию новостей на телеканале «Украина 24», и видео ненадолго появилось на сайте телеканала в дополнение к ложным заявлениям о том, что Зеленский покинул столицу своей страны Киев . Не сразу стало ясно, кто создал дипфейк, на что Зеленский ответил собственным видео, заявив: «Мы не планируем складывать оружие. До нашей победы». [172]

Волчьи новости

В конце 2022 года прокитайские пропагандисты начали распространять дипфейковые видеоролики якобы из «Wolf News», в которых использовались синтетические актеры. Технология была разработана лондонской компанией Synthesia, которая позиционирует ее как дешевую альтернативу живым актерам для обучения и HR-видео. [173]

Папа Франциск

Поддельное изображение Папы Франциска в пуховике, созданное Midjourney.

В марте 2023 года анонимный строитель из Чикаго использовал Midjourney для создания фейкового изображения Папы Франциска в белой куртке-пуховике Balenciaga . Изображение стало вирусным, получив более двадцати миллионов просмотров. [174] Писатель Райан Бродерик назвал это «первым настоящим случаем дезинформации искусственного интеллекта на массовом уровне». [175] Эксперты, с которыми консультировался Slate, охарактеризовали изображение как бесхитростное: «его можно было сделать в Photoshop пять лет назад». [176]

Рашмика Манданна

В начале ноября 2023 года известный южноиндийский актер Рашмика Манданна стал жертвой DeepFake, когда в социальных сетях начало появляться измененное видео известного британско-индийского влиятельного лица Зары Патель с лицом Рашмики. Зара Патель утверждает, что не участвовала в его создании. [177]

Ответы

Платформы социальных сетей

Твиттер

Twitter принимает активные меры по борьбе с синтетическими и манипулируемыми медиа на своей платформе. Чтобы предотвратить распространение дезинформации, Twitter размещает уведомление о твитах, содержащих манипулируемые медиа и/или дипфейки, которые сигнализируют зрителям о том, что СМИ манипулируют. [178] Также появится предупреждение для пользователей, которые планируют ретвитнуть твит, поставить ему «Нравится» или присоединиться к нему. [178] Twitter также будет работать над тем, чтобы предоставить пользователям ссылку рядом с твитом, содержащим манипулируемые или синтетические медиа, которые ссылаются на момент Twitter или заслуживающую доверия новостную статью на соответствующую тему — в качестве разоблачающего действия. [178] Twitter также имеет возможность удалять любые твиты, содержащие дипфейки или манипулируемые медиа, которые могут нанести ущерб безопасности пользователей. [178] Чтобы улучшить обнаружение дипфейков и манипулируемых СМИ, Twitter попросил пользователей, заинтересованных в партнерстве с ними, разработать решения для обнаружения дипфейков, заполнив форму. [179]

Фейсбук

Facebook предпринял усилия по поощрению создания дипфейков с целью разработки современного программного обеспечения для обнаружения дипфейков. Facebook выступил ведущим партнером в проведении конкурса Deepfake Detection Challenge (DFDC), состоявшегося в декабре 2019 года, для 2114 участников, которые создали более 35 000 моделей. [180] Самые эффективные модели с самой высокой точностью обнаружения были проанализированы на предмет сходств и различий; Эти результаты представляют собой область интересов для дальнейших исследований, направленных на улучшение и усовершенствование моделей обнаружения дипфейков. [180] Facebook также сообщил, что платформа будет удалять медиа, созданные с помощью искусственного интеллекта, используемого для изменения речи человека. [181] Однако средства массовой информации, которые были отредактированы с целью изменения порядка или контекста слов в сообщении, останутся на сайте, но будут помечены как ложные, поскольку они не были созданы искусственным интеллектом. [181]

Обнаружение

Аудио

Обнаружение поддельного звука — очень сложная задача, требующая пристального внимания к аудиосигналу для достижения хороших характеристик. Использование глубокого обучения, предварительной обработки дизайна функций и увеличения маскирования доказало свою эффективность в повышении производительности. [182]

видео

Большая часть академических исследований, посвященных дипфейкам, сосредоточена на обнаружении дипфейковых видео. [183] ​​Один из подходов к обнаружению дипфейков заключается в использовании алгоритмов для распознавания закономерностей и обнаружения тонких несоответствий, возникающих в дипфейковых видео. [183] ​​Например, исследователи разработали автоматические системы, которые проверяют видео на предмет таких ошибок, как нерегулярное мигание освещения. [184] [18] Этот подход подвергся критике, поскольку обнаружение дипфейков характеризуется « движущейся целью », при которой производство дипфейков продолжает меняться и совершенствоваться по мере совершенствования алгоритмов обнаружения дипфейков. [183] ​​Чтобы оценить наиболее эффективные алгоритмы обнаружения дипфейков, коалиция ведущих технологических компаний организовала конкурс Deepfake Detection Challenge, направленный на ускорение технологии выявления манипулируемого контента. [185] Модель-победитель конкурса Deepfake Detection Challenge имела точность 65 % на выборке из 4000 видео. [186] В декабре 2021 года команда Массачусетского технологического института опубликовала статью, в которой показано, что обычные люди с точностью 69–72 % идентифицируют случайную выборку из 50 таких видео. [187]

В октябре 2020 года команда из Университета Буффало опубликовала статью, в которой изложила свою технику использования отражений света в глазах изображенных для обнаружения дипфейков с высоким уровнем успеха, даже без использования инструмента обнаружения искусственного интеллекта, по крайней мере, для в настоящее время. [188]

В случае хорошо задокументированных лиц, таких как политические лидеры, были разработаны алгоритмы, позволяющие различать особенности личности, такие как черты лица, жесты и голосовые манеры, и обнаруживать фальшивых имитаторов. [189]

Другая группа под руководством Ваэля АбдАльмагида из Лаборатории визуального интеллекта и мультимедийной аналитики (VIMAL) Института информационных наук Университета Южной Калифорнии разработала два поколения [190] [191] детекторов дипфейков на основе сверточных нейронных сетей . Первое поколение [190] использовало рекуррентные нейронные сети для обнаружения пространственно-временных несоответствий и выявления визуальных артефактов, оставленных процессом генерации дипфейков. Алгоритм показал точность 96% на FaceForensics++, единственном доступном на тот момент крупномасштабном тесте для дипфейков. Второе поколение [191] использовало сквозные глубокие сети для различения артефактов и семантической информации о лице высокого уровня с использованием двухветвевых сетей. Первая ветвь распространяет информацию о цвете, в то время как другая ветвь подавляет содержимое лица и усиливает низкоуровневые частоты с помощью лапласиана Гаусса (LoG) . Кроме того, они включили новую функцию потерь, которая изучает компактное представление настоящих лиц, рассеивая при этом представления (т.е. особенности) дипфейков. Подход ВИМАЛ показал высочайшую производительность в тестах FaceForensics++ и Celeb-DF, а 16 марта 2022 года (в тот же день релиза) был использован для выявления дипфейка Владимира Зеленского «из коробки». без какой-либо переподготовки или знания алгоритма, с помощью которого был создан дипфейк. [ нужна цитата ]

Другие методы предполагают, что блокчейн можно использовать для проверки источника медиа. [192] Например, видео, возможно, придется проверить через реестр, прежде чем оно будет показано на платформах социальных сетей. [192] Благодаря этой технологии будут одобряться только видео из надежных источников, что уменьшит распространение потенциально вредных дипфейковых медиа. [192]

Для борьбы с дипфейками было предложено цифровое подписание всего видео и изображений камерами и видеокамерами, в том числе камерами смартфонов. [193] Это позволяет отследить первоначальный владелец каждой фотографии или видео, что может быть использовано для преследования диссидентов. [193]

Один из простых способов обнаружить фейковые видеозвонки — попросить звонящего повернуться боком. [194]

Реакция Интернета

31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки. [195] [14] На Reddit субреддит r/deepfakes был заблокирован 7 февраля 2018 года из-за нарушения политики «принудительной порнографии». [196] [197] [198] [199] [200] В том же месяце представители Twitter заявили, что заблокируют учетные записи, подозреваемые в публикации дипфейкового контента без согласия. [201] Чат-сайт Discord в прошлом принимал меры против дипфейков, [202] и занимал общую позицию против дипфейков. [14] [203] В сентябре 2018 года Google добавила в свой список запретов «принудительные синтетические порнографические изображения», что позволило любому запрашивать блок результатов, демонстрирующих его фальшивую обнаженную натуру. [204] [ проверьте синтаксис цитаты ] В феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку это считается «контентом, не согласованным с другими», что нарушает их условия обслуживания. [205] Ранее они также заявили Mashable, что будут удалять контент, помеченный как дипфейк. [206] Авторы Motherboard из Buzzfeed News сообщили, что при поиске «дипфейков» на Pornhub по-прежнему выдавалось несколько недавних дипфейковых видео. [205]

Facebook ранее заявлял, что не будет удалять дипфейки со своих платформ. [207] Вместо этого видео будут помечены третьими лицами как фейковые, и затем им будет присвоен меньший приоритет в лентах пользователей. [208] Такая реакция была вызвана в июне 2019 года после того, как в Facebook и Instagram распространился дипфейк с видео Марка Цукерберга 2016 года . [207]

В мае 2022 года Google официально изменила условия обслуживания своих колабов Jupyter Notebook , запретив использование своего колаб-сервиса с целью создания дипфейков. [209] Это произошло через несколько дней после публикации статьи VICE, в которой утверждалось, что «большинство дипфейков представляют собой порнографию без согласия» и что основное использование популярного программного обеспечения для дипфейков DeepFaceLab (DFL), «самой важной технологии, лежащей в основе подавляющего большинства «дипфейков этого поколения», который часто использовался в сочетании с совместными усилиями Google, будет означать создание порнографии без согласия, указывая на тот факт, что среди многих других хорошо известных примеров сторонних реализаций DFL, таких как дипфейки, заказанные The Walt Disney Company , официальные музыкальные клипы и веб-сериал Sassy Justice от создателей South Park , страница DFL на GitHub также ссылается на дипфейковый порносайт Mr. ‍ Deepfakes и участники сервера DFL Discord также участвуют в Mr. ‍ Deepfakes . [210]

Юридический ответ

В США были приняты некоторые меры реагирования на проблемы, связанные с дипфейками. В 2018 году в Сенат США был внесен Закон о запрете злонамеренных глубоких фейков , [211] а в 2019 году в Палату представителей был внесен Закон об ответственности DEEPFAKES . [15] Некоторые штаты также приняли законы, касающиеся дипфейков, включая Вирджинию, [212] Техас, Калифорнию и Нью-Йорк. [213] 3 октября 2019 года губернатор Калифорнии Гэвин Ньюсом подписал законопроекты о Ассамблее № 602 и № 730. [214] [215] Законопроект о Ассамблее № 602 предоставляет лицам, на которых направлен дипфейк сексуального характера, созданный без их согласия, причина иска против создателя контента. [214] Законопроект Собрания № 730 запрещает распространение вредоносных дипфейковых аудио- и визуальных материалов, нацеленных на кандидата, баллотирующегося на государственную должность, в течение 60 дней после его избрания. [215]

В ноябре 2019 года Китай объявил, что начиная с 2020 года дипфейки и другие искусственно сфальсифицированные видеоматериалы должны иметь четкое указание об их фальшивости. Невыполнение этого требования может считаться преступлением, о чем Администрация киберпространства Китая заявила на своем веб-сайте. [216] Правительство Китая, похоже, оставляет за собой право привлекать к ответственности как пользователей, так и онлайн-видеоплатформы, не соблюдающие правила. [217]

В Соединенном Королевстве производители дипфейковых материалов могут быть привлечены к ответственности за преследование, но звучат призывы объявить дипфейк конкретным преступлением; [218] В Соединенных Штатах, где преследовались такие разнообразные обвинения, как кража личных данных , киберпреследование и порноместь , также обсуждалась идея более всеобъемлющего закона. [204]

В Канаде Управление безопасности коммуникаций опубликовало отчет, в котором говорится, что дипфейки могут использоваться для вмешательства в канадскую политику, в частности, для дискредитации политиков и влияния на избирателей. [219] [220] В результате у граждан Канады есть несколько способов борьбы с дипфейками, если они становятся их мишенью. [221]

В Индии нет прямых законов или постановлений об искусственном интеллекте или дипфейках, но есть положения Индийского уголовного кодекса и Закона об информационных технологиях 2000/2008 года, которые можно рассмотреть в качестве средств правовой защиты, а новый предложенный Закон о цифровой Индии будет иметь глава об искусственном интеллекте и дипфейках, в частности, согласно МО Радживу Чандрасекхару. [222]

Ответ от DARPA

В 2018 году Агентство перспективных исследовательских проектов Министерства обороны (DARPA) профинансировало проект, в котором люди будут соревноваться в создании видео, аудио и изображений, генерируемых искусственным интеллектом, а также автоматизированных инструментов для обнаружения этих дипфейков. [223] В 2019 году DARPA провело «день предложений» для проекта, связанного с программой семантической криминалистики, где исследователи были призваны предотвратить вирусное распространение СМИ, манипулируемых ИИ. [224] DARPA и Программа семантической криминалистики также работали вместе над обнаружением средств массовой информации, манипулируемых ИИ, путем обучения компьютеров использованию здравого смысла и логических рассуждений. [224] В 2020 году DARPA создало программу Media Forensics (MediFor) для обнаружения и смягчения растущего вреда, который наносят дипфейки и медиа, созданные с помощью искусственного интеллекта, для предоставления информации о том, как были созданы медиа, а также для рассмотрения и подчеркивания последующей роли дипфейков. и их влияние на принятие решений. [225]

В популярной культуре

Смотрите также

Рекомендации

  1. Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: количество жутких видео-«дипфейков» растет». Фокс Ньюс . Архивировано из оригинала 15 июня 2018 года . Проверено 20 февраля 2018 г.
  2. ^ «Готовьтесь, не паникуйте: синтетические медиа и дипфейки» . свидетель.орг. Архивировано из оригинала 2 декабря 2020 года . Проверено 25 ноября 2020 г.
  3. ^ Джуфей-Сюй, Феликс; Ван, Беги; Хуан, Ихао; Го, Цин; Ма, Лей; Лю, Ян (1 июля 2022 г.). «Противодействие вредоносным DeepFakes: обзор, поле битвы и горизонт». Международный журнал компьютерного зрения . 130 (7): 1678–1734. дои : 10.1007/s11263-022-01606-8. ISSN  1573-1405. ПМК 9066404 . ПМИД  35528632. 
  4. ^ Аб Китцманн, Дж.; Ли, ЛВ; Маккарти, IP; Китцманн, TC (2020). «Дипфейки: Кошелек или жизнь?» (PDF) . Горизонты бизнеса . 63 (2): 135–146. дои :10.1016/j.bushor.2019.11.006. S2CID  213818098.
  5. Уолдроп, М. Митчелл (16 марта 2020 г.). «Синтетические медиа: настоящая проблема с дипфейками». Знающий журнал . Ежегодные обзоры. doi : 10.1146/knowable-031320-1 . Проверено 19 декабря 2022 г.
  6. Шварц, Оскар (12 ноября 2018 г.). «Вы думали, что фейковые новости — это плохо? В глубоких фейках истина умирает». Хранитель . Архивировано из оригинала 16 июня 2019 года . Проверено 14 ноября 2018 г.
  7. ↑ abcd Шарлеер, Свен (17 мая 2019 г.). «Семейное развлечение с дипфейками. Или как я пригласил жену на вечернее шоу». Середина . Архивировано из оригинала 11 февраля 2018 года . Проверено 8 ноября 2019 г.
  8. Фарид, Хани (15 сентября 2019 г.). «Криминалистика изображений». Ежегодный обзор Vision Science . 5 (1): 549–573. doi : 10.1146/annurev-vision-091718-014827. ISSN  2374-4642. PMID  31525144. S2CID  263558880.
  9. Бэнкс, Алек (20 февраля 2018 г.). «Что такое дипфейки и почему будущее порно ужасно». Высокоблагородство . Архивировано из оригинала 14 июля 2021 года . Проверено 20 февраля 2018 г.
  10. ^ Кристиан, Джон. «Эксперты опасаются, что технология подмены лиц может стать началом международного противостояния». Схема . Архивировано из оригинала 16 января 2020 года . Проверено 28 февраля 2018 г.
  11. Руз, Кевин (4 марта 2018 г.). «А вот и фальшивые видео» . Нью-Йорк Таймс . ISSN  0362-4331. Архивировано из оригинала 18 июня 2019 года . Проверено 24 марта 2018 г.
  12. ^ Шрейер, Марко; Саттаров Тимур; Реймер, Бернд; Борт, Дамиан (октябрь 2019 г.). «Состязательное изучение дипфейков в бухгалтерском учете». arXiv : 1910.03810 [cs.LG].
  13. ^ abc Павелец, М (2022). «Дипфейки и демократия (теория): как синтетические аудиовизуальные средства дезинформации и разжигания ненависти угрожают основным демократическим функциям». Цифровое общество: этика, социально-правовая политика и управление цифровыми технологиями . 1 (2): 19. дои : 10.1007/s44206-022-00010-6. ПМЦ 9453721 . ПМИД  36097613. 
  14. ↑ abc Ghoshal, Абхиманью (7 февраля 2018 г.). «Twitter, Pornhub и другие платформы запрещают порно со знаменитостями, созданное искусственным интеллектом». Следующая сеть . Архивировано из оригинала 20 декабря 2019 года . Проверено 9 ноября 2019 г.
  15. ^ аб Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019–2020 гг.): Защита каждого человека от ложных показаний путем сохранения эксплуатации в соответствии с Законом об ответственности 2019 года». www.congress.gov . Архивировано из оригинала 17 декабря 2019 года . Проверено 16 октября 2019 г.
  16. Карамансьон, Кевин Матте (21 апреля 2021 г.). «Демографический профиль, которому больше всего грозит дезинформация». Международная конференция IEEE по Интернету вещей, электронике и мехатронике (IEMTRONICS) 2021 г. IEEE. стр. 1–7. doi : 10.1109/iemtronics52119.2021.9422597. ISBN 978-1-6654-4067-7. S2CID  234499888.
  17. ^ Лалла, Веджай; Митрани, Адин; Харнед, Зак. «Искусственный интеллект: дипфейки в индустрии развлечений». Всемирная организация интеллектуальной собственности . Проверено 8 ноября 2022 г.
  18. ^ abc Харвелл, Дрю (12 июня 2019 г.). «Ведущие исследователи искусственного интеллекта спешат обнаружить «дипфейковые» видео: «Нас превосходят в вооружении»» . Вашингтон Пост . Архивировано из оригинала 31 октября 2019 года . Проверено 8 ноября 2019 г.
  19. Санчес, Джулиан (8 февраля 2018 г.). «Благодаря искусственному интеллекту будущее «фейковых новостей» впервые появляется в домашнем порно». Новости Эн-Би-Си . Архивировано из оригинала 9 ноября 2019 года . Проверено 8 ноября 2019 г.
  20. ^ abcd Портер, Джон (2 сентября 2019 г.). «Еще одно убедительное фейковое приложение стало вирусным, вызвав немедленную негативную реакцию в отношении конфиденциальности». Грань . Архивировано из оригинала 3 сентября 2019 года . Проверено 8 ноября 2019 г.
  21. ^ Боде, Лиза; Лиз, Доминик; Голдинг, Дэн (29 июля 2021 г.). «Цифровое лицо и дипфейки на экране». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 849–854. дои : 10.1177/13548565211034044 . ISSN  1354-8565. S2CID  237402465.
  22. ↑ Аб Холлидей, Кристофер (26 июля 2021 г.). «Переписывая звезды: поверхностное напряжение и гендерные проблемы в онлайн-СМИ, производящих цифровые дипфейки». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 899–918. дои : 10.1177/13548565211029412 . ISSN  1354-8565. S2CID  237402548.
  23. Гингрич, Оливер М. (5 июля 2021 г.). «ГЕНДЕР*УК: Переосмысление гендера и медиаискусства». Труды EVA London 2021 (ЕВА 2021) . Электронные семинары по информатике. дои : 10.14236/ewic/EVA2021.25 . S2CID  236918199.
  24. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и какая-то антиутопия: новые лица онлайн-спектакля постфактум». Театральный журнал . 70 (4): 455–471. дои : 10.1353/tj.2018.0097. ISSN  1086-332X. S2CID  191988083.
  25. Оман, Карл (1 июня 2020 г.). «Представляем дилемму извращенца: вклад в критику Deepfake Pornography». Этика и информационные технологии . 22 (2): 133–140. дои : 10.1007/s10676-019-09522-1 . ISSN  1572-8439. S2CID  208145457.
  26. ван дер Нагель, Эмили (1 октября 2020 г.). «Проверка изображений: дипфейки, контроль и согласие». Порно исследования . 7 (4): 424–429. дои : 10.1080/23268743.2020.1741434. ISSN  2326-8743. S2CID  242891792.
  27. Фаллис, Дон (1 декабря 2021 г.). «Эпистемическая угроза дипфейков». Философия и технология . 34 (4): 623–643. дои : 10.1007/s13347-020-00419-2. ISSN  2210-5433. ПМЦ 7406872 . ПМИД  32837868. 
  28. ^ Чесни, Роберт; Цитрон, Даниэль Китс (2018). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». Электронный журнал ССРН . дои : 10.2139/ssrn.3213954. ISSN  1556-5068.
  29. ^ Ядлин-Сегал, Ая; Оппенгейм, Яэль (февраль 2021 г.). «Чья это антиутопия вообще? Дипфейки и регулирование социальных сетей». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (1): 36–51. дои : 10.1177/1354856520923963. ISSN  1354-8565. S2CID  219438536.
  30. ^ Хван, Юри; Рю, Джи Юн; Чон, Се Хун (1 марта 2021 г.). «Эффекты дезинформации с использованием Deepfake: защитный эффект медиаобразования». Киберпсихология, поведение и социальные сети . 24 (3): 188–193. дои : 10.1089/cyber.2020.0174. ISSN  2152-2715. PMID  33646021. S2CID  232078561.
  31. Хайт, Крейг (12 ноября 2021 г.). «Дипфейки и документальная практика в эпоху дезинформации». Континуум . 36 (3): 393–410. дои : 10.1080/10304312.2021.2003756. ISSN  1030-4312. S2CID  244092288.
  32. ^ Хэнкок, Джеффри Т.; Бейленсон, Джереми Н. (1 марта 2021 г.). «Социальное влияние дипфейков». Киберпсихология, поведение и социальные сети . 24 (3): 149–152. дои : 10.1089/cyber.2021.29208.jth. ISSN  2152-2715. PMID  33760669. S2CID  232356146.
  33. де Сета, Габриэле (30 июля 2021 г.). «Хуанлянь, или меняющиеся лица: дипфейки на китайских цифровых медиа-платформах». Конвергенция: Международный журнал исследований новых медиа-технологий . 27 (4): 935–953. дои : 10.1177/13548565211030185. hdl : 11250/2833613 . ISSN  1354-8565. S2CID  237402447.
  34. ^ аб Бреглер, Кристоф; Ковелл, Мишель; Слэни, Малькольм (1997). «Переписывание видео: управление визуальной речью с помощью звука». Материалы 24-й ежегодной конференции по компьютерной графике и интерактивным технологиям – SIGGRAPH '97 . Том. 24. С. 353–360. дои : 10.1145/258734.258880. ISBN 0897918967. S2CID  2341707.
  35. ^ abc Суваджанакорн, Супасорн; Зейтц, Стивен М.; Кемельмахер-Шлизерман, Ира (июль 2017 г.). «Синтезирование Обамы: изучение синхронизации губ по аудио». АКМ Транс. График . 36 (4): 95:1–95:13. дои : 10.1145/3072959.3073640. S2CID  207586187.
  36. ^ abc Тис, Юстус; Цольхёфер, Михаэль; Стаммингер, Марк; Теобальт, Кристиан; Ниснер, Матиас (июнь 2016 г.). «Face2Face: захват лиц в реальном времени и реконструкция RGB-видео». Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 2387–2395. arXiv : 2007.14808 . дои :10.1109/CVPR.2016.262. ISBN 9781467388511. S2CID  206593693.
  37. ^ «Дипфейки для танцев: теперь вы можете использовать ИИ, чтобы имитировать те танцевальные движения, которые вы всегда хотели» . Грань . Архивировано из оригинала 17 мая 2019 года . Проверено 27 августа 2018 г.
  38. Фаркуар, Питер (27 августа 2018 г.). «Скоро появится программа искусственного интеллекта, которая поможет вам танцевать дипфейс – только не называйте это дипфейком». Бизнес-инсайдер Австралии . Архивировано из оригинала 10 апреля 2019 года . Проверено 27 августа 2018 г.
  39. ^ Мирский, Исроэль; Малер, Том; Шелеф, Илан; Еловичи, Юваль (2019). CT-GAN: Злонамеренное вмешательство в 3D-медицинские изображения с использованием глубокого обучения. стр. 461–478. arXiv : 1901.03597 . ISBN 978-1-939133-06-9. Архивировано из оригинала 20 июня 2020 года . Проверено 18 июня 2020 г.
  40. ^ О'Нил, Патрик Хауэлл (3 апреля 2019 г.). «Исследователи демонстрируют вредоносное ПО, которое может обманом заставить врачей поставить неправильный диагноз рака». Гизмодо . Проверено 3 июня 2022 г.
  41. ^ Мирский, Исроэль; Ли, Венке (12 мая 2020 г.). «Создание и обнаружение дипфейков: исследование». Обзоры вычислительной техники ACM . arXiv : 2004.11138 . дои : 10.1145/3425780. S2CID  216080410.
  42. ^ Карнускос, Стаматис (2020). «Искусственный интеллект в цифровых медиа: эра дипфейков» (PDF) . Транзакции IEEE по технологиям и обществу . 1 (3): 1. дои :10.1109/TTS.2020.3001312. S2CID  221716206. Архивировано (PDF) из оригинала 14 июля 2021 года . Проверено 9 июля 2020 г.
  43. ↑ Аб Коул, Саманта (24 января 2018 г.). «Мы действительно облажались: сейчас все делают фейковое порно, созданное искусственным интеллектом». Порок . Архивировано из оригинала 7 сентября 2019 года . Проверено 4 мая 2019 г.
  44. Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию замены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и что такое 2018 год» . Машаемый . Архивировано из оригинала 24 июля 2019 года . Проверено 4 апреля 2019 г. .
  45. ^ "r/SFWdeepfakes". Реддит . Архивировано из оригинала 9 августа 2019 года . Проверено 12 декабря 2018 г.
  46. Хэтэуэй, Джей (8 февраля 2018 г.). «Вот куда пошли дипфейки, новое фейковое порно о знаменитостях, после запрета Reddit». Ежедневная точка . Архивировано из оригинала 6 июля 2019 года . Проверено 22 декабря 2018 г.
  47. ^ «Что такое дипфейк и как они создаются?». Технические советы в Интернете . 23 мая 2019 г. Архивировано из оригинала 8 ноября 2019 г. . Проверено 8 ноября 2019 г.
  48. Робертсон, Ади (11 февраля 2018 г.). «Я использую ИИ, чтобы поменять лица Илона Маска и Джеффа Безоса, и у меня это очень плохо получается». Грань . Архивировано из оригинала 24 марта 2018 года . Проверено 8 ноября 2019 г.
  49. ^ «Сеть Deepfakes | Лучшее онлайн-приложение для замены лиц» . Сеть дипфейков . Архивировано из оригинала 14 июля 2021 года . Проверено 21 февраля 2021 г.
  50. ^ «Faceswap — ведущее бесплатное многоплатформенное программное обеспечение Deepfakes с открытым исходным кодом» . 15 октября 2019 года. Архивировано из оригинала 31 мая 2021 года . Проверено 14 июля 2021 г. - через WordPress.
  51. ^ «DeepFaceLab — это инструмент, который использует машинное обучение для замены лиц в видео. Включает готовый к работе автономный двоичный файл Windows 7,8,10 (см. readme.md).: iperov/DeepFaceLab». 19 июня 2019 года. Архивировано из оригинала 9 мая 2019 года . Получено 6 марта 2019 г. - через GitHub.
  52. ^ Чендлер, Саймон. «Почему дипфейки приносят пользу человечеству». Форбс . Архивировано из оригинала 16 ноября 2020 года . Проверено 3 ноября 2020 г. .
  53. Пэнгберн, диджей (21 сентября 2019 г.). «Вас предупредили: дипфейки в полный рост — это следующий шаг в имитации человека на основе искусственного интеллекта». Компания Фаст . Архивировано из оригинала 8 ноября 2019 года . Проверено 8 ноября 2019 г.
  54. Лайонс, Ким (29 января 2020 г.). «ФТК утверждает, что технология создания звуковых дипфейков становится лучше». Грань . Архивировано из оригинала 30 января 2020 года . Проверено 8 февраля 2020 г.
  55. ^ «Аудиообразцы из «Перенос обучения от проверки говорящего к синтезу речи с несколькими говорящими»» . google.github.io . Архивировано из оригинала 14 ноября 2019 года . Проверено 8 февраля 2020 г.
  56. ^ Цзя, Йе; Чжан, Ю; Вайс, Рон Дж.; Ван, Цюань; Шен, Джонатан; Рен, Фей; Чен, Чжифэн; Нгуен, Патрик; Панг, Руомин; Морено, Игнасио Лопес; У, Юнхуэй (2 января 2019 г.). «Перенос обучения от проверки говорящего к синтезу текста в речь с несколькими говорящими». arXiv : 1806.04558 [cs.CL].
  57. ^ "Визуальные вычисления TUM: профессор Маттиас Ниснер" . www.niessnerlab.org . Архивировано из оригинала 21 февраля 2020 года . Проверено 8 февраля 2020 г.
  58. ^ «Полная перезагрузка страницы» . IEEE Spectrum: Новости технологий, техники и науки . 11 декабря 2019 года. Архивировано из оригинала 26 июня 2020 года . Проверено 8 февраля 2020 г.
  59. ^ «Вклад данных в исследования по обнаружению дипфейков» . 24 сентября 2019 года. Архивировано из оригинала 5 февраля 2020 года . Проверено 8 февраля 2020 г.
  60. ^ Тален, Микаэль. «Теперь вы можете превратить себя в знаменитость всего за несколько кликов». ежедневный точка . Архивировано из оригинала 6 апреля 2020 года . Проверено 3 апреля 2020 г. .
  61. Мэтьюз, Зейн (6 марта 2020 г.). «Весело или страх: приложение Deepfake помещает лица знаменитостей на ваши селфи». Kool1079 . Архивировано из оригинала 24 марта 2020 года . Проверено 6 марта 2020 г.
  62. ^ «Канье Уэст, Ким Кардашьян и ее отец: стоит ли нам делать голограммы мертвых?». Новости BBC . 31 октября 2020 года. Архивировано из оригинала 15 ноября 2020 года . Проверено 11 ноября 2020 г.
  63. ^ «Канье Уэст подарил Ким Кардашьян голограмму ее отца на ее день рождения» . модемы . 30 октября 2020 года. Архивировано из оригинала 11 ноября 2020 года . Проверено 11 ноября 2020 г.
  64. ^ «Жертва Паркленда Хоакин Оливер возвращается к жизни в душераздирающем призыве к избирателям» . adage.com . 2 октября 2020 г. Архивировано из оригинала 11 ноября 2020 г. . Проверено 11 ноября 2020 г.
  65. Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем дипфейковом представлении Metaphysical 'AGT': смотреть» . Рекламный щит . Проверено 8 ноября 2022 г.
  66. ^ "Реклама Джона Леннона «Один ноутбук на ребенка»» . YouTube .
  67. Зуккони, Алан (14 марта 2018 г.). «Понимание технологии DeepFakes». Алан Зуккони . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  68. ^ «Что такое дипфейк?». Блог — Синтез . 3 мая 2022 г. Проверено 17 мая 2022 г.
  69. ^ abcde Kan, CE (10 декабря 2018 г.). «Что, черт возьми, такое VAE-GAN?». Середина . Архивировано из оригинала 14 июля 2021 года . Проверено 8 ноября 2019 г.
  70. ^ ab «Эти новые трюки могут перехитрить дипфейковые видео — на данный момент». Проводной . ISSN  1059-1028. Архивировано из оригинала 3 октября 2019 года . Проверено 9 ноября 2019 г.
  71. Кемп, Люк (8 июля 2019 г.). «Могут ли виртуальные актеры в эпоху дипфейков лишить людей бизнеса?» Хранитель . ISSN  0261-3077. Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  72. Верма, Праншу (21 июля 2023 г.). «Цифровые клоны, созданные с помощью технологий искусственного интеллекта, могут сделать голливудскую статистку устаревшей». Вашингтон Пост . Проверено 4 января 2024 г.
  73. ^ ab «Нейронная замена лиц с высоким разрешением для визуальных эффектов | Disney Research Studios». Архивировано из оригинала 27 ноября 2020 года . Проверено 7 октября 2020 г.
  74. ^ ab «Технологию дипфейков Диснея можно использовать в кино и на телевидении». Блулуп . 21 июля 2020 года. Архивировано из оригинала 12 ноября 2020 года . Проверено 7 октября 2020 г.
  75. Линдли, Джон А. (2 июля 2020 г.). «Дисней решается вернуть «мертвых актеров» посредством распознавания лиц». Тех Таймс . Архивировано из оригинала 14 июля 2021 года . Проверено 7 октября 2020 г.
  76. Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд стал звездой фильма «Соло: Звёздные войны. Истории» благодаря технологии дипфейков». Полигон . Архивировано из оригинала 20 октября 2019 года . Проверено 20 октября 2019 г.
  77. ^ Виник, Эрин. «Как марионетка Кэрри Фишер сделала карьеру принцессы Леи из «Изгоя-один»». Обзор технологий Массачусетского технологического института . Архивировано из оригинала 23 октября 2019 года . Проверено 20 октября 2019 г.
  78. ^ «Deepfake Люк Скайуокер - еще один шаг на омерзительном пути компьютерной графики» . Британский журнал GQ . 10 февраля 2022 г. Проверено 3 июня 2022 г.
  79. Dazed (10 февраля 2022 г.). «Перепишут ли дипфейки историю такой, какой мы ее знаем?». Ошеломленный . Проверено 3 июня 2022 г.
  80. Шварцель, Эрих (21 декабря 2023 г.). «За созданием моего цифрового двойника искусственного интеллекта». Уолл Стрит Джорнал . Проверено 4 января 2024 г.
  81. Кофе, Патрик (18 июня 2023 г.). «Знаменитости используют ИИ, чтобы контролировать свои изображения». Уолл Стрит Джорнал . Проверено 4 января 2024 г.
  82. ^ Катерина Чижек, Уильям Уриккио и Сара Волозин: Коллективная мудрость | Массачусетский технологический институт [1]. Архивировано 4 марта 2020 года в Wayback Machine.
  83. ^ "ANSA | Орнелла Мути в кортометраджио во Флоренции" . 3 ноября 2017 г. Архивировано из оригинала 27 февраля 2020 г. . Проверено 27 февраля 2020 г.
  84. ^ «Создатели «Южного парка» запускают новый фейковый сатирический сериал «Нахальное правосудие»» . НМЕ . 27 октября 2020 г. Проверено 7 июня 2022 г.
  85. ^ аб Тайлер, Келли М.; Харрис, Лори А. (8 июня 2021 г.). Глубокие фейки и национальная безопасность (Доклад). Исследовательская служба Конгресса . п. 1 . Проверено 19 июля 2021 г.
  86. Лимберг, Питер (24 мая 2020 г.). «Инфляция шантажа». КультГосударство . Архивировано из оригинала 24 января 2021 года . Проверено 18 января 2021 г.
  87. ^ «Для Каппи». Телеграф . 24 мая 2020 г. Архивировано из оригинала 24 января 2021 г. . Проверено 18 января 2021 г.
  88. ^ «Судьи AGT бесценно отреагировали на прослушивание пения Саймона Коуэлла» . Официальный сайт NBC Insider . 8 июня 2022 г. Проверено 29 августа 2022 г.
  89. ^ Марр, Бернард. «Может ли ИИ Метавселенной завоевать таланты Америки? (И что это значит для отрасли)». Форбс . Проверено 30 августа 2022 г.
  90. Моралес, Джови (10 июня 2022 г.). «Дипфейки становятся мейнстримом: как появление AGT от Metaphysical повлияет на индустрию развлечений». МУО . Проверено 29 августа 2022 г.
  91. Картер, Ребекка (1 июня 2019 г.). «Зрители BGT раскритиковали Саймона Коуэлла за «грубое» и «неприятное» замечание в адрес участника». Развлечения Ежедневно . Проверено 31 августа 2022 г.
  92. ^ Саймон Коуэлл поет на сцене?! Метафизика лишит вас дара речи | AGT 2022 , получено 29 августа 2022 г.
  93. ^ Сегарра, Эдвард. «Судьи AGT Саймон Коуэлл и Хоуи Мэндел подвергаются «дипфейковому» обращению со стороны ИИ-акта «Метафизика»: смотрите здесь» . США СЕГОДНЯ . Проверено 31 августа 2022 г.
  94. Боуэнбанк, Старр (14 сентября 2022 г.). «Дуэты Саймона Коуэлла с Элвисом в последнем дипфейковом представлении Metaphysical 'AGT': смотреть» . Рекламный щит . Проверено 15 сентября 2022 г.
  95. Цвизен, Зак (18 января 2021 г.). «Веб-сайт позволяет заставить GLaDOS говорить все, что вы хотите» . Котаку . Архивировано из оригинала 17 января 2021 года . Проверено 18 января 2021 г.
  96. Руперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS из Portal и других любимых персонажей говорить самые странные вещи с помощью этого приложения» . Игровой информер . Игровой информер . Архивировано из оригинала 18 января 2021 года . Проверено 18 января 2021 г.
  97. Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 декламировать старые мемы с помощью этого инструмента преобразования текста в речь ИИ». ПК-геймер . Архивировано из оригинала 19 января 2021 года . Проверено 19 января 2021 г.
  98. Шерман, Мария (3 декабря 2023 г.). «Kiss попрощались с живыми гастролями, стали первой группой в США, которая перешла в виртуальный формат и стала цифровыми аватарами». АП Новости . Ассошиэйтед Пресс . Проверено 4 января 2024 г.
  99. ↑ abc Cerullo, Меган (9 января 2024 г.). «Реклама, созданная искусственным интеллектом с использованием образа Тейлор Свифт, обманывает фанатов фальшивой раздачей Le Creuset» . Новости CBS . Проверено 10 января 2024 г.
  100. ^ abcde Сюй, Тиффани; Лу, Ивэнь (9 января 2024 г.). «Нет, это не Тейлор Свифт, торгующая посудой Le Creuset». Нью-Йорк Таймс . п. Б1 . Проверено 10 января 2024 г.
  101. ^ abc Тейлор, Деррик Брайсон (2 октября 2023 г.). «Том Хэнкс предупреждает о том, что в стоматологической рекламе используется его версия с искусственным интеллектом» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 12 октября 2023 г.
  102. ^ abc Джонсон, Кирстен (11 декабря 2023 г.). «Женщина из Аризоны стала жертвой дипфейкового мошенничества с использованием знаменитостей в социальных сетях» . ABC 15 Аризона . Проверено 10 января 2024 г.
  103. ↑ Аб Кулунду, Мэри (4 января 2024 г.). «Дипфейковые видео Илона Маска, используемые в аферах с целью быстрого обогащения» . Агентство Франс-Пресс . Проверено 10 января 2024 г.
  104. Эсмаэль, Лисбет (3 января 2024 г.). «PH нуждается в многогранном подходе по сравнению с видео «дипфейками», используемыми для мошенничества с Pinoys». CNN Филиппины . Архивировано из оригинала 10 января 2024 года . Проверено 10 января 2024 г.
  105. Геркен, Том (4 октября 2023 г.). «Звезды MrBeast и BBC используются в мошеннических видеороликах» . Новости BBC . Проверено 10 января 2024 г.
  106. ↑ Аб Лим, Кимберли (29 декабря 2023 г.). «Премьер-министр Сингапура Ли предупреждает об «очень убедительных» дипфейках, «распространяющих дезинформацию» после того, как появилось фейковое видео с ним» . Южно-Китайская Морнинг Пост . Архивировано из оригинала 9 января 2024 года . Проверено 10 января 2024 г.
  107. Тейлор, Джош (30 ноября 2023 г.). «Мошенник заплатил Facebook 7 центов за просмотр, чтобы распространить видео с дипфейковым Джимом Чалмерсом и Джиной Райнхарт». Хранитель . Проверено 10 января 2024 г.
  108. Палмер, Джозеф Ольбрихт (14 декабря 2023 г.). «Подделка казначейства Австралии, которую чиновники центрального банка использовали для продвижения инвестиционного мошенничества» . Агентство Франс-Пресс . Проверено 10 января 2024 г.
  109. ^ abc Кеблер, Джейсон (9 января 2024 г.). «На YouTube широко распространена фальсифицированная реклама знаменитостей, пропагандирующая мошенничество в сфере медицинского обслуживания». 404 Медиа . Проверено 10 января 2024 г.
  110. ^ abc Rosenblatt, Калхан (3 октября 2023 г.). «MrBeast называет рекламу TikTok, показывающую его ИИ-версию, «мошенничеством»». Новости Эн-Би-Си . Проверено 10 января 2024 г.
  111. Кеблер, Джейсон (25 января 2024 г.). «YouTube удаляет 1000 видеороликов с мошеннической рекламой с использованием искусственного интеллекта знаменитостей» . 404 Медиа . Проверено 2 февраля 2024 г.
  112. Буччи, Нино (27 ноября 2023 г.). «Дик Смит раскритиковал Facebook после того, как мошенники распространили фейковую видеорекламу» . Хранитель . Проверено 10 января 2024 г.
  113. Ломас, Наташа (7 июля 2023 г.). «Мартин Льюис предупреждает о «первой» фейковой видеомошеннической рекламе, циркулирующей на Facebook» . ТехКранч . Проверено 10 января 2024 г.
  114. Лопатто, Элизабет (3 января 2024 г.). «Новое интересное последствие дипфейка: более убедительное мошенничество с криптовалютой». Грань . Проверено 10 января 2024 г.
  115. ^ Спото, Майя; Поритц, Исайя (11 октября 2023 г.). «MrBeast, Том Хэнкс уязвлен мошенничеством с искусственным интеллектом, поскольку закон спешит идти в ногу» . Закон Блумберга . Проверено 10 января 2024 г.
  116. ^ Статт, Ник (5 сентября 2019 г.). «Воры теперь используют дипфейки с использованием искусственного интеллекта, чтобы обманом заставить компании отправлять им деньги». Архивировано из оригинала 15 сентября 2019 года . Проверено 13 сентября 2019 г.
  117. ^ Дамиани, Джесси. «Голосовой дипфейк был использован, чтобы обмануть генерального директора на 243 000 долларов» . Форбс . Архивировано из оригинала 14 сентября 2019 года . Проверено 9 ноября 2019 г.
  118. ^ Шварц, Кристофер; Райт, Мэтью (17 марта 2023 г.). «Звонят голосовые дипфейки – вот что это такое и как не попасться на мошенничество». Разговор .
  119. C, Ким (22 августа 2020 г.). «Танец с гробом и многое другое: музыкальные мемы 2020 года». Музыкальные времена . Архивировано из оригинала 26 июня 2021 года . Проверено 26 августа 2020 г.
  120. Шолигин, Ильяс (7 августа 2020 г.). «Кто-то подделал сингапурских политиков, чтобы синхронизировать по губам эту японскую песню-мем». АзияОдин . Архивировано из оригинала 3 сентября 2020 года . Проверено 26 августа 2020 г.
  121. Романо, Ая (18 апреля 2018 г.). «Имитация PSA Джордана Пила — это обоюдоострое предупреждение против фейковых новостей». Вокс . Архивировано из оригинала 11 июня 2019 года . Проверено 10 сентября 2018 г.
  122. ^ abcd «Венн Меркель plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos» . az Aargauer Zeitung. 3 февраля 2018 года. Архивировано из оригинала 13 апреля 2019 года . Проверено 9 апреля 2018 г.
  123. ^ Генсинг, Патрик. «Deepfakes: Auf dem Weg в альтернативной реальности?». Архивировано из оригинала 11 октября 2018 года . Проверено 9 апреля 2018 г.
  124. Свенсон, Кайл (11 января 2019 г.). «Телеканал Сиэтла показал сфальсифицированную запись речи Трампа в Овальном кабинете. Сотрудник был уволен». Вашингтон Пост . Архивировано из оригинала 15 апреля 2019 года . Проверено 11 января 2019 г.
  125. ^ О'Салливан, Дони (4 июня 2019 г.). «Конгресс расследует дипфейки, поскольку подделанное видео Пелоси вызывает переполох» . CNN . Архивировано из оригинала 29 июня 2019 года . Проверено 9 ноября 2019 г.
  126. ^ "#TellTheTruthБельгия" . Восстание вымирания в Бельгии . Архивировано из оригинала 25 апреля 2020 года . Проверено 21 апреля 2020 г.
  127. Голубович, Джеральд (15 апреля 2020 г.). «Восстание вымирания в мире дипфейков». Журналистика.дизайн (на французском языке). Архивировано из оригинала 29 июля 2020 года . Проверено 21 апреля 2020 г.
  128. Карнахан, Дастин (16 сентября 2020 г.). «Фальшивые видео укрепляют ложные представления о психическом здоровье Байдена». Разговор . Проверено 9 апреля 2022 г.
  129. Паркер, Эшли (7 сентября 2020 г.). «Трамп и его союзники наращивают усилия по распространению дезинформации и фейковых новостей» . Независимый . Проверено 9 апреля 2022 г.
  130. Кристофер, Нилеш (18 февраля 2020 г.). «Мы только что стали свидетелями первого использования дипфейков в избирательной кампании в Индии». Порок . Архивировано из оригинала 19 февраля 2020 года . Проверено 19 февраля 2020 г.
  131. ^ «Амаби: мифическое существо, возвращающее коронавирус» . Экономист . 28 апреля 2020 г. ISSN  0013-0613. Архивировано из оригинала 20 мая 2021 года . Проверено 3 июня 2021 г.
  132. Рот, Эндрю (22 апреля 2021 г.). «Европейские депутаты подверглись фейковым видеозвонкам, имитирующим российскую оппозицию». Хранитель . Проверено 29 марта 2022 г.
  133. ^ Иванов, Максим; Ротрок, Кевин (22 апреля 2021 г.). «Здравствуйте, это Леонид Волков*. Используя дипфейковые видео и выдавая себя за правую руку Навального, российские шутники обманывают латвийских политиков и журналистов, заставляя их приглашать и давать телеинтервью». Медуза . Проверено 29 марта 2022 г.
  134. ^ "Голландские депутаты на видеоконференции с глубокой фейковой имитацией главы администрации Навального" . НЛ Таймс . 24 апреля 2021 г. Проверено 29 марта 2022 г.
  135. ^ «Помощник Навального 'Deepfake' нацелен на европейских законодателей» . Московская Таймс . 23 апреля 2021 г. Проверено 29 марта 2022 г.
  136. Винсент, Джеймс (30 апреля 2021 г.). «Дипфейк, который якобы обманул европейских политиков, был всего лишь двойником, говорят шутники». Грань .
  137. Новак, Мэтт (8 мая 2023 г.). «Вирусное видео, на котором Камала Харрис говорит тарабарщину, на самом деле является дипфейком» . Форбс .
  138. ^ «PolitiFact - Камала Харрис не говорила невнятно о сегодняшнем, вчерашнем или завтрашнем дне. Это видео изменено» . Политифакт .
  139. Шухам, Мэтт (8 июня 2023 г.). «Реклама предвыборной кампании ДеСантиса показывает фальшивые изображения искусственного интеллекта, на которых Трамп обнимает Фаучи» . ХаффПост . Проверено 8 июня 2023 г.
  140. ^ Аб Реттгерс, Янко (21 февраля 2018 г.). «Порнопродюсеры предлагают помочь Голливуду удалить дипфейковые видео». Разнообразие . Архивировано из оригинала 10 июня 2019 года . Проверено 28 февраля 2018 г.
  141. ^ abc Диксон, EJ (7 октября 2019 г.). «Дипфейковое порно по-прежнему представляет угрозу, особенно для звезд K-Pop». Катящийся камень . Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  142. ^ «Состояние дипфейков – ландшафт, угрозы и влияние» (PDF) . Диптрейс . 1 октября 2019 г. Архивировано (PDF) из оригинала 9 августа 2020 г. . Проверено 7 июля 2020 г.
  143. Гоггин, Бенджамин (7 июня 2019 г.). «От порно к «Игре престолов»: как дипфейки и реалистично выглядящие фейковые видеоролики стали популярными». Бизнес-инсайдер . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  144. Ли, Дэйв (3 февраля 2018 г.). «Фейковое порно имеет серьезные последствия». Архивировано из оригинала 1 декабря 2019 года . Проверено 9 ноября 2019 г.
  145. Коул, Саманта (19 июня 2018 г.). «Решение Gfycat на основе искусственного интеллекта для борьбы с дипфейками не работает» . Порок . Архивировано из оригинала 8 ноября 2019 года . Проверено 9 ноября 2019 г.
  146. ^ Зои, Френи (24 ноября 2019 г.). «Глубокое фейковое порно никуда не денется» . Середина . Архивировано из оригинала 10 декабря 2019 года . Проверено 10 декабря 2019 г.
  147. ^ Коул, Саманта; Майберг, Эмануэль; Кеблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает фотографию любой женщины одним щелчком мыши». Порок . Архивировано из оригинала 2 июля 2019 года . Проверено 2 июля 2019 г.
  148. Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Вице Медиа . Архивировано из оригинала 24 сентября 2020 года . Проверено 14 июля 2019 г.
  149. ^ "pic.twitter.com/8uJKBQTZ0o" . 27 июня 2019 года. Архивировано из оригинала 6 апреля 2021 года . Проверено 3 августа 2019 г.
  150. ^ Дамиани, Джесси. «Китайское приложение-дипфейк Zao становится вирусным и сразу же сталкивается с критикой по поводу пользовательских данных и политики безопасности» . Форбс . Архивировано из оригинала 14 сентября 2019 года . Проверено 18 ноября 2019 г.
  151. ^ «В преддверии выборов в Ирландии и США Facebook объявляет о новых мерах против видео с дипфейками» . Независимый.т.е . 7 января 2020 года. Архивировано из оригинала 8 января 2020 года . Проверено 7 января 2020 г.
  152. ^ «Как бельгийский визуальный эксперт Крис Уме придумал дипфейки Тома Круза» . Государственный деятель . 6 марта 2021 г. Проверено 24 августа 2022 г.
  153. ^ Мец, Рэйчел. «Как дипфейк Тома Круза в TikTok превратился в настоящую компанию по искусственному интеллекту». CNN .
  154. ^ Коркоран, Марк; Генри, Мэтт (23 июня 2021 г.). «Это не Том Круз. Вот что так беспокоит экспертов по безопасности». Новости АВС . Проверено 28 марта 2022 г.
  155. ^ Reuters, 15 июля 2020 г., Deepfake, использованный для нападения на активистскую пару, показывает новый рубеж дезинформации. Архивировано 26 сентября 2020 г. на Wayback Machine.
  156. ^ Журнал 972, 12 августа 2020 г., «Левые за Биби»? Разоблачена пропаганда Deepfake в поддержку Нетаньяху: согласно серии сообщений в Facebook, премьер-министр Израиля побеждает левых последователей - за исключением того, что ни один из людей в Вопрос существует». Архивировано 14 августа 2020 г. на Wayback Machine.
  157. «Седьмой глаз», 9 июня 2020 г., הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזו יפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקר Архивировано 18 августа 2020 года на Wayback Machine .
  158. ^ «Вооруженные дипфейки: национальная безопасность и демократия на JSTOR» . www.jstor.org . Архивировано из оригинала 22 октября 2020 года . Проверено 21 октября 2020 г.
  159. ^ Ваккари, Кристиан; Чедвик, Эндрю (январь 2020 г.). «Дипфейки и дезинформация: изучение влияния синтетического политического видео на обман, неопределенность и доверие к новостям». Социальные сети + Общество . 6 (1): 205630512090340. doi : 10.1177/2056305120903408 . ISSN  2056-3051. S2CID  214265502.
  160. ^ ab «Идеальная технология Deepfake может появиться раньше, чем ожидалось» . www.wbur.org . 2 октября 2019 года. Архивировано из оригинала 30 октября 2019 года . Проверено 9 ноября 2019 г.
  161. ^ Зоннемакер, Тайлер. «Пока платформы социальных сетей готовятся к наступающей волне дипфейков, бывший «царь мошенничества» Google предсказывает, что самая большая опасность заключается в том, что дипфейки со временем станут скучными». Бизнес-инсайдер . Архивировано из оригинала 14 апреля 2021 года . Проверено 14 апреля 2021 г.
  162. ^ abc Бейтман, Джон (2020). "Краткое содержание". Дипфейки и синтетические медиа в финансовой системе : 1–2. Архивировано из оригинала 20 апреля 2021 года . Проверено 28 октября 2020 г.
  163. Келион, Лев (сентябрь 2020 г.). «Инструмент обнаружения Deepfake, представленный Microsoft». Новости BBC . Архивировано из оригинала 14 апреля 2021 года . Проверено 15 апреля 2021 г.
  164. ^ Фэган, Кейли. «Вирусное видео, на котором видно, как Обама называет Трампа «придурком», демонстрирует тревожную новую тенденцию, называемую «дипфейками»». Бизнес-инсайдер . Архивировано из оригинала 22 сентября 2020 года . Проверено 3 ноября 2020 г. .
  165. ^ ab «Рост дипфейков и угроза демократии». Хранитель . Архивировано из оригинала 1 ноября 2020 года . Проверено 3 ноября 2020 г. .
  166. ^ ab «В социальных сетях распространяются изображения ареста Трампа, созданные искусственным интеллектом» . АП Новости. 21 марта 2023 г. Проверено 10 октября 2023 г.
  167. ^ «Трамп делится фейковой фотографией, на которой он молится, в то время как изображения ареста, сделанные искусственным интеллектом, распространяются в Интернете» . Независимый . 24 марта 2023 г. Проверено 16 июня 2023 г.
  168. ^ Тауэрс-Кларк, Чарльз. «Мона Лиза и Нэнси Пелоси: последствия дипфейков». Форбс . Архивировано из оригинала 23 ноября 2020 года . Проверено 7 октября 2020 г.
  169. ^ «В чем разница между Deepfake и Shallowfake?». 21 апреля 2020 года. Архивировано из оригинала 26 июня 2022 года . Проверено 5 декабря 2021 г.
  170. ^ abc «Deepfake Путин здесь, чтобы предупредить американцев об их собственной гибели». Обзор технологий Массачусетского технологического института . Архивировано из оригинала 30 октября 2020 года . Проверено 7 октября 2020 г.
  171. Зонне, Пол (5 июня 2023 г.). «В России транслируется фейковая речь Путина с призывом к введению военного положения» . Нью-Йорк Таймс . Проверено 6 июня 2023 г.
  172. Аллин, Бобби (16 марта 2022 г.). «Дипфейк-видео Зеленского может оказаться «верхушкой айсберга» в информационной войне, - предупреждают эксперты». ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР . Проверено 17 марта 2022 г.
  173. ^ Сатариано, Адам; Мозур, Пол (7 февраля 2023 г.). «Люди на экране фальшивые. Дезинформация реальна». Нью-Йорк Таймс .
  174. ^ «Папа Франциск в дипфейке Balenciaga обманывает миллионы: 'Определенно страшно'» . Нью-Йорк Пост . 28 марта 2023 г. Проверено 16 июня 2023 г.
  175. Лу, Донна (31 марта 2023 г.). «Дезинформация, ошибки и Папа в пуховике: что может – и не может – сделать быстро развивающийся ИИ». Хранитель . Проверено 16 июня 2023 г.
  176. Мерфи, Хизер Тал (29 марта 2023 г.). «Папа в пальто не из святилища». Сланец . Проверено 16 июня 2023 г.
  177. ^ «Женщина в дипфейковом видео с лицом Рашмики Манданны нарушает молчание: я глубоко обеспокоена и расстроена происходящим» . Таймс оф Индия . 9 ноября 2023 г. ISSN  0971-8257 . Проверено 23 ноября 2023 г.
  178. ^ abcd «Помогите нам сформировать наш подход к синтетическим и манипулируемым медиа». блог.twitter.com . Архивировано из оригинала 28 октября 2020 года . Проверено 7 октября 2020 г.
  179. ^ "ТехКранч". ТехКранч . 11 ноября 2019 г. Архивировано из оригинала 14 июля 2021 г. Проверено 7 октября 2020 г.
  180. ^ ab «Результаты задачи по обнаружению Deepfake: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Архивировано из оригинала 29 октября 2020 года . Проверено 7 октября 2020 г.
  181. ^ аб Пол, Кэти (4 февраля 2020 г.). «Твиттер для маркировки дипфейков и других вводящих в заблуждение средств массовой информации» . Рейтер . Архивировано из оригинала 10 октября 2020 года . Проверено 7 октября 2020 г.
  182. ^ Коэн, Ариэль; Римон, Инбал; Афлало, Эран; Пермутер, Хаим Х. (июнь 2022 г.). «Исследование увеличения данных в борьбе с подделкой голоса». Речевое общение . 141 : 56–67. arXiv : 2110.10491 . doi :10.1016/j.specom.2022.04.005. S2CID  239050551.
  183. ^ abc Манке, Кара (18 июня 2019 г.). «Исследователи используют черты лица, чтобы разоблачить «дипфейки»». Новости Беркли . Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  184. ^ Фарид, Хани (1 декабря 2006 г.). «Цифровое врачевание: как отличить настоящее от подделки». Значение . 3 (4): 162–166. дои : 10.1111/j.1740-9713.2006.00197.x . S2CID  13861938.
  185. ^ «Присоединяйтесь к конкурсу по обнаружению дипфейков (DFDC)» . deepfakedetectionchallenge.ai. Архивировано из оригинала 12 января 2020 года . Проверено 8 ноября 2019 г.
  186. ^ «Результаты задачи по обнаружению Deepfake: открытая инициатива по развитию искусственного интеллекта» . ai.facebook.com . Проверено 30 сентября 2022 г.
  187. ^ Гро, Мэтью; Эпштейн, Зив; Файерстоун, Чаз; Пикард, Розалинда (2022). «Обнаружение дипфейков толпами людей, машин и толп, информированных машинами». Труды Национальной академии наук . 119 (1). arXiv : 2105.06496 . Бибкод : 2022PNAS..11910013G. дои : 10.1073/pnas.2110013119 . ПМЦ 8740705 . ПМИД  34969837. 
  188. ^ Ху, Шу; Ли, Юэцзун; Лю, Сивэй (12 октября 2020 г.). «Экспонирование лиц, сгенерированных GAN, с использованием непоследовательных бликов роговицы». arXiv : 2009.11924 [cs.CV].
  189. ^ Богачек, М; Фарид, Х. (29 ноября 2022 г.). «Защита мировых лидеров от глубоких фейков с использованием мимики, жестов и голосовых манер». Труды Национальной академии наук Соединенных Штатов Америки . 119 (48): e2216035119. Бибкод : 2022PNAS..11916035B. дои : 10.1073/pnas.2216035119 . ПМЦ 9860138 . ПМИД  36417442. 
  190. ^ ab "Академия Google". ученый.google.com . Проверено 30 апреля 2022 г.
  191. ^ ab «Двухветвевая рекуррентная сеть для изоляции дипфейков в видео». ученый.google.com . Проверено 30 апреля 2022 г.
  192. ^ abc «Блокчейн-решение наших проблем с дипфейками». Проводной . ISSN  1059-1028. Архивировано из оригинала 7 ноября 2019 года . Проверено 9 ноября 2019 г.
  193. ^ аб Летару, Калев. «Почему цифровые подписи не предотвратят глубокие фейки, но помогут репрессивным правительствам». Форбс . Архивировано из оригинала 14 апреля 2021 года . Проверено 17 февраля 2021 г.
  194. ^ «Чтобы раскрыть фейковый видеозвонок, попросите звонящего повернуться боком» . Метафизика . 8 августа 2022 г. Проверено 24 августа 2022 г.
  195. Коул, Саманта (31 января 2018 г.). «Создатели фейкового порно, созданные искусственным интеллектом, были изгнаны со своего любимого ведущего» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 18 ноября 2019 г.
  196. Бём, Маркус (7 февраля 2018 г.). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Шпигель онлайн . Архивировано из оригинала 23 сентября 2019 года . Проверено 9 ноября 2019 г.
  197. ^ barbara.wimmer (8 февраля 2018 г.). «Deepfakes: Reddit löscht Forum for künstlich Generierte Fake-Pornos». Futurezone.at (на немецком языке). Архивировано из оригинала 8 февраля 2018 года . Проверено 9 ноября 2019 г.
  198. ^ "Deepfakes: Auch Reddit verbannt Fake-Porn" . heise онлайн (на немецком языке). 8 февраля 2018 г. Архивировано из оригинала 10 апреля 2019 г. . Проверено 9 ноября 2019 г.
  199. ^ "Раскрытие Reddit Deepfake-Pornos - derStandard.de" . DER STANDARD (на австрийском немецком языке). Архивировано из оригинала 9 ноября 2019 года . Проверено 9 ноября 2019 г.
  200. Робертсон, Ади (7 февраля 2018 г.). «Reddit запрещает «дипфейковые» порносообщества с искусственным интеллектом» . Грань . Архивировано из оригинала 24 сентября 2019 года . Проверено 9 ноября 2019 г.
  201. Коул, Саманта (6 февраля 2018 г.). «Twitter — новейшая платформа для запрета порнографии, созданной искусственным интеллектом». Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 8 ноября 2019 г.
  202. Прайс, Роб (27 января 2018 г.). «Discord только что закрыл чат-группу, посвященную обмену порновидео, отредактированными с помощью искусственного интеллекта и включающим знаменитостей». Бизнес-инсайдер Австралии . Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  203. ^ «Twitter запрещает дипфейковое порно, созданное искусственным интеллектом» . Engadget . 20 июля 2019 года. Архивировано из оригинала 15 декабря 2019 года . Проверено 28 ноября 2019 г. .
  204. ^ Аб Харрелл, Дрю. «Фейковые порновидео используются для преследования и унижения женщин: «Каждый является потенциальной мишенью»». Вашингтон Пост . Архивировано из оригинала 2 января 2019 года . Проверено 1 января 2019 г.
  205. ↑ Аб Коул, Саманта (6 февраля 2018 г.). «Pornhub запрещает фальшивые порновидео, созданные искусственным интеллектом, и утверждает, что они не согласованы» . Порок . Архивировано из оригинала 1 ноября 2019 года . Проверено 9 ноября 2019 г.
  206. ^ Берес, Дэймон; Гилмер, Маркус (2 февраля 2018 г.). «Руководство по «дипфейкам», последнему моральному кризису в Интернете». Машаемый . Архивировано из оригинала 9 декабря 2019 года . Проверено 9 ноября 2019 г.
  207. ^ ab «Facebook пообещал оставить дипфейковое видео Марка Цукерберга» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 16 октября 2019 года . Проверено 9 ноября 2019 г.
  208. Коул, Саманта (11 июня 2019 г.). «Этот дипфейк Марка Цукерберга проверяет политику Facebook в отношении фейкового видео». Порок . Архивировано из оригинала 12 октября 2019 года . Проверено 9 ноября 2019 г.
  209. ^ Андерсон, Мартин (2022). Google запретил обучение дипфейков в Colab. Архивировано 30 мая 2022 г. на Wayback Machine , Unite.ai, 28 мая 2022 г.
  210. ^ Майберг, Эмануэль (2022). Требуется 2 клика, чтобы перейти от «Глубокого Тома Круза» к мерзкому дипфейковому порно. Архивировано 30 мая 2022 года на Wayback Machine , VICE, 17 мая 2022 года.
  211. Сасс, Бен (21 декабря 2018 г.). «S. 3805–115-й Конгресс (2017–2018 гг.): Закон о запрете злонамеренных глубоких фейков 2018 года». www.congress.gov . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  212. ^ «Порноместь 'Deepfake' теперь незаконно в Вирджинии» . ТехКранч . Июль 2019. Архивировано из оригинала 14 июля 2021 года . Проверено 16 октября 2019 г.
  213. Яконо Браун, Нина (15 июля 2019 г.). «Конгресс хочет раскрыть дипфейки к 2020 году. Это должно нас беспокоить». Журнал «Сланец» . Архивировано из оригинала 16 октября 2019 года . Проверено 16 октября 2019 г.
  214. ^ ab «Текст законопроекта - AB-602 Изображение человека, использующего цифровые или электронные технологии: материалы откровенно сексуального характера: причина иска» . leginfo.legislature.ca.gov . Архивировано из оригинала 17 ноября 2019 года . Проверено 9 ноября 2019 г.
  215. ^ ab «Текст законопроекта - Выборы AB-730: вводящие в заблуждение аудио или визуальные средства массовой информации» . leginfo.legislature.ca.gov . Архивировано из оригинала 31 октября 2019 года . Проверено 9 ноября 2019 г.
  216. ^ «Китай стремится искоренить фейковые новости и дипфейки с помощью новых правил онлайн-контента» . Reuters.com . Рейтер . 29 ноября 2019 года. Архивировано из оригинала 17 декабря 2019 года . Проверено 17 декабря 2019 г.
  217. ^ Статт, Ник (29 ноября 2019 г.). «Китай считает уголовным преступлением публикацию дипфейков или фейковых новостей без раскрытия». Грань . Архивировано из оригинала 22 декабря 2019 года . Проверено 17 декабря 2019 г.
  218. Призыв к законопроекту об апскирте, включающему запрет на «дипфейковую» порнографию. Архивировано 21 июня 2018 года в Wayback Machine The Guardian.
  219. ^ [2] Архивировано 22 ноября 2019 г. в Wayback Machine , см. стр. 18.
  220. Богарт, Николь (10 сентября 2019 г.). «Как дипфейки могут повлиять на выборы в Канаде в 2019 году». Федеральные выборы 2019 . Архивировано из оригинала 27 января 2020 года . Проверено 28 января 2020 г.
  221. ^ «Что может сделать закон с Deepfake» . Mcmillan.ca . Архивировано из оригинала 7 декабря 2019 года . Проверено 28 января 2020 г.
  222. Венкатасубббу, Сатиш (27 июня 2023 г.). «Как дипфейки используются для мошенничества с вами и мной? Текущие тенденции в обнаружении с использованием искусственного интеллекта и правовые нормы во всем мире». кибермитра.в . Проверено 3 июля 2023 г.
  223. ^ «Военные США финансируют усилия по обнаружению дипфейков и других уловок искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 1 ноября 2020 года . Проверено 7 октября 2020 г.
  224. ^ ab «DARPA решает проблему дипфейков» . Nextgov.com . 6 августа 2019 года. Архивировано из оригинала 28 октября 2020 года . Проверено 7 октября 2020 г.
  225. ^ "СМИ-криминалистика". www.darpa.mil . Архивировано из оригинала 29 октября 2020 года . Проверено 7 октября 2020 г.
  226. ^ "Пикапер". База данных спекулятивной фантастики в Интернете . Архивировано из оригинала 29 июля 2020 года . Проверено 9 июля 2019 г.
  227. ^ Керр, Филип (2010). Философское исследование . Национальные географические книги. ISBN 978-0143117537.
  228. Берналь, Наташа (8 октября 2019 г.). «Тревожная правда о «Захвате» и дипфейках из реальной жизни». Телеграф . Архивировано из оригинала 14 октября 2019 года . Проверено 24 октября 2019 г.
  229. Кроули, Питер (5 сентября 2019 г.). «Захват: триллер BBC о слежке, искажениях и двуличности». Ирландские Таймс . Архивировано из оригинала 9 сентября 2019 года . Проверено 24 октября 2019 г.
  230. ^ «ESPN Films Последние 30 из 30 документальных фильмов « Эл Дэвис против НФЛ», премьера которых состоится 4 февраля» (пресс-релиз). ЭСПН. 15 января 2021 года. Архивировано из оригинала 6 февраля 2021 года . Проверено 5 февраля 2021 г.
  231. ^ Спрунг, Шломо (1 февраля 2021 г.). «Документальный фильм ESPN «Эл Дэвис против НФЛ» использует технологию Deepfake, чтобы вернуть к жизни владельца покойных рейдеров» . Форбс . Архивировано из оригинала 14 апреля 2021 года . Проверено 4 февраля 2021 г.
  232. ^ «Хадсон и Рекс».
  233. ↑ Аб Вуд, Микаэль (9 мая 2022 г.). «Смотрите, как Кендрик Ламар превращается в О Джея, Канье, Коби, Нипси Хассла в новом видео» . Лос-Анджелес Таймс . Проверено 10 мая 2022 г.
  234. Aloe Blacc - Wake Me Up (Universal Language Mix) , получено 24 августа 2022 г.
  235. ^ «Посмотрите, как Алоэ Блэк исполняет «Wake Me Up» на трех языках в честь Авичи, используя перевод Respeecher AI» . Voicebot.ai . 5 мая 2022 г. Проверено 24 августа 2022 г.
  236. Лис, Доминик (27 января 2023 г.). «Deep Fake Neighbor Wars: комедия ITV показывает, как искусственный интеллект может изменить популярную культуру». Разговор . Проверено 3 июля 2023 г.

дальнейшее чтение

Внешние ссылки