stringtranslate.com

Цифровое клонирование

Цифровое клонирование — это новая технология, которая включает в себя алгоритмы глубокого обучения, которые позволяют манипулировать существующими в настоящее время аудио , фотографиями и видео, которые являются гиперреалистичными. [1] Одним из последствий такой технологии является то, что гиперреалистичные видео и фотографии затрудняют для человеческого глаза различение того, что реально, а что поддельно. [2] Кроме того, поскольку различные компании делают такие технологии доступными для общественности, они могут принести различные выгоды, а также потенциальные правовые и этические проблемы.

Цифровое клонирование можно разделить на аудиовизуальное (AV), клонирование памяти, личности и потребительского поведения . [3] При AV-клонировании создание клонированной цифровой версии цифрового или нецифрового оригинала может использоваться, например, для создания поддельного изображения, аватара или поддельного видео или аудио человека, которое нельзя легко отличить от реального человека, которого оно якобы представляет. Клон памяти и личности, такой как клон разума, по сути является цифровой копией разума человека. Клон потребительского поведения — это профиль или кластер клиентов на основе демографических данных.

Труби и Браун придумали термин «цифровой клон мысли», чтобы обозначить эволюцию цифрового клонирования в более продвинутый персонализированный цифровой клон, который представляет собой «копию всех известных данных и поведения конкретного живого человека, записывающую в режиме реального времени его выбор, предпочтения, поведенческие тенденции и процессы принятия решений». [3]

Цифровое клонирование впервые стало популярным в индустрии развлечений. Идея цифровых клонов возникла из кинокомпаний, создающих виртуальных актеров актеров, которые умерли. Когда актеры умирают во время съемок фильма, цифровой клон актера может быть синтезирован с использованием прошлых кадров, фотографий и голосовых записей, чтобы имитировать реального человека, чтобы продолжить производство фильма. [4]

Современный искусственный интеллект позволил создавать deepfakes . Это подразумевает манипуляцию видео до такой степени, что человек, изображенный на видео, говорит или совершает действия, на которые он или она, возможно, не давали согласия. [5] В апреле 2018 года BuzzFeed опубликовал deepfake-видео Джордана Пила , которое было смонтировано так, чтобы показать бывшего президента Барака Обаму , делающего заявления, которые он ранее не делал публично, чтобы предупредить общественность о потенциальных опасностях deepfakes. [6]

В дополнение к дипфейкам, такие компании, как Intellitar, теперь позволяют легко создать цифровой клон себя, загрузив серию изображений и голосовых записей. Это по сути создает цифровое бессмертие , позволяя близким взаимодействовать с представлениями тех, кто умер. [7] Цифровое клонирование не только позволяет цифровым способом увековечить память своих близких, но также может использоваться для создания представлений исторических личностей и использоваться в образовательной среде.

С развитием различных технологий, как упоминалось выше, возникает множество проблем, включая кражу личных данных , утечку данных и другие этические проблемы. Одна из проблем цифрового клонирования заключается в том, что практически нет законодательных актов, защищающих потенциальных жертв от этих возможных проблем. [8]

Технологии

Платформы интеллектуальных аватаров (IAP)

Интеллектуальная платформа аватаров (IAP) может быть определена как онлайн-платформа, поддерживаемая искусственным интеллектом , которая позволяет человеку создавать клона самого себя. [7] Человек должен обучить своего клона действовать и говорить как он сам, скармливая алгоритму многочисленные голосовые записи и видеозаписи себя. [9] По сути, платформы позиционируются как место, где человек «живет вечно», поскольку он может взаимодействовать с другими аватарами на той же платформе. IAP становится платформой для достижения цифрового бессмертия , а также для сохранения генеалогического древа и наследия для последующих поколений. [7]

Некоторые примеры IAP включают Intellitar и Eterni.me. Хотя большинство из этих компаний все еще находятся на стадии разработки, все они пытаются достичь одной и той же цели — позволить пользователю создать точную копию себя, чтобы сохранить все воспоминания, которые у него есть в голове, в киберпространстве. [7] Некоторые включают бесплатную версию, которая позволяет пользователю выбрать свой аватар только из заданного набора изображений и аудио. Однако с премиум-настройкой эти компании попросят пользователя загрузить фотографии, видео и аудиозаписи одного из них, чтобы сформировать реалистичную версию себя. [10] Кроме того, чтобы гарантировать, что клон максимально приближен к оригинальному человеку, компании также поощряют взаимодействие со своим собственным клоном, общаясь и отвечая на вопросы за него. Это позволяет алгоритму изучить когнитивные способности оригинального человека и применить их к клону. Intellitar закрылась в 2012 году из-за споров об интеллектуальной собственности по поводу используемой технологии. [11]

Потенциальные проблемы с IAP включают потенциальные утечки данных и отсутствие согласия умершего. IAP должен иметь прочную основу и ответственность против утечек данных и взлома, чтобы защитить личную информацию умерших, которая может включать голосовые записи, фотографии и сообщения. [9] Помимо риска нарушения личной конфиденциальности , существует также риск нарушения конфиденциальности умершего . Хотя человек может дать согласие на создание цифрового клона себя до своей физической смерти, он не может дать согласие на действия, которые может предпринять цифровой клон.

Дипфейки

Как было описано ранее, deepfakes — это форма видеоманипуляций, при которой можно изменять присутствующих людей, подавая различные изображения определенного человека, которого вы хотите. Кроме того, можно также изменять голос и слова, которые говорит человек на видео, просто отправляя серию голосовых записей нового человека продолжительностью около одной или двух минут. В 2018 году было выпущено новое приложение под названием FakeApp, позволяющее общественности легко получить доступ к этой технологии для создания видео. Это приложение также использовалось для создания видео Buzzfeed бывшего президента Барака Обамы . [6] [12] С помощью deepfakes отрасли могут сократить расходы на найм актеров или моделей для фильмов и рекламы, эффективно создавая видео и фильмы по низкой цене, просто собирая серию фотографий и аудиозаписей с согласия человека. [13]

Потенциальная проблема с deepfakes заключается в том, что доступ предоставляется практически любому, кто загружает различные приложения, предлагающие ту же услугу. Поскольку любой может получить доступ к этому инструменту, некоторые могут злонамеренно использовать приложение для создания порно мести и манипулятивных видеороликов государственных служащих, делающих заявления, которые они никогда не произнесут в реальной жизни. Это не только вторгается в частную жизнь человека на видео, но и поднимает различные этические проблемы. [14]

Клонирование голоса

Клонирование голоса — это случай аудио методов deepfake , которые используют искусственный интеллект для создания клона голоса человека. Клонирование голоса включает в себя алгоритм глубокого обучения , который берет голосовые записи человека и может синтезировать такой голос до такой степени, что он может точно воспроизвести человеческий голос с большой точностью тона и сходства. [15]

Клонирование голоса требует высокопроизводительных компьютеров. Обычно вычисления производятся с помощью графического процессора (GPU) , и очень часто прибегают к облачным вычислениям из-за огромного объема необходимых вычислений.

Аудиоданные для обучения должны быть загружены в модель искусственного интеллекта. Часто это оригинальные записи, которые дают пример голоса соответствующего человека. Искусственный интеллект может использовать эти данные для создания аутентичного голоса, который может воспроизводить все, что набирается на клавиатуре, что называется Text-To-Speech , или произносится, что называется Speech-To-Speech.

Эта технология беспокоит многих из-за ее влияния на различные вопросы, от политического дискурса до верховенства закона. Некоторые из ранних предупреждающих знаков уже появились в виде телефонных мошенничеств [16] [17] и поддельных видеороликов в социальных сетях, где люди делают то, чего они никогда не делали. [18]

Защита от этих угроз может быть реализована в первую очередь двумя способами. Первый — создать способ анализа или обнаружения подлинности видео. Этот подход неизбежно станет игрой с преимуществом, поскольку постоянно развивающиеся генераторы побеждают эти детекторы. Второй способ — встроить информацию о создании и изменении в программное обеспечение или оборудование. [19] [20] Это сработает только в том случае, если данные нельзя будет редактировать, но идея будет заключаться в создании неслышимого водяного знака, который будет выступать в качестве источника истины. [21] Другими словами, мы могли бы узнать, является ли видео подлинным, увидев, где оно было снято, произведено, отредактировано и т. д. [15]

15.ai — некоммерческое бесплатное веб-приложение, которое начиналось как доказательство концепции демократизации озвучивания и дубляжа с использованием технологии — предоставляет общественности доступ к такой технологии. [22] Его бесплатный и некоммерческий характер (единственным условием является то, что проект должен быть надлежащим образом указан при использовании [23] ), простота использования и существенные улучшения текущих реализаций преобразования текста в речь были высоко оценены пользователями; [24] [25] [26] однако некоторые критики и актеры озвучивания подвергли сомнению законность и этичность предоставления такой технологии общественности и легкого доступа. [22] [27] [28] [29]

Хотя это приложение все еще находится на стадии разработки, оно быстро развивается, поскольку крупные технологические корпорации, такие как Google и Amazon, инвестируют огромные суммы денег в его разработку. [30]

Некоторые из положительных применений клонирования голоса включают возможность синтезировать миллионы аудиокниг без использования человеческого труда. [31] Кроме того, клонирование голоса использовалось для перевода контента подкастов на разные языки с использованием голоса подкастера. [32] Другое применение включает в себя то, что те, кто мог потерять голос, могут вернуть себе чувство индивидуальности, создав своего голосового клона, введя записи своей речи до того, как они потеряли голос. [33]

С другой стороны, клонирование голоса также подвержено злоупотреблениям. Примером этого являются голоса знаменитостей и государственных служащих, которые клонируются, и голос может сказать что-то, что спровоцирует конфликт, несмотря на то, что реальный человек не имеет никакой связи с тем, что сказал его голос. [34]

Признавая угрозу, которую клонирование голоса представляет для конфиденциальности, вежливости и демократических процессов, такие учреждения, как Федеральная торговая комиссия , Министерство юстиции США и Агентство перспективных исследовательских проектов обороны (DARPA) и Министерство образования, университетов и исследований Италии (MIUR) , рассмотрели различные случаи использования аудиоподделок и методы, которые могут быть использованы для борьбы с ними. [35] [36] [37]

Конструктивное использование

Образование

Цифровое клонирование может быть полезным в образовательной среде для создания более захватывающего опыта для студентов. Некоторые студенты могут лучше учиться с помощью более интерактивного опыта, а создание дипфейков может повысить способность к обучению студентов. Одним из примеров этого является создание цифрового клона исторических личностей, таких как Авраам Линкольн , чтобы показать, с какими проблемами он столкнулся в своей жизни и как он смог их преодолеть. Другим примером использования цифровых клонов в образовательной среде является создание докладчиками цифрового клона самих себя. Различные группы поддержки могут испытывать проблемы с расписанием, поскольку они посещают различные школы в течение года. Однако, создавая цифровые клоны самих себя, их клоны могут представлять тему в местах, где группа физически не могла этого сделать. Эти образовательные преимущества могут предоставить студентам новый способ обучения, а также предоставить доступ тем, кто ранее не мог получить доступ к ресурсам из-за условий окружающей среды. [13]

Искусство

Хотя цифровое клонирование уже некоторое время существует в индустрии развлечений и искусств, искусственный интеллект может значительно расширить использование этих технологий в этой отрасли. Киноиндустрия может создавать еще более гиперреалистичных актеров и актрис, которые умерли. Кроме того, киноиндустрия может также создавать цифровых клонов в сценах фильмов, которые могут потребовать дополнительных сотрудников, что может помочь значительно сократить стоимость производства. Однако цифровое клонирование и другие технологии могут быть полезны для некоммерческих целей. Например, художники могут быть более выразительными, если они хотят синтезировать аватары для использования в своей видеопродукции. Они также могут создавать цифровые аватары, чтобы набросать черновик своей работы и помочь сформулировать свои идеи, прежде чем перейти к работе над финальной работой. [13] Актер Вэл Килмер потерял голос в 2014 году после трахеотомии из-за рака горла . Однако он сотрудничал с компанией ИИ, которая создала синтетический голос на основе его предыдущих записей. Голос позволил Килмеру вновь сыграть роль «Айсмена» из фильма « Лучший стрелок » 1986 года в фильме-сиквеле 2022 года « Лучший стрелок: Мэверик» . [38]

Цифровое бессмертие

Хотя цифровое бессмертие существует уже некоторое время, поскольку аккаунты умерших в социальных сетях продолжают оставаться в киберпространстве, создание виртуального клона, который бессмертен, приобретает новый смысл. С созданием цифрового клона можно не только запечатлеть визуальное присутствие себя, но и свои манеры, включая личность и познание. С цифровым бессмертием можно продолжать взаимодействовать с представлением своих близких после их смерти. Кроме того, семьи могут связываться с представлениями нескольких поколений, формируя генеалогическое древо, в некотором смысле, чтобы передавать семейное наследие будущим поколениям, предоставляя способ передачи истории. [7]

Обеспокоенность

Фейковые новости

Из-за отсутствия правил для deepfakes возникло несколько опасений. Некоторые из касающихся deepfake видео, которые могут принести потенциальный вред, включают изображение политических деятелей, демонстрирующих ненадлежащее поведение, полицейских, показанных стреляющими в безоружных чернокожих мужчин, и солдат, убивающих невинных гражданских лиц, могут начать появляться, хотя это могло никогда не происходить в реальной жизни. [39] С такими гиперреалистичными видео, публикуемыми в Интернете, становится очень легко дезинформировать общественность, что может заставить людей предпринять действия, тем самым способствуя этому порочному кругу ненужного вреда. Кроме того, с ростом фейковых новостей в последних новостях также существует возможность объединения deepfakes и фейковых новостей. Это еще больше затруднит различение того, что реально, а что фейково. Визуальная информация может быть очень убедительной для человеческих глаз, поэтому сочетание deepfakes и фейковых новостей может иметь пагубные последствия для общества. [13] Строгие правила должны быть установлены компаниями социальных сетей и другими платформами для новостей. [40]

Личное использование

Другая причина, по которой deepfakes могут использоваться злонамеренно, заключается в том, что один человек может саботировать другого на личном уровне. С ростом доступности технологий для создания deepfakes шантажисты и воры могут легко извлекать личную информацию для финансовой выгоды и других целей, создавая видео близких жертвы, просящих о помощи. [13] Кроме того, клонирование голоса может использоваться злонамеренно преступниками для совершения поддельных телефонных звонков жертвам. Телефонные звонки будут иметь точный голос и манеры человека, что может обмануть жертву, заставив ее предоставить преступнику личную информацию , не зная об этом. [41] В качестве альтернативы, плохой актер может, например, создать deepfakes человека, наложенного на видео, чтобы получить платеж за шантаж и/или в качестве акта порно мести .

Создание дипфейков и голосовых клонов для личного использования может быть чрезвычайно сложным по закону, поскольку не несет никакого коммерческого вреда. Вместо этого они часто приходят в форме психологического и эмоционального ущерба, что затрудняет для суда предоставление средств правовой защиты. [5]

Этические последствия

Хотя с развитием таких технологий возникает множество правовых проблем, существуют также этические проблемы, которые не могут быть защищены действующим законодательством. Одной из самых больших проблем, возникающих при использовании дипфейков и клонирования голоса, является потенциальная кража личности. Однако кража личности с точки зрения дипфейков трудно поддается судебному преследованию, поскольку в настоящее время нет законов, специально предназначенных для дипфейков. Кроме того, ущерб, который может принести злонамеренное использование дипфейков, носит скорее психологический и эмоциональный характер, чем финансовый, что затрудняет предоставление средств правовой защиты. Аллен утверждает, что способ, которым следует относиться к частной жизни человека, аналогичен категорическому императиву Канта . [5]

Другим этическим последствием является использование частной и личной информации, от которой необходимо отказаться, чтобы использовать технологию. Поскольку цифровое клонирование, deepfakes и клонирование голоса используют алгоритм глубокого обучения, чем больше информации получает алгоритм, тем лучше результаты. [42] Однако каждая платформа имеет риск утечки данных, что потенциально может привести к тому, что очень личная информация будет доступна группам, на которые пользователи никогда не давали согласия. Кроме того, конфиденциальность после смерти оказывается под вопросом, когда члены семьи любимого человека пытаются собрать как можно больше информации, чтобы создать цифровой клон умершего без разрешения того, сколько информации они готовы предоставить. [43]

Действующие законы в Соединенных Штатах

Законы об авторском праве

В Соединенных Штатах законы об авторском праве требуют определенного типа оригинальности и креативности для защиты индивидуальности автора. Однако создание цифрового клона просто означает взятие личных данных, таких как фотографии, голосовые записи и другая информация, для создания виртуального человека, который максимально приближен к реальному человеку. В решении Верховного суда по делу Feist Publications Inc. против Rural Television Services Company, Inc. судья О'Коннор подчеркнул важность оригинальности и некоторой степени креативности. Однако степень оригинальности и креативности четко не определена, что создает серую зону для законов об авторском праве. [44] Создание цифровых клонов требует не только данных человека, но и вклада создателя в то, как цифровой клон должен действовать или двигаться. В деле Meshwerks против Toyota этот вопрос был поднят, и суд заявил, что те же законы об авторском праве, которые были созданы для фотографии, должны применяться к цифровым клонам. [44]

Право на публичность

При нынешнем отсутствии законодательства, защищающего людей от потенциального злонамеренного использования цифрового клонирования, право на публичность может быть лучшим способом защитить человека в юридической обстановке. [4] Право на публичность , также называемое правами личности, дает человеку автономию, когда дело доходит до контроля над своим голосом, внешностью и другими аспектами, которые по сути составляют его личность в коммерческой обстановке. [45] Если без его согласия появляется фейковое видео или цифровой клон человека, изображающее человека, совершающего действия или делающего заявления, которые не соответствуют его личности, он может подать в суд, заявив, что это нарушает его право на публичность. Хотя в праве на публичность конкретно указано, что оно предназначено для защиты образа человека в коммерческой обстановке, которая требует определенной прибыли, некоторые утверждают, что законодательство может быть обновлено для защиты образа и личности практически любого человека. [46] Еще одно важное замечание заключается в том, что право на публичность реализовано только в определенных штатах, поэтому в некоторых штатах это право может толковаться по-разному по сравнению с другими штатами.

Профилактические меры

Регулирование

Цифровые и цифровые клоны мыслей поднимают правовые вопросы, касающиеся конфиденциальности данных, информированного согласия, борьбы с дискриминацией, авторского права и права на публичность. Больше юрисдикций должны срочно принять законодательство, аналогичное Общему регламенту по защите данных в Европе, чтобы защитить людей от недобросовестного и вредоносного использования их данных и несанкционированной разработки и использования цифровых клонов мыслей. [3]

Технологии

Один из способов не стать жертвой любой из упомянутых выше технологий — разработать искусственный интеллект против этих алгоритмов. Уже есть несколько компаний, которые разработали искусственный интеллект, который может обнаруживать сфальсифицированные изображения, просматривая шаблоны в каждом пикселе. [47] Применяя похожую логику, они пытаются создать программное обеспечение, которое берет каждый кадр заданного видео и анализирует его пиксель за пикселем, чтобы найти шаблон исходного видео и определить, было ли оно сфальсифицировано. [48]

В дополнение к разработке новых технологий, которые могут обнаружить любые манипуляции с видео, многие исследователи повышают важность создания частными корпорациями более строгих правил для защиты личной конфиденциальности. [30] С развитием искусственного интеллекта необходимо задаться вопросом, как это влияет на общество сегодня, поскольку он начинает появляться практически во всех аспектах общества, включая медицину , образование , политику и экономику . Кроме того, искусственный интеллект начнет появляться в различных аспектах общества, что делает важным наличие законов, защищающих права человека , поскольку технологии берут верх. Поскольку частный сектор приобретает все большую цифровую власть над обществом, важно установить строгие правила и законы, чтобы не допустить злонамеренного использования персональных данных частными корпорациями. Кроме того, прошлая история различных утечек данных и нарушений политики конфиденциальности также должна быть предупреждением о том, как личная информация может быть доступна и использована без согласия человека. [8]

Цифровая грамотность

Другой способ предотвратить вред от этих технологий — это просвещение людей о плюсах и минусах цифрового клонирования. Это дает каждому человеку возможность принимать рациональные решения, основанные на его собственных обстоятельствах. [49] Кроме того, также важно просвещать людей о том, как защищать информацию, которую они выкладывают в Интернет. Повышая цифровую грамотность общественности, люди имеют больше шансов определить, было ли данное видео сфальсифицировано, поскольку они могут быть более скептически настроены к информации, которую они находят в Интернете. [30]

Смотрите также

Ссылки

  1. ^ Флориди, Лучано (2018). «Искусственный интеллект, дипфейки и будущее эктипов». Философия и технологии . 31 (3): 317–321. doi : 10.1007/s13347-018-0325-3 .
  2. ^ Борель, Брук (2018). «Щелчки, ложь и видеозапись». Scientific American . 319 (4): 38–43. Bibcode : 2018SciAm.319d..38B. doi : 10.1038/scientificamerican1018-38. PMID  30273328. S2CID  52902634.
  3. ^ abc Truby, Jon; Brown, Rafael (2021). «Цифровые клоны человеческой мысли: Святой Грааль искусственного интеллекта для больших данных». Закон об информационных и коммуникационных технологиях . 30 (2): 140–168. doi : 10.1080/13600834.2020.1850174. hdl : 10576/17266 . S2CID  229442428. Текст скопирован из этого источника, который доступен по лицензии Creative Commons Attribution 4.0 International.
  4. ^ ab Beard, Joseph (2001). «КЛОНЫ, КОСТИ И СУМЕРЕЧНЫЕ ЗОНЫ: Защита цифровой персоны живых, мертвых и воображаемых». Berkeley Technology Law Journal . 16 (3): 1165–1271. JSTOR  24116971.
  5. ^ abc Allen, Anita (2016). «Защита собственной конфиденциальности в экономике больших данных». Harvard Law Review . 130 (2): 71–86.
  6. ^ ab Silverman, Craig (апрель 2018 г.). «Как распознать Deepfake, такой как видео Барака Обамы и Джордана Пила». Buzzfeed .
  7. ^ abcde Миз, Джеймс (2015). «Посмертная личность и возможности цифровых медиа». Смертность . 20 (4): 408–420. doi : 10.1080/13576275.2015.1083724. hdl : 10453/69288 . S2CID  147550696.
  8. ^ ab Nemitz, Paul Friedrich (2018). «Конституционная демократия и технологии в эпоху искусственного интеллекта». Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 59 (9): 20180089. Bibcode : 2018RSPTA.37680089N. doi : 10.1098/rsta.2018.0089 . PMID  30323003.
  9. ^ Аб Михалик, Линдси (2013). "«Призрачные фрагменты»: цифровой траур и интермедийное представление». Театральный ежегодник . 66 (1): 41–64. ProQuest  1501743129.
  10. ^ Урсаче, Мариус. «Вечное время».
  11. ^ "Этот стартап обещал 10 000 человек вечную цифровую жизнь, а затем умер | Fusion". Архивировано из оригинала 30 декабря 2016 года . Получено 24 мая 2020 года .
  12. ^ С. Агарвал, Х. Фарид, Й. Гу, М. Хе, К. Нагано и Х. Ли, «Защита мировых лидеров от глубоких фейков», на конференции IEEE по компьютерному зрению и распознаванию образов (CVPR), семинары, июнь 2019 г.
  13. ^ abcde Чесни, Роберт (2018). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности» (PDF) . SSRN Electronic Journal . 26 (1): 1–58.
  14. ^ Suwajanakorn, Supasorn (2017). «Синтез Обамы» (PDF) . ACM Transactions on Graphics . 36 (4): 1–13. doi :10.1145/3072959.3073640. S2CID  207586187.
  15. ^ ab "Все, что вам нужно знать о Deepfake Voice". Veritone . 1 октября 2021 г. Получено 30 июня 2022 г.
  16. ^ Дэвид, Доминик. «Council Post: Анализ роста технологии Deepfake Voice». Forbes . Получено 30 июня 2022 г.
  17. ^ Брюстер, Томас. «Мошенники клонировали голос директора компании при ограблении банка на 35 миллионов долларов, нашла полиция». Forbes . Получено 29 июня 2022 г.
  18. ^ Ортутей, Мэтт О'Брайен и Барбара. «Почему клонирование голоса Энтони Бурдена в документальном фильме «Дорожный бегун» пугает людей». USA TODAY . Получено 30 июня 2022 г.
  19. ^ Рашид, Мд Мамунур; Ли, Сук-Хван; Квон, Ки-Рён (2021). «Технология блокчейна для борьбы с дипфейком и защиты целостности видео/изображений». Журнал Корейского мультимедийного общества . 24 (8): 1044–1058. doi : 10.9717/kmms.2021.24.8.1044. ISSN  1229-7771.
  20. ^ Фрага-Ламас, Паула; Фернандес-Карамес, Тиаго М. (20 октября 2019 г.). «Фейковые новости, дезинформация и дипфейки: использование технологий распределенного реестра и блокчейна для борьбы с цифровым обманом и поддельной реальностью». IT Professional . 22 (2): 53–59. arXiv : 1904.05386 . doi :10.1109/MITP.2020.2977589.
  21. ^ Ки Чан, Кристофер Чан; Кумар, Вимал; Делани, Стивен; Гочу, Мунхджаргал (сентябрь 2020 г.). «Борьба с дипфейками: Multi-LSTM и блокчейн как доказательство подлинности цифровых медиа». Международная конференция IEEE / МСЭ по искусственному интеллекту во благо (AI4G) 2020 г. стр. 55–62. doi : 10.1109/AI4G50087.2020.9311067. ISBN 978-1-7281-7031-2. S2CID  231618774.
  22. ^ ab Ng, Andrew (1 апреля 2020 г.). «Voice Cloning for the Masses». The Batch . Архивировано из оригинала 7 августа 2020 г. Получено 5 апреля 2020 г.
  23. ^ "15.ai - FAQ". 15.ai . 18 января 2021 г. Архивировано из оригинала 3 марта 2020 г. Получено 18 января 2021 г.
  24. Рупперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS и других любимых персонажей Portal говорить самые странные вещи с помощью этого приложения». Game Informer . Архивировано из оригинала 18 января 2021 г. Получено 18 января 2021 г.
  25. ^ Zwiezen, Zack (18 января 2021 г.). «Сайт позволяет GLaDOS говорить все, что вы хотите». Kotaku . Архивировано из оригинала 17 января 2021 г. . Получено 18 января 2021 г. .
  26. ^ Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 пересказывать старые мемы с помощью этого инструмента преобразования текста в речь на основе искусственного интеллекта». PC Gamer . Архивировано из оригинала 19 января 2021 г. Получено 19 января 2021 г.
  27. ^ Нг, Эндрю (7 марта 2021 г.). "Weekly Newsletter Issue 83". The Batch . Архивировано из оригинала 26 февраля 2022 г. . Получено 7 марта 2021 г. .
  28. ^ Лопес, Уле (16 января 2022 г.). «Поддерживаемая Троем Бейкером NFT-фирма признает использование голосовых линий, взятых из другого сервиса, без разрешения». Wccftech . Архивировано из оригинала 16 января 2022 г. . Получено 7 июня 2022 г. .
  29. ^ Генри, Джозеф (18 января 2022 г.). «Партнер Троя Бейкера NFT Company Voiceverse, как сообщается, крадет голосовые линии из 15.ai». Tech Times . Архивировано из оригинала 26 января 2022 г. Получено 14 февраля 2022 г.
  30. ^ abc Brayne, Sarah (2018). «Визуальные данные и закон». Law & Social Inquiry . 43 (4): 1149–1163. doi :10.1111/lsi.12373. PMC 10857868. PMID 38343725.  S2CID 150076575  . 
  31. ^ Чадха, Анупама; Кумар, Вайбхав; Кашьяп, Сону; Гупта, Маянк (2021), Сингх, Прадип Кумар; Вежчонь, Славомир Т.; Танвар, Судип; Ганжа, Мария (ред.), «Deepfake: An Overview», Труды Второй международной конференции по вычислениям, коммуникациям и кибербезопасности , Lecture Notes in Networks and Systems, т. 203, Сингапур: Springer Singapore, стр. 557–566, doi :10.1007/978-981-16-0733-2_39, ISBN 978-981-16-0732-5, S2CID  236666289 , получено 29 июня 2022 г.
  32. Барлетта, Брайан (12 октября 2021 г.). «Звучит прибыльно по-испански!». adtech.podnews.net . Проверено 30 июня 2022 г.
  33. ^ Этьен, Ванесса (19 августа 2021 г.). «Вэл Килмер вернул себе голос после борьбы с раком горла с помощью технологии искусственного интеллекта: узнайте результаты». PEOPLE.com . Получено 30 июня 2022 г.
  34. ^ Флетчер, Джон (2018). «Дипфейки, искусственный интеллект и некая антиутопия: новые лица онлайн-постфактного представления». Theatre Journal . 70 (4): 455–71. doi : 10.1353/tj.2018.0097. S2CID  191988083.
  35. ^ «Эксперты по клонированию голоса рассказывают о преступлениях, положительных вариантах использования и мерах предосторожности». 29 января 2020 г.
  36. ^ "PREMIER - Project". sites.google.com . Получено 29 июня 2022 г. .
  37. ^ "DARPA объявляет о наборе исследовательских групп для программы семантической криминалистики". www.darpa.mil . Получено 1 июля 2022 г.
  38. Тейлор, Хлоя (27 мая 2022 г.). «Как ИИ вернул «Ледяного человека» Вэла Килмера в Top Gun: Maverick». Fortune . Получено 5 июля 2022 г.
  39. ^ Чесни, Роберт (2019). «Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics». Foreign Affairs . 98 (1): 147–55. Архивировано из оригинала 23 апреля 2019 г. Получено 25 апреля 2019 г.
  40. ^ Холл, Кэтлин (2018). «Поддельные видео: когда увидеть — не значит поверить». Журнал права и технологий Католического университета . 27 (1): 51–75.
  41. ^ Poudel, Sawrpool (2016). «Интернет вещей: базовые технологии, совместимость и угрозы конфиденциальности и безопасности». Berkeley Technology Law Review . 31 (2): 997–1021. Архивировано из оригинала 30 апреля 2017 г. Получено 25 апреля 2019 г.
  42. ^ Данг, Л. Мин (2018). «Глубокое обучение на основе компьютерной идентификации лиц с использованием сверточной нейронной сети». Прикладные науки . 8 (12): 2610. doi : 10.3390/app8122610 .
  43. ^ Савин-Баден, Магги (2018). «Цифровое бессмертие и виртуальные люди» (PDF) . Постцифровая наука и образование . 1 (1): 87–103. doi : 10.1007/s42438-018-0007-6 .
  44. ^ ab Newell, Bryce Clayton (2010). «Независимое творчество и оригинальность в эпоху имитированной реальности: сравнительный анализ защиты авторских прав и баз данных для цифровых моделей реальных людей». Университет имени Бригама Янга, международное право и менеджмент . 6 (2): 93–126.
  45. ^ Геринг, Кевин (2018). «Право на публичность в Нью-Йорке: переосмысление конфиденциальности и Первой поправки в цифровую эпоху — весенний симпозиум AELJ 2». Электронный журнал SSRN . 36 (3): 601–635.
  46. ^ Харрис, Дуглас (2019). «Дипфейки: Ложная порнография уже здесь, и закон не может вас защитить». Duke Law and Technology Review . 17 : 99–127.
  47. ^ Басс, Харви (1998). «Парадигма для аутентификации фотографических доказательств в цифровую эпоху». Thomas Jefferson Law Review . 20 (2): 303–322.
  48. ^ Вэнь, Цзе (2012). «Рождение кибер-I на основе анализа вредоносного поведения». Журнал интеллектуального производства . 25 (1): 147–55. doi :10.1007/s10845-012-0681-2. S2CID  26225937. ProQuest  1490889853.
  49. ^ Марас, Мари-Хелен (2018). «Определение подлинности видеодоказательств в эпоху искусственного интеллекта и в свете Deepfake Videos». Международный журнал доказательств и доказательств . 23 (1): 255–262. doi : 10.1177/1365712718807226. S2CID  150336977.