stringtranslate.com

Синтетические носители

Синтетические медиа (также известные как медиа, созданные ИИ , [1] [2] медиа, созданные генеративным ИИ , [3] персонализированные медиа , персонализированный контент , [4] и в разговорной речи как дипфейки [5] ) — это всеобъемлющий термин для искусственного производства, манипулирования и изменения данных и медиа с помощью автоматизированных средств, особенно с использованием алгоритмов искусственного интеллекта , например, с целью введения людей в заблуждение или изменения первоначального смысла. [6] [7] [8] Синтетические медиа как область быстро развивались с момента создания генеративных состязательных сетей , в первую очередь за счет появления дипфейков, а также синтеза музыки, генерации текста, синтеза человеческих изображений, синтеза речи и многого другого. [8] Хотя эксперты используют термин «синтетические медиа», отдельные методы, такие как deepfakes и синтез текста, иногда не упоминаются таковыми в СМИ, а вместо этого используют их соответствующую терминологию (и часто используют «deepfakes» как эвфемизм, например, «deepfakes for text» [ требуется ссылка ] для генерации естественного языка ; «deepfakes for voices» для нейронного клонирования голоса и т. д.) [9] [10] Значительное внимание к области синтетических медиа возросло, начиная с 2017 года, когда Motherboard сообщил о появлении измененных ИИ порнографических видеороликов , в которые вставлялись лица известных актрис. [11] [12] Потенциальные опасности синтетических медиа включают распространение дезинформации, дальнейшую потерю доверия к таким институтам, как СМИ и правительство, [11] массовую автоматизацию творческих и журналистских работ и отступление в фантастические миры, созданные ИИ. [13] Синтетические медиа являются прикладной формой искусственного воображения . [11]

История

До 1950-х годов

Автомат Майярде, рисующий картину

Синтетические медиа как процесс автоматизированного искусства восходят к автоматам древнегреческой цивилизации , где такие изобретатели, как Дедал и Герон Александрийский, проектировали машины, способные писать текст, генерировать звуки и играть музыку. [14] [15] Традиция развлечений, основанных на автоматах, процветала на протяжении всей истории, и кажущаяся магической способность механических существ имитировать человеческое творчество часто привлекала толпы по всей Европе, [16] Китаю, [17] Индии, [18] и т. д. Другие автоматизированные новинки, такие как « Musikalisches Würfelspiel » (музыкальная игра в кости) Иоганна Филиппа Кирнбергера 1757 года , также развлекали публику. [19]

Однако, несмотря на технические возможности этих машин, ни одна из них не была способна генерировать оригинальный контент и полностью зависела от своих механических конструкций.

Развитие искусственного интеллекта

Область исследований ИИ зародилась на семинаре в Дартмутском колледже в 1956 году [20], положив начало росту цифровых вычислений, используемых в качестве средства искусства , а также росту генеративного искусства . Первоначальные эксперименты в искусстве, созданном с помощью ИИ, включали Illiac Suite , композицию 1957 года для струнного квартета , которая, по общему мнению, является первой партитурой, составленной электронным компьютером . [21] Лежарен Хиллер в сотрудничестве с Леонардом Иссаксоном запрограммировал компьютер ILLIAC I в Иллинойсском университете в Урбане-Шампейне (где оба композитора были профессорами) для создания композиционного материала для своего струнного квартета № 4 .

В 1960 году русский исследователь Р.Х.Зарипов опубликовал первую в мире работу по алгоритмическому сочинению музыки с использованием ЭВМ « Урал-1 ». [22]

В 1965 году изобретатель Рэй Курцвейл впервые представил фортепианную пьесу, созданную компьютером, который был способен распознавать закономерности в различных композициях. Затем компьютер смог анализировать и использовать эти закономерности для создания новых мелодий. Компьютер дебютировал в программе Стива Аллена « У меня есть секрет» и ставил ведущих в тупик, пока кинозвезда Гарри Морган не разгадал секрет Рэя. [23]

До 1989 года искусственные нейронные сети использовались для моделирования определенных аспектов творчества. Питер Тодд (1989) впервые обучил нейронную сеть воспроизводить музыкальные мелодии из обучающего набора музыкальных произведений. Затем он использовал алгоритм изменения для изменения входных параметров сети. Сеть могла случайным образом генерировать новую музыку в крайне неконтролируемой манере. [24] [25]

В 2014 году Ян Гудфеллоу и его коллеги разработали новый класс систем машинного обучения : генеративные состязательные сети (GAN). [26] Две нейронные сети соревнуются друг с другом в игре (в смысле теории игр , часто, но не всегда, в форме игры с нулевой суммой ). При наличии обучающего набора эта техника учится генерировать новые данные с той же статистикой, что и обучающий набор. Например, GAN, обученная на фотографиях, может генерировать новые фотографии, которые выглядят по крайней мере внешне аутентичными для наблюдателей-людей, имея много реалистичных характеристик. Хотя изначально GAN предлагались как форма генеративной модели для неконтролируемого обучения , GAN также оказались полезными для полуконтролируемого обучения , [27] полностью контролируемого обучения , [28] и обучения с подкреплением . [29] На семинаре 2016 года Янн Лекун описал GAN как «самую крутую идею в машинном обучении за последние двадцать лет». [30]

В 2017 году Google представила трансформеров [31], новый тип архитектуры нейронных сетей, специализированный для моделирования языка, который позволил добиться быстрого прогресса в обработке естественного языка . Трансформеры оказались способны к высокому уровню обобщения, что позволило таким сетям, как GPT-3 и Jukebox от OpenAI, синтезировать текст и музыку соответственно на уровне, приближающемся к человеческим способностям. [32] [33] Были некоторые попытки использовать GPT-3 и GPT-2 для написания сценариев, в результате чего появились как драматические (итальянский короткометражный фильм Frammenti di Anime Meccaniche [34] , написанный GPT-2 ), так и комедийные повествования (короткометражный фильм Solicitors от YouTube Creator Calamity A I, написанный GPT-3). [35]

Отрасли синтетических сред

Дипфейки

Deepfakes ( гибрид слов « глубокое обучение » и «подделка» [36] ) являются наиболее известной формой синтетических медиа. [37] [38] Deepfakes — это медиа-продукция, которая использует существующее изображение или видео и заменяет субъекта чьим-либо подобием с помощью искусственных нейронных сетей . [39] Они часто объединяют и накладывают существующие медиа на исходные медиа с помощью методов машинного обучения, известных как автокодировщики и генеративно-состязательные сети (GAN). [40] Deepfakes привлекли широкое внимание своим использованием в порнографических видеороликах со знаменитостями , порно мести , фейковых новостях , мистификациях и финансовом мошенничестве . [41] [42] [43] [44] Это вызвало реакцию как со стороны промышленности, так и со стороны правительства с целью обнаружения и ограничения их использования. [45] [46]

Термин deepfakes появился примерно в конце 2017 года у пользователя Reddit под ником «deepfakes». [39] Он, как и другие участники сообщества Reddit r/deepfakes, делились созданными ими deepfakes; во многих видео лица знаменитостей были заменены на тела актрис в порнографических видеороликах, [39] в то время как непорнографический контент включал множество видеороликов с лицом актера Николаса Кейджа , замененным в различных фильмах. [47] В декабре 2017 года Саманта Коул опубликовала статью о r/deepfakes в Vice , которая привлекла первое внимание публики к распространению deepfakes в онлайн-сообществах. [48] Шесть недель спустя Коул написал в последующей статье о значительном увеличении количества поддельной порнографии с использованием ИИ. [39] В феврале 2018 года r/deepfakes был забанен Reddit за распространение недобровольной порнографии. [49] Другие сайты также запретили использование deepfake для непреднамеренной порнографии, включая социальную медиа-платформу Twitter и порнографический сайт Pornhub . [50] Однако некоторые сайты еще не запретили контент Deepfake, включая 4chan и 8chan . [51]

Непорнографический дипфейк-контент продолжает набирать популярность благодаря видеороликам от таких создателей YouTube , как Ctrl Shift Face и Shamook. [52] [53] В марте 2020 года для iOS было запущено мобильное приложение Impressions. Приложение предоставляет пользователям платформу для дипфейка лиц знаменитостей в видеороликах за считанные минуты. [54]

Синтез изображения

Синтез изображений — это искусственное производство визуальных медиа, особенно с помощью алгоритмических средств. В развивающемся мире синтетических медиа работа по созданию цифровых изображений — когда-то область высококвалифицированных программистов и голливудских художников по спецэффектам — может быть автоматизирована экспертными системами, способными производить реализм в огромных масштабах. [55] Одной из подобластей этого является синтез человеческого изображения , который представляет собой использование нейронных сетей для создания правдоподобных и даже фотореалистичных интерпретаций [56] [57] человеческих подобий, движущихся или неподвижных. Он фактически существует с начала 2000-х годов. Во многих фильмах, использующих компьютерные изображения, использовались синтетические изображения человекоподобных персонажей, цифровым способом наложенные на реальный или другой смоделированный киноматериал. К концу 2010 -х годов искусственный интеллект с глубоким обучением применялся для синтеза изображений и видео, которые выглядят как люди, без необходимости в помощи человека, после завершения фазы обучения, тогда как старый школьный 7D-маршрут требовал огромного количества человеческой работы. Сайт This Person Does Not Exist демонстрирует полностью автоматизированный синтез человеческого изображения путем бесконечной генерации изображений, которые выглядят как портреты человеческих лиц. [58]

Синтез звука

Помимо дипфейков и синтеза изображений, аудио — это еще одна область, где ИИ используется для создания синтетических медиа. [59] Синтезированное аудио будет способно генерировать любой мыслимый звук, который может быть получен путем манипуляции звуковой волной, что, предположительно, может быть использовано для генерации стандартного звука звуковых эффектов или имитации звука воображаемых в настоящее время вещей. [60]

ИИ-искусство

Изображение, созданное с помощью DALL-E 2 на основе текстовой подсказки «Искусство 1960-х годов, изображающее похищение коровы НЛО на Среднем Западе»

Искусство искусственного интеллекта — это визуальное произведение искусства , созданное с помощью программы искусственного интеллекта (ИИ). [61]

Художники начали создавать искусство искусственного интеллекта в середине-конце 20-го века, когда была основана эта дисциплина. На протяжении всей своей истории искусство искусственного интеллекта поднимало множество философских проблем, связанных с человеческим разумом , искусственными существами и тем, что можно считать искусством в сотрудничестве человека и ИИ. С 20-го века художники использовали ИИ для создания произведений искусства, некоторые из которых выставлялись в музеях и получали награды. [62]

Во время бума ИИ в начале 2020-х годов модели преобразования текста в изображение, такие как Midjourney , DALL-E и Stable Diffusion , стали широко доступны для публики, позволяя нехудожникам быстро создавать изображения с небольшими усилиями. [63] Комментарии об искусстве ИИ в 2020-х годах часто фокусировались на вопросах, связанных с авторским правом , обманом , клеветой и их влиянием на более традиционных художников, включая технологическую безработицу .
Изображение сделано с помощью Stable Diffusion

Художнику доступно множество инструментов при работе с моделями диффузии. Они могут определять как положительные, так и отрицательные подсказки, но им также предоставляется выбор в использовании (или отказе от использования) VAE, LorA, гиперсетей, ipadapter и встраиваний/текстовых инверсий. Иногда для настройки доступны переменные, включая CFG, seed, steps, sampler, scheduler, denoise, upscaler и encoder. Дополнительное влияние может быть оказано во время предварительного вывода с помощью манипуляции шумом, в то время как традиционные методы постобработки часто используются после вывода. Художники также могут обучать свои собственные модели.

Кроме того, были разработаны процедурная «основанная на правилах» генерация изображений с использованием математических шаблонов, алгоритмы, имитирующие мазки кистью и другие эффекты живописи, а также алгоритмы глубокого обучения, такие как генеративные состязательные сети (GAN) и трансформаторы. Несколько компаний выпустили приложения и веб-сайты, которые позволяют полностью отказаться от всех упомянутых вариантов, сосредоточившись исключительно на позитивной подсказке. Существуют также программы, которые преобразуют фотографии в изображения, похожие на искусство, в стиле известных наборов картин. [64] [65]

Существует множество вариантов, от простых мобильных приложений, ориентированных на потребителя, до блокнотов Jupyter и веб-интерфейсов, для эффективной работы которых требуются мощные графические процессоры. [66] Дополнительные функции включают «текстовую инверсию», которая относится к использованию предоставленных пользователем концепций (например, объекта или стиля), изученных из нескольких изображений. Затем из связанных слов (текста, который был назначен изученной, часто абстрактной, концепции) [67] [68] и расширений модели или тонкой настройки (например, DreamBooth) может быть сгенерировано новое искусство.

Музыкальное поколение

Возможность создания музыки с помощью автономных, непрограммируемых средств давно уже востребована, еще со времен античности, и с развитием искусственного интеллекта возникли две особые области:

  1. Роботизированное создание музыки, будь то посредством машин, играющих на инструментах, или сортировки нот виртуальных инструментов (например, через файлы MIDI ) [69] [70]
  2. Непосредственная генерация волновых форм , которые идеально воссоздают инструментальную составляющую и человеческий голос, без необходимости использования инструментов, MIDI или организации готовых нот. [71]

Синтез речи

Синтез речи был идентифицирован как популярная ветвь синтетических медиа [72] и определяется как искусственное воспроизведение человеческой речи . Компьютерная система, используемая для этой цели, называется речевым компьютером или синтезатором речи и может быть реализована в программных или аппаратных продуктах. Система преобразования текста в речь ( TTS ) преобразует текст на обычном языке в речь; другие системы преобразуют символические языковые представления, такие как фонетические транскрипции, в речь. [73]

Синтезированная речь может быть создана путем объединения фрагментов записанной речи, которые хранятся в базе данных . Системы различаются по размеру хранимых речевых единиц; система, которая хранит фоны или дифоны, обеспечивает наибольший диапазон вывода, но может быть недостаточно четкой. Для определенных областей использования хранение целых слов или предложений позволяет получить высококачественный вывод. В качестве альтернативы синтезатор может включать модель речевого тракта и другие характеристики человеческого голоса для создания полностью «синтетического» голосового вывода. [74]

Виртуальные помощники, такие как Siri и Alexa, способны преобразовывать текст в аудио и синтезировать речь. [75]

В 2016 году Google DeepMind представила WaveNet, глубокую генеративную модель необработанных звуковых волн, которая может научиться понимать, какие формы волн лучше всего напоминают человеческую речь, а также музыкальные инструменты. [76] Некоторые проекты предлагают генерацию синтетической речи в реальном времени с использованием глубокого обучения, например, 15.ai , веб-приложение для преобразования текста в речь, разработанное научным сотрудником Массачусетского технологического института. [77] [78] [79] [80]

Генерация естественного языка

Генерация естественного языка ( NLG , иногда синоним синтеза текста ) — это программный процесс, который преобразует структурированные данные в естественный язык. Его можно использовать для создания длинного контента для организаций, чтобы автоматизировать пользовательские отчеты, а также для создания пользовательского контента для веб-приложений или мобильных приложений. Его также можно использовать для создания коротких текстовых аннотаций в интерактивных разговорах ( чат-бот ), которые могут даже быть зачитаны системой преобразования текста в речь . Интерес к генерации естественного языка возрос в 2019 году после того, как OpenAI представила GPT2, систему ИИ, которая генерирует текст, соответствующий ее вводу по теме и тону. [81] GPT2 — это трансформатор, модель глубокого машинного обучения, представленная в 2017 году, используемая в основном в области обработки естественного языка (NLP). [82]

Интерактивный медиа-синтез

Медиа, созданные с помощью ИИ, могут использоваться для разработки гибридной графической системы, которая может использоваться в видеоиграх, фильмах и виртуальной реальности [83] , а также в текстовых играх, таких как AI Dungeon 2, которая использует либо GPT-2, либо GPT-3, чтобы обеспечить почти бесконечные возможности, которые в противном случае невозможно создать с помощью традиционных методов разработки игр. [84] [85] [86] Компания-разработчик компьютерного оборудования Nvidia также работала над разработанными демонстрациями видеоигр, созданными с помощью ИИ, такими как модель, которая может генерировать интерактивную игру на основе неинтерактивных видеороликов. [87]

Проблемы и разногласия

Помимо организационной атаки, политические организации и лидеры больше страдают от подобных глубоких фейковых видео. В 2022 году был выпущен глубокий фейк, в котором президент Украины призывал сдаться в борьбе с Россией. На видео видно, как президент Украины говорит своим солдатам сложить оружие и сдаться. [88]

Глубокие фейки использовались для искажения известных политиков в видеороликах. В отдельных видеороликах лицо президента Аргентины Маурисио Макри было заменено лицом Адольфа Гитлера , а лицо Ангелы Меркель было заменено лицом Дональда Трампа . [89] [90]

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, которое использовало нейронные сети, в частности генеративные состязательные сети , для удаления одежды с изображений женщин. Приложение имело как платную, так и бесплатную версию, платная версия стоила 50 долларов. [91] [92] 27 июня создатели удалили приложение и вернули деньги потребителям. [93]

Конгресс США провел заседание сената, на котором обсуждалось широко распространенное влияние синтетических медиа, включая дипфейки, и было заявлено, что они «могут быть использованы для подрыва национальной безопасности, подрыва общественного доверия к нашей демократии и других гнусных целей». [94]

В 2019 году технология клонирования голоса была использована для успешного выдачи себя за голос генерального директора и требования мошеннического перевода 220 000 евро. [95] Этот случай вызвал обеспокоенность по поводу отсутствия методов шифрования на телефонах, а также безоговорочного доверия, которое часто оказывается голосу и средствам массовой информации в целом. [96]

Начиная с ноября 2019 года, несколько социальных сетей начали запрещать синтетические медиа, используемые в целях манипуляции в преддверии президентских выборов в США 2020 года . [97]

В 2024 году Илон Маск поделился пародией, не уточнив, что это сатира, но высказался против ИИ в политике. [98] Распространенное видео, где Камала Харрис появилась и сказала то, чего она никогда не говорила в реальной жизни. Несколько строк из транскрипции видео: «Я, Камала Харрис, ваш кандидат от Демократической партии на пост президента, потому что Джо Байден наконец-то продемонстрировал свою старость на дебатах». Затем голос говорит: Камла — «наемный сотрудник по принципу разнообразия», и он говорит, что теперь она имеет представление о том, что «главное в управлении страной». [99]

Это лишь некоторые примеры из тысяч таких глубоких фейков, используемых для атаки на знаменитостей, политические партии или организации, бизнес или транснациональные корпорации. Потенциал нанесения вреда их имиджу непреодолим. Это подорвет доверие к государственным и частным учреждениям, и будет сложнее поддерживать доверие. [100] Citron (2019) перечисляет государственных должностных лиц, которые пострадают больше всего: «выборные должностные лица, назначенные должностные лица, судьи, присяжные, законодатели, сотрудники и агентства». Даже частные учреждения также находятся на грани столкновения с этим кризисом, если они окажут влияние на общество в больших масштабах. [101] Citron (2019) далее утверждает, что «религиозные учреждения являются очевидной целью, как и политически ангажированные организации, начиная от Planned Parenthood и заканчивая NRA. [102] » Автор ожидает, что глубокие фейки углубят и расширят социальную иерархию или классовые различия, которые изначально их породили. [103] Основная проблема, связанная с дипфейками, заключается в том, что это не только вопрос доказательства чего-то неверного, но и проблема доказательства чего-то оригинального. [104] Недавнее исследование показывает, что двое из трех специалистов по кибербезопасности заметили, что дипфейки использовались как часть дезинформации против бизнеса в 2022 году, что, по-видимому, на 13% больше, чем в предыдущем году. [105]

Потенциальные применения и воздействия

Методы синтетических медиа включают в себя создание, обработку и изменение данных для имитации творческих процессов в гораздо более быстром и точном масштабе. [106] В результате потенциальные области применения столь же широки, как и само человеческое творчество, начиная от революции в индустрии развлечений до ускорения исследований и производства в академических кругах. Первоначальное применение заключалось в синхронизации движений губ для повышения вовлеченности обычного дубляжа [107] , который быстро растет с ростом OTT . [108] Новостные организации исследовали способы использования видеосинтеза и других технологий синтетических медиа, чтобы стать более эффективными и интересными. [109] [110] Потенциальные будущие опасности включают использование комбинации различных подполей для создания фейковых новостей , [111] рои ботов на естественном языке, генерирующие тенденции и мемы , создание ложных доказательств и потенциальную зависимость от персонализированного контента и отступление в созданные ИИ фантастические миры в виртуальной реальности. [13]

Продвинутые боты , генерирующие текст, потенциально могут быть использованы для манипулирования платформами социальных сетей с помощью таких тактик, как астротурфинг . [112] [113]

Генераторы естественного языка, основанные на глубоком обучении с подкреплением, потенциально могут быть использованы для создания продвинутых чат-ботов, которые могли бы имитировать естественную человеческую речь. [114]

Одним из вариантов использования генерации естественного языка является создание или помощь в написании романов и рассказов [115], в то время как другие потенциальные разработки связаны с стилистическими редакторами, подражающими профессиональным писателям. [116]

Инструменты синтеза изображений могут быть способны оптимизировать или даже полностью автоматизировать создание определенных аспектов визуальных иллюстраций, таких как анимированные мультфильмы , комиксы и политические карикатуры . [117] Поскольку процесс автоматизации устраняет необходимость в командах дизайнеров, художников и других лиц, участвующих в создании развлечений, затраты могут упасть практически до нуля и позволить создавать «мультимедийные франшизы для спальни», где отдельные люди могут создавать результаты, неотличимые от самых высокобюджетных произведений, за немногим больше стоимости работы своего компьютера. [118] Инструменты создания персонажей и сцен больше не будут основываться на готовых активах, тематических ограничениях или личных навыках, а вместо этого будут основываться на настройке определенных параметров и предоставлении достаточного количества входных данных. [119]

Комбинация синтеза речи и дипфейков использовалась для автоматического переозвучивания речи актера на несколько языков без необходимости повторных съемок или языковых курсов. [118] Ее также могут использовать компании для адаптации сотрудников, электронного обучения, пояснительных и обучающих видеороликов. [120]

Также существуют опасения по поводу увеличения числа кибератак из-за того, что фишинг , кэтфишинг и взлом социальных сетей стали более автоматизированными благодаря новым технологическим методам. [96]

Боты, генерирующие естественный язык, в сочетании с сетями синтеза изображений теоретически могут использоваться для засорения результатов поиска, заполняя поисковые системы триллионами в противном случае бесполезных, но кажущихся законными блогов, веб-сайтов и маркетингового спама. [121]

Были предположения о том, что deepfakes используются для создания цифровых актеров для будущих фильмов. Цифровые сконструированные/измененные люди уже использовались в фильмах раньше, и deepfakes могут внести новые разработки в ближайшем будущем. [122] Любительская технология deepfake уже использовалась для вставки лиц в существующие фильмы, например, вставка молодого лица Харрисона Форда на лицо Хана Соло в фильме «Хан Соло: Звездные войны: Истории» [123] , а методы, похожие на те, которые используются в deepfakes, использовались для игры принцессы Леи в фильме «Изгой-один» [ 124]

GAN можно использовать для создания фотографий воображаемых моделей, без необходимости нанимать модель, фотографа, визажиста или платить за студию и транспорт. [125] GAN можно использовать для создания рекламных кампаний в сфере моды, включающих более разнообразные группы моделей, что может повысить намерение купить среди людей, похожих на моделей [126] или членов их семей. [127] GAN также можно использовать для создания портретов, пейзажей и обложек альбомов. Способность GAN генерировать фотореалистичные человеческие тела представляет собой проблему для таких отраслей, как модельный бизнес , которые могут подвергаться повышенному риску автоматизации. [128] [129]

В 2019 году Dadabots представили поток дэт-метала, сгенерированный искусственным интеллектом, который продолжается без перерывов. [130]

Музыкальные исполнители и их соответствующие бренды также могут быть потенциально созданы с нуля, включая музыку, видео, интервью и рекламные материалы, созданные ИИ. И наоборот, существующая музыка может быть полностью изменена по желанию, например, смена текстов, певцов, инструментовки и композиции. [131] В 2018 году, используя процесс WaveNet для переноса тембра музыки, исследователи смогли переместить целые жанры из одного в другой. [132] Благодаря использованию искусственного интеллекта старые группы и исполнители могут быть «возрождены» для выпуска нового материала без паузы, что может даже включать «живые» концерты и рекламные изображения.

Манипулирование фотографиями с помощью нейронных сетей может способствовать поведению тоталитарных и абсолютистских режимов. [133] Достаточно параноидальное тоталитарное правительство или сообщество может заняться полным уничтожением истории, используя всевозможные синтетические технологии, фабрикуя историю и личности, а также любые доказательства их существования в любое время. Даже в других рациональных и демократических обществах определенные социальные и политические группы могут использовать синтетику для создания культурных, политических и научных коконов, которые значительно снижают или даже полностью уничтожают способность общественности соглашаться с основными объективными фактами. И наоборот, существование синтетических медиа будет использоваться для дискредитации фактических источников новостей и научных фактов как «потенциально сфабрикованных». [55]

Смотрите также

Ссылки

  1. ^ Гудстейн, Анастасия. «Заменит ли ИИ человеческое творчество?». Adlibbing.org . Получено 30 января 2020 г.
  2. ^ Waddell, Kaveh (14 сентября 2019 г.). «Добро пожаловать в наши новые синтетические реальности». Axios.com . Архивировано из оригинала 27 октября 2021 г. Получено 30 января 2020 г.
  3. ^ «Почему сейчас самое время стать творцом в сфере генеративных медиа». Product Hunt . 29 октября 2019 г. Архивировано из оригинала 15 февраля 2020 г. Получено 15 февраля 2020 г.
  4. ^ Игнатиду, София. «Персонализация на основе ИИ в политических и социальных последствиях цифровых медиа» (PDF) . Chatham House . Департамент международной безопасности. Архивировано (PDF) из оригинала 11 декабря 2019 г. . Получено 30 января 2020 г. .
  5. ^ Дирик, Искендер (12 августа 2020 г.). «Почему пришло время изменить разговор о синтетических медиа». Venture Beat . Архивировано из оригинала 1 октября 2020 г. Получено 4 октября 2020 г.
  6. ^ Vales, Aldana (14 октября 2019 г.). «Введение в синтетические медиа и журналистику». Medium . Wall Street Journal. Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  7. ^ Розенбаум, Стивен. «Что такое синтетические медиа?». MediaPost . Архивировано из оригинала 30 января 2020 г. Получено 30 января 2020 г.
  8. ^ ab "A 2020 Guide to Synthetic Media". Paperspace Blog . 17 января 2020 г. Архивировано из оригинала 30 января 2020 г. Получено 30 января 2020 г.
  9. ^ Овадья, Авив (14 июня 2019 г.). «Мифы о Deepfake: распространенные заблуждения о синтетических медиа». Обеспечение демократии . Архивировано из оригинала 30 января 2020 г. Получено 30 января 2020 г.
  10. ^ Pangburn, DJ (21 сентября 2019 г.). «Вас предупредили: полноразмерные deepfakes — это следующий шаг в имитации человека на основе искусственного интеллекта». Fast Company . Архивировано из оригинала 8 ноября 2019 г. Получено 30 января 2020 г.
  11. ^ abc Vales, Aldana (14 октября 2019 г.). «Введение в синтетические медиа и журналистику». Medium . Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  12. ^ «Поддельное порно с использованием искусственного интеллекта уже здесь, и мы все влипли». motherboard.vice.com . 11 декабря 2017 г. Архивировано из оригинала 7 сентября 2019 г. Получено 17 октября 2021 г.
  13. ^ ab Pasquarelli, Walter (6 августа 2019 г.). «Towards Synthetic Reality: When DeepFakes meet AR/VR». Oxford Insights . Архивировано из оригинала 30 января 2020 г. Получено 30 января 2020 г.
  14. Ноэль Шарки (4 июля 2007 г.), Программируемый робот из 60 г. н. э., т. 2611, New Scientist, архивировано из оригинала 13 января 2018 г. , извлечено 22 октября 2019 г.
  15. Бретт, Джерард (июль 1954 г.), «Автоматы в византийском «Троне Соломона»", Speculum , 29 (3): 477–487, doi : 10.2307/2846790, ISSN  0038-7134, JSTOR  2846790, S2CID  163031682.
  16. Waddesdon Manor (22 июля 2015 г.). «Удивительный слон — поместье Уоддесдон». Архивировано из оригинала 31 мая 2019 г. Получено 22 октября 2019 г. — через YouTube.
  17. ^ Колесников-Джессоп, Соня (25 ноября 2011 г.). «Китайцы охвачены механической манией». The New York Times . Архивировано из оригинала 6 мая 2014 г. Получено 25 ноября 2011 г. Механические диковинки были в моде в Китае в XVIII и XIX веках, когда императоры династии Цин увлеклись автоматическими часами и карманными часами, и «торговцы Синг-Сонг», как называли европейских часовщиков, были более чем рады поощрять этот интерес.
  18. ^ Koetsier, Teun (2001). «О предыстории программируемых машин: музыкальные автоматы, ткацкие станки, калькуляторы». Механизм и теория машин . 36 (5). Elsevier: 589–603. doi :10.1016/S0094-114X(01)00005-2.
  19. ^ Ниерхаус, Герхард (2009). Алгоритмическая композиция: парадигмы автоматизированной генерации музыки , стр. 36 и 38n7. ISBN 978-3-211-75539-6
  20. ^ Дартмутская конференция :
    • МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., стр. 111–136, ISBN 978-1-56881-205-2, OCLC  52197627
    • Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence . Нью-Йорк, Нью-Йорк: BasicBooks. ISBN 0-465-02997-3.стр. 47–49, который пишет: «Эта конференция общепризнанно считается официальной датой рождения новой науки».
    • Рассел, Стюарт Дж.; Норвиг , Питер (2003), Искусственный интеллект: Современный подход (2-е изд.), Аппер Сэдл Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2стр. 17, которые называют конференцию «рождением искусственного интеллекта».
    • NRC (1999), «Развитие искусственного интеллекта», Финансирование революции: государственная поддержка компьютерных исследований , National Academy Press, стр. 200–201, ISBN 978-0-309-06278-7, OCLC  246584055
  21. Денис Л. Багги, «Роль компьютерных технологий в музыке и музыковедении». Архивировано 22 июля 2011 г. на Wayback Machine , lim.dico.unimi.it (9 декабря 1998 г.).
  22. ^ Зарипов, Р.Х. (1960). «Об алгоритмическом описании процесса сочинения музыки». Известия Академии наук СССР . 132 (6).
  23. ^ "About Ray Kurzweil". Архивировано из оригинала 4 апреля 2011 г. Получено 25 ноября 2019 г.
  24. ^ Bharucha, JJ; Todd, PM (1989). «Моделирование восприятия тональной структуры с помощью нейронных сетей». Computer Music Journal . 13 (4): 44–53. doi :10.2307/3679552. JSTOR  3679552.
  25. ^ Тодд, П. М. и Лой, Д. Г. (ред.) (1991). Музыка и коннекционизм. Кембридж, Массачусетс: MIT Press.
  26. ^ Гудфеллоу, Ян; Пуже-Абади, Жан; Мирза, Мехди; Сюй, Бинг; Уорд-Фарли, Дэвид; Озаир, Шерджил; Курвиль, Аарон; Бенжио, Йошуа (2014). Генеративные состязательные сети (PDF) . Труды Международной конференции по системам обработки нейронной информации (NIPS 2014). стр. 2672–2680. Архивировано (PDF) из оригинала 22 ноября 2019 г. . Получено 25 ноября 2019 г. .
  27. ^ Салиманс, Тим; Гудфеллоу, Ян; Заремба, Войцех; Чунг, Вики; Рэдфорд, Алек; Чэнь, Си (2016). «Улучшенные методы обучения GAN». arXiv : 1606.03498 [cs.LG].
  28. ^ Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei (2017). «Image-to-Image Translation with Conditional Adversarial Nets». Computer Vision and Pattern Recognition . Архивировано из оригинала 14 апреля 2020 г. Получено 25 ноября 2019 г.
  29. ^ Хо, Джонатан; Эрмон, Стефано (2016). «Генеративное состязательное имитирующее обучение». Advances in Neural Information Processing Systems : 4565–4573. arXiv : 1606.03476 . Bibcode :2016arXiv160603476H. Архивировано из оригинала 19 октября 2019 г. Получено 25 ноября 2019 г.
  30. ^ LeCun, Yann (18 ноября 2016 г.). «Семинар RL: следующий рубеж в ИИ: неконтролируемое обучение». YouTube . Архивировано из оригинала 30 апреля 2020 г. Получено 25 ноября 2019 г.
  31. ^ Uszkoreit, Jakob (31 августа 2017 г.). «Трансформер: новая архитектура нейронной сети для понимания языка». Блог Google AI . Архивировано из оригинала 27 октября 2021 г. Получено 21 июня 2020 г.
  32. ^ Браун, Том Б.; Манн, Бенджамин; Райдер, Ник; Суббиа, Мелани; Каплан, Джаред; Дхаривал, Прафулла; Нилакантан, Арвинд; Шьям, Пранав; Шастри, Гириш; Аскелл, Аманда; Агарвал, Сандхини; Герберт-Фосс, Ариэль; Крюгер, Гретхен; Хениган, Том; Чайлд, Ревон; Рамеш, Адитья; Циглер, Дэниел М.; Ву, Джеффри; Винтер, Клеменс; Гессе, Кристофер; Чен, Марк; Сиглер, Эрик; Литвин, Матеуш; Грей, Скотт; Чесс, Бенджамин; Кларк, Джек; Бернер, Кристофер; МакКэндлиш, Сэм; Рэдфорд, Алек; и др. (2020). «Языковые модели — это ученики с небольшим количеством попыток». arXiv : 2005.14165 [cs.CL].
  33. ^ Дхаривал, Прафулла; Джун, Хиву; Пейн, Кристина; Чон Ук Ким; Рэдфорд, Алек; Суцкевер, Илья (2020). «Музыкальный автомат: генеративная модель музыки». arXiv : 2005.00341 [eess.AS].
  34. ^ "Фрагменты механического аниме, il primo corto Italiano Scritto da un'AI" . Сентьери Сельваджи . Проверено 8 января 2022 г.
  35. ^ "Calamity AI". Эли Вайс . Получено 8 января 2022 г.
  36. ^ Брэндон, Джон (16 февраля 2018 г.). «Ужасающее высокотехнологичное порно: жуткие „deepfake“ видео на подъеме». Fox News . Архивировано из оригинала 15 июня 2018 г. Получено 20 февраля 2018 г.
  37. Грегори, Сэмюэл (23 ноября 2018 г.). «Слышали о deepfakes? Не паникуйте. Приготовьтесь». WE Forum . Всемирный экономический форум. Архивировано из оригинала 12 января 2020 г. Получено 30 января 2020 г.
  38. ^ Барраби, Томас (21 октября 2019 г.). «Twitter разрабатывает политику «синтетических медиа» для борьбы с дипфейками и другими вредоносными сообщениями». Fox Business . Fox News. Архивировано из оригинала 2 декабря 2019 г. . Получено 30 января 2020 г. .
  39. ^ abcd Коул, Саманта (24 января 2018 г.). «Мы в полном дерьме: сейчас все создают фейковое порно, созданное с помощью искусственного интеллекта». Vice . Архивировано из оригинала 7 сентября 2019 г. . Получено 4 мая 2019 г. .
  40. ^ Шварц, Оскар (12 ноября 2018 г.). «Вы думали, фейковые новости — это плохо? Глубокие фейки — это место, где правда умирает». The Guardian . Архивировано из оригинала 16 июня 2019 г. Получено 14 ноября 2018 г.
  41. ^ «Что такое Deepfakes и почему будущее порно ужасает». Highsnobiety . 20 февраля 2018 г. Архивировано из оригинала 14 июля 2021 г. Получено 20 февраля 2018 г.
  42. ^ "Эксперты опасаются, что технология подмены лиц может стать причиной международного противостояния". The Outline . Архивировано из оригинала 16 января 2020 г. . Получено 28 февраля 2018 г. .
  43. ^ Руз, Кевин (4 марта 2018 г.). «Here Come the Fake Videos, Too». The New York Times . ISSN  0362-4331. Архивировано из оригинала 18 июня 2019 г. Получено 24 марта 2018 г.
  44. ^ Шрайер, Марко; Саттаров, Тимур; Реймер, Бернд; Борт, Дамиан (2019). «Состязательное обучение дипфейкам в бухгалтерском учете». arXiv : 1910.03810 [cs.LG].
  45. ^ "Присоединяйтесь к Deepfake Detection Challenge (DFDC)". deepfakedetectionchallenge.ai . Архивировано из оригинала 12 января 2020 г. . Получено 8 ноября 2019 г. .
  46. ^ Кларк, Иветт Д. (28 июня 2019 г.). «HR3230 - 116-й Конгресс (2019-2020 гг.): Защита каждого человека от ложных показаний путем обеспечения соблюдения Закона об ответственности за эксплуатацию 2019 года». www.congress.gov . Архивировано из оригинала 17 декабря 2019 г. . Получено 16 октября 2019 г. .
  47. ^ Хейсом, Сэм (31 января 2018 г.). «Люди используют технологию замены лиц, чтобы добавить Николаса Кейджа в случайные фильмы и «Что такое 2018 год»». Mashable . Архивировано из оригинала 24 июля 2019 г. Получено 4 апреля 2019 г.
  48. Коул, Саманта (11 декабря 2017 г.). «Поддельное порно с использованием искусственного интеллекта уже здесь, и мы все в дерьме». Vice . Архивировано из оригинала 7 сентября 2019 г. Получено 19 декабря 2018 г.
  49. ^ Kharpal, Arjun (8 февраля 2018 г.). «Reddit, Pornhub запрещают видео, в которых используется ИИ для наложения лица человека на лицо актера с рейтингом X». CNBC . Архивировано из оригинала 10 апреля 2019 г. Получено 20 февраля 2018 г.
  50. ^ Коул, Саманта (6 февраля 2018 г.). «Twitter — последняя платформа для запрета порно, созданного искусственным интеллектом». Vice . Архивировано из оригинала 1 ноября 2019 г. . Получено 8 ноября 2019 г. .
  51. ^ Хэтэуэй, Джей (8 февраля 2018 г.). «Вот куда «deepfakes», новое фейковое порно со знаменитостями, отправилось после бана на Reddit». The Daily Dot . Архивировано из оригинала 6 июля 2019 г. Получено 22 декабря 2018 г.
  52. ^ Уолш, Майкл (19 августа 2019 г.). «Технология Deepfake превращает Билла Хейдера в Тома Круза». Nerdist . Архивировано из оригинала 2 июня 2020 г. . Получено 1 июня 2020 г. .
  53. ^ Мозер, Энди (5 сентября 2019 г.). «Уилл Смит занимает место Киану в «Матрице» в новом deepfake». Mashable . Архивировано из оригинала 4 августа 2020 г. . Получено 1 июня 2020 г. .
  54. ^ Тален, Микаэль. «Теперь вы можете превратить себя в знаменитость всего за несколько щелчков». daily dot . Архивировано из оригинала 6 апреля 2020 г. Получено 3 апреля 2020 г.
  55. ^ ab Rothman, Joshua (5 ноября 2018 г.). «В эпоху ИИ, видишь ли ты все еще веру?». New Yorker . Архивировано из оригинала 10 января 2020 г. Получено 30 января 2020 г.
  56. ^ Физическая модель мышц для управления формой рта. Архивировано 27 августа 2019 г. на Wayback Machine на IEEE Explore (требуется членство)
  57. ^ Реалистичная 3D-анимация лица в виртуальном пространстве телеконференций Архивировано 27 августа 2019 г. на Wayback Machine на IEEE Explore (требуется членство)
  58. ^ Хорев, Рани (26 декабря 2018 г.). «GAN на основе стилей – Генерация и настройка реалистичных искусственных лиц». Lyrn.AI. Архивировано из оригинала 5 ноября 2020 г. Получено 16 февраля 2019 г.
  59. ^ Овадья, Авив; Уиттлстоун, Джесс. «Сокращение вредоносного использования синтетических медиа-исследований: соображения и потенциальные методы выпуска для машинного обучения». researchgate.net . Архивировано из оригинала 27 октября 2021 г. Получено 30 января 2020 г.
  60. ^ "Сверхбыстрый аудиосинтез с MelGAN". Descript.com . Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  61. ^ Эпштейн, Зив; Герцманн, Аарон; Актен, Мемо; и др. (2023). «Искусство и наука генеративного ИИ». Science . 380 (6650): 1110–1111. arXiv : 2306.04141 . Bibcode :2023Sci...380.1110E. doi :10.1126/science.adh4451. PMID  37319193. S2CID  259095707.
  62. ^ Тодорович, Милош (2024). «ИИ и наследие: обсуждение переосмысления наследия в цифровом мире». Международный журнал культурных и социальных исследований . 10 (1): 1–11. doi :10.46442/intjcss.1397403 . Получено 4 июля 2024 г.
  63. ^ Винсент, Джеймс (24 мая 2022 г.). «Все эти изображения были созданы с помощью новейшего ИИ Google для преобразования текста в изображение». The Verge . Vox Media . Получено 28 мая 2022 г. .
  64. ^ "Фотофильтры ИИ используют нейронные сети, чтобы сделать фотографии похожими на работы Пикассо". Digital Trends . 18 ноября 2019 г. Получено 9 ноября 2022 г.
  65. ^ Бирсдорфер, Дж. Д. (4 декабря 2019 г.). «От фотопленки до холста: создайте искусство из своих фотографий». The New York Times . Получено 9 ноября 2022 г.
  66. ^ Psychotic, Pharma. "Инструменты и ресурсы для искусства ИИ". Архивировано из оригинала 4 июня 2022 г. Получено 26 июня 2022 г.
  67. ^ Гал, Ринон; Алалуф, Ювал; Ацмон, Ювал; Паташник, Ор; Бермано, Амит Х.; Чечик, Гал; Коэн-Ор, Дэниел (2 августа 2022 г.). «Изображение стоит одного слова: персонализация преобразования текста в изображение с помощью текстовой инверсии». arXiv : 2208.01618 [cs.CV].
  68. ^ "Textual Inversion · AUTOMATIC1111/stable-diffusion-webui Wiki". GitHub . Получено 9 ноября 2022 г. .
  69. ^ "Объединение глубоких символических и необработанных аудиомузыкальных моделей". people.bu.edu . Архивировано из оригинала 15 февраля 2020 г. Получено 1 февраля 2020 г.
  70. ^ Линде, Хельмут; Швейцер, Иммануэль (5 июля 2019 г.). «Белая книга о будущем искусственного интеллекта». Архивировано из оригинала 27 октября 2021 г. Получено 1 февраля 2020 г. – через ResearchGate.
  71. ^ Энджел, Джесси; Агравал, Кумар Кришна; Чен, Шуо; Гулраджани, Ишаан; Донахью, Крис; Робертс, Адам (27 сентября 2018 г.). «GANSynth: состязательный нейронный аудиосинтез». Архивировано из оригинала 14 февраля 2020 г. Получено 1 февраля 2020 г. – через openreview.net.
  72. ^ Камбхампати, Суббарао (17 ноября 2019 г.). «Восприятие не будет реальностью, как только ИИ сможет манипулировать тем, что мы видим». TheHill . Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  73. ^ Аллен, Джонатан; Ханникатт, М. Шарон; Клатт, Деннис (1987). От текста к речи: система MITalk . Cambridge University Press. ISBN 978-0-521-30641-6.
  74. ^ Рубин, П.; Бэр, Т.; Мермельштейн, П. (1981). «Артикуляторный синтезатор для перцептивных исследований». Журнал акустического общества Америки . 70 (2): 321–328. Bibcode : 1981ASAJ...70..321R. doi : 10.1121/1.386780.
  75. ^ Oyedeji, Miracle (14 октября 2019 г.). «Руководство для начинающих по синтетическим медиа и их влиянию на журналистику». Состояние цифровых публикаций . Архивировано из оригинала 1 февраля 2020 г. Получено 1 февраля 2020 г.
  76. ^ "WaveNet: Генеративная модель для необработанного звука". 8 сентября 2016 г. Архивировано из оригинала 27 октября 2021 г. Получено 25 ноября 2019 г.
  77. ^ Zwiezen, Zack (18 января 2021 г.). «Сайт позволяет GLaDOS говорить все, что вы хотите». Kotaku . Архивировано из оригинала 17 января 2021 г. . Получено 18 января 2021 г. .
  78. Рупперт, Лиана (18 января 2021 г.). «Заставьте GLaDOS и других любимых персонажей Portal говорить самые странные вещи с помощью этого приложения». Game Informer . Архивировано из оригинала 18 января 2021 г. Получено 18 января 2021 г.
  79. ^ Клейтон, Натали (19 января 2021 г.). «Заставьте актеров TF2 пересказывать старые мемы с помощью этого инструмента преобразования текста в речь на основе искусственного интеллекта». PC Gamer . Архивировано из оригинала 19 января 2021 г. Получено 19 января 2021 г.
  80. ^ Мортон, Лорен (18 января 2021 г.). «Вложите слова в уста игровых персонажей с помощью этого увлекательного инструмента преобразования текста в речь». Rock, Paper, Shotgun . Архивировано из оригинала 18 января 2021 г. . Получено 18 января 2021 г. .
  81. ^ Кларк, Джек; Брандейдж, Майлз; Солайман, Ирен (20 августа 2019 г.). "GPT-2: 6-месячное наблюдение". OpenAI . Архивировано из оригинала 18 февраля 2020 г. . Получено 1 февраля 2020 г. .
  82. ^ Полосухин, Илья; Кайзер, Лукаш; Гомес, Эйдан Н.; Джонс, Лион; Ушкорейт, Якоб; Пармар, Ники; Шазир, Ноам; Васвани, Ашиш (12 июня 2017 г.). «Внимание — это все, что вам нужно». arXiv : 1706.03762 [cs.CL].
  83. ^ Винсент, Джеймс (3 декабря 2018 г.). «Nvidia создала первую демоверсию видеоигры с использованием графики, сгенерированной искусственным интеллектом». The Verge . Архивировано из оригинала 25 января 2020 г. Получено 2 февраля 2020 г.
  84. ^ Саймонайт, Том. «Это началось как игра-подземелье с искусственным интеллектом. Она стала намного мрачнее». Wired .
  85. ^ «AI Dungeon от Latitude Games изменил облик контента, создаваемого ИИ». 22 июня 2021 г.
  86. ^ «В AI Dungeon 2 вы можете делать все, что угодно — даже создать рок-группу из скелетов». 7 декабря 2019 г.
  87. ^ Оберхаус, Дэниел (3 декабря 2018 г.). «ИИ может создавать интерактивные виртуальные миры на основе простых видео». Архивировано из оригинала 21 мая 2020 г. Получено 2 февраля 2020 г.
  88. Эллин, Бобби (16 марта 2022 г.). «Эксперты предупреждают, что поддельное видео Зеленского может оказаться «верхушкой айсберга» в информационной войне». NPR .
  89. ^ "Венн Меркель plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos" . az Aargauer Zeitung. 3 февраля 2018 года. Архивировано из оригинала 13 апреля 2019 года . Проверено 25 ноября 2019 г.
  90. ^ Патрик Генсинг. «Deepfakes: Auf dem Weg в альтернативной реальности?». Архивировано из оригинала 11 октября 2018 года . Проверено 25 ноября 2019 г.
  91. ^ Коул, Саманта; Майберг, Эмануэль; Кёблер, Джейсон (26 июня 2019 г.). «Это ужасающее приложение раздевает любую женщину одним щелчком мыши». Vice . Архивировано из оригинала 2 июля 2019 г. . Получено 2 июля 2019 г. .
  92. ^ Кокс, Джозеф (9 июля 2019 г.). «GitHub удалил версии DeepNude с открытым исходным кодом». Vice Media . Архивировано из оригинала 24 сентября 2020 г. Получено 25 ноября 2019 г.
  93. ^ «Приложение, которое может удалить женскую одежду с изображений, закрыто». BBC News . 28 июня 2019 г.
  94. ^ "Deepfake Report Act of 2019". Congress.gov . Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  95. ^ Стапп, Кэтрин (30 августа 2019 г.). «Мошенники использовали ИИ для имитации голоса генерального директора в необычном деле о киберпреступлении». Wall Street Journal . Архивировано из оригинала 20 ноября 2019 г. Получено 26 ноября 2019 г.
  96. ^ ab Janofsky, Adam (13 ноября 2018 г.). «ИИ может сделать кибератаки более опасными и труднее обнаруживаемыми». Wall Street Journal . Архивировано из оригинала 25 ноября 2019 г. Получено 26 ноября 2019 г.
  97. ^ Ньютон, Кейси (8 января 2020 г.). «Запрет на deepfakes в Facebook имеет очевидные обходные пути». The Verge . Архивировано из оригинала 30 января 2020 г. . Получено 30 января 2020 г. .
  98. ^ «Пародийная реклама, которой поделился Илон Маск, клонирует голос Камалы Харрис, вызывая опасения по поводу ИИ в политике». AP News . 28 июля 2024 г. Получено 22 октября 2024 г.
  99. ^ «Пародийная реклама, которой поделился Илон Маск, клонирует голос Камалы Харрис, вызывая опасения по поводу ИИ в политике». AP News . 28 июля 2024 г. Получено 22 октября 2024 г.
  100. ^ Чесни, Бобби; Ситрон, Даниэль (2019). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  101. ^ Чесни, Бобби; Ситрон, Даниэль (2019). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  102. ^ Чесни, Бобби; Ситрон, Даниэль (2019). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  103. ^ Чесни, Бобби; Ситрон, Даниэль (2019). «Глубокие фейки: надвигающийся вызов конфиденциальности, демократии и национальной безопасности». California Law Review . 107 (6): 1753–1820. ISSN  0008-1221.
  104. ^ "Deepfakes: What They Is & How Your Business Is In Risk". Bank of America . Получено 22 октября 2024 г.
  105. ^ "Deepfakes: What They Is & How Your Business Is In Risk". Bank of America . Получено 22 октября 2024 г.
  106. ^ "Руководство по синтетическим носителям 2020 года". Блог Paperspace . 17 января 2020 г. Архивировано из оригинала 30 января 2020 г. Получено 30 января 2020 г.
  107. ^ «Дублирование выходит на маленькие экраны рядом с вами». The Economist . ISSN  0013-0613. Архивировано из оригинала 12 февраля 2020 г. Получено 13 февраля 2020 г.
  108. ^ «Глобальный охват Netflix вызывает революцию дубляжа: «Общественность требует этого»». The Hollywood Reporter . 13 августа 2019 г. Архивировано из оригинала 4 апреля 2020 г. Получено 13 февраля 2020 г.
  109. ^ "Reuters и Synthesia представляют прототип ИИ для автоматизированных видеоотчетов". Reuters . 7 февраля 2020 г. Архивировано из оригинала 13 февраля 2020 г. Получено 13 февраля 2020 г.
  110. ^ «Могут ли синтетические медиа создавать новые впечатления от контента?». BBC . 29 января 2020 г. Архивировано из оригинала 13 февраля 2020 г. Получено 13 февраля 2020 г.
  111. ^ Шао, Грейс (15 октября 2019 г.). «Поддельные видео могут стать следующей большой проблемой на выборах 2020 года». CNBC . Архивировано из оригинала 15 ноября 2019 г. Получено 25 ноября 2019 г.
  112. ^ «Оценка рисков языковой модели «дипфейков» для демократии». 21 мая 2021 г.
  113. ^ Гамильтон, Изобель (26 сентября 2019 г.). «Илон Маск предупредил, что «продвинутый ИИ» может отравить социальные сети». Архивировано из оригинала 21 декабря 2019 г. Получено 25 ноября 2019 г.
  114. ^ Serban, Iulian V.; Sankar, Chinnadhurai; Germain, Mathieu; Zhang, Saizheng; Lin, Zhouhan; Subramanian, Sandeep; Kim, Taesup; Pieper, Michael; Chandar, Sarath; Ke, Nan Rosemary; Rajeshwar, Sai; De Brebisson, Alexandre; Sotelo, Jose MR; Suhubdy, Dendi; Michalski, Vincent; Nguyen, Alexandre; Pineau, Joelle; Bengio, Yoshua (2017). "Глубокий чат-бот с подкреплением". arXiv : 1709.02349 [cs.CL].
  115. Мерчант, Брайан (1 октября 2018 г.). «Когда ИИ становится полным Джеком Керуаком». The Atlantic . Архивировано из оригинала 30 января 2020 г. Получено 25 ноября 2019 г.
  116. Мерчант, Брайан (1 октября 2018 г.). «Когда ИИ становится полным Джеком Керуаком». The Atlantic . Архивировано из оригинала 30 января 2020 г. Получено 25 ноября 2019 г.
  117. ^ "Ветеран Pixar создает инструмент ИИ для автоматизации 2D-анимации". 2 июня 2017 г. Архивировано из оригинала 11 июня 2019 г. Получено 25 ноября 2019 г.
  118. ^ ab "Synthesia". www.synthesia.io . Архивировано из оригинала 27 октября 2021 г. . Получено 12 февраля 2020 г. .
  119. ^ Ban, Yuli (3 января 2020 г.). «Эпоха воображаемых машин: грядущая демократизация искусства, анимации и воображения». Medium . Архивировано из оригинала 1 февраля 2020 г. . Получено 1 февраля 2020 г. .
  120. ^ "варианты использования преобразования текста в речь и аватары на основе искусственного интеллекта". Elai.io . Получено 15 августа 2022 г. .
  121. ^ Винсент, Джеймс (2 июля 2019 г.). «Бесконечный спам, генерируемый ИИ, рискует засорить результаты поиска Google». The Verge . Архивировано из оригинала 6 декабря 2019 г. . Получено 1 декабря 2019 г. .
  122. ^ Кемп, Люк (8 июля 2019 г.). «В эпоху дипфейков могут ли виртуальные актеры вытеснить людей из бизнеса?». The Guardian . ISSN  0261-3077. Архивировано из оригинала 20 октября 2019 г. Получено 20 октября 2019 г.
  123. ^ Радулович, Петрана (17 октября 2018 г.). «Харрисон Форд — звезда «Хан Соло: Звёздные войны. Истории» благодаря технологии deepfake». Polygon . Архивировано из оригинала 20 октября 2019 г. Получено 20 октября 2019 г.
  124. ^ Виник, Эрин. «Как игра в роли марионетки Кэрри Фишер сделала карьеру принцессе Лее из «Изгоя-один»». MIT Technology Review . Архивировано из оригинала 23 октября 2019 г. Получено 20 октября 2019 г.
  125. ^ Вонг, Сиси (27 мая 2019 г.). «Расцвет супермоделей искусственного интеллекта». CDO Trends . Архивировано из оригинала 16 апреля 2020 г. Получено 25 ноября 2019 г.
  126. ^ Дитмар, Джулия. «GAN и Deepfakes могли бы произвести революцию в индустрии моды». Forbes . Архивировано из оригинала 4 сентября 2019 г. Получено 25 ноября 2019 г.
  127. ^ Хамосова, Ленка (10 июля 2020 г.). «Персонализированная синтетическая реклама — будущее прикладных синтетических медиа». Medium . Архивировано из оригинала 5 декабря 2020 г. . Получено 27 ноября 2020 г. .
  128. ^ "Generative Fashion Design". Архивировано из оригинала 3 декабря 2020 г. Получено 25 ноября 2019 г.
  129. ^ «ИИ создает моделей одежды с индивидуальными нарядами и позами». Синхронизировано . 29 августа 2019 г. Архивировано из оригинала 9 января 2020 г. Получено 25 ноября 2019 г.
  130. ^ "Познакомьтесь с Dadabots, группой AI death metal, играющей без остановки на Youtube". New Atlas . 23 апреля 2019 г. Архивировано из оригинала 15 января 2020 г. Получено 15 января 2020 г.
  131. ^ Портер, Джон (26 апреля 2019 г.). «MuseNet от OpenAI генерирует музыку с помощью ИИ одним нажатием кнопки». The Verge . Архивировано из оригинала 28 июня 2019 г. Получено 25 ноября 2019 г.
  132. ^ «TimbreTron: WaveNet(CycleGAN(CQT(Audio))) Pipeline для передачи музыкального тембра». 27 ноября 2018 г. Архивировано из оригинала 31 декабря 2019 г. Получено 11 марта 2020 г. – через www.youtube.com.
  133. ^ Уоттс, Крис. «Вызовы национальной безопасности искусственного интеллекта, манипулируемых СМИ и «глубоких фейков» — Институт исследований внешней политики». Архивировано из оригинала 20 мая 2020 г. Получено 12 февраля 2020 г.