stringtranslate.com

ДАЛЛ-И

DALL·E , DALL·E 2 и DALL·E 3 (произносится как ДОЛЛ-И) — это модели преобразования текста в изображение, разработанные OpenAI с использованием методологий глубокого обучения для генерации цифровых изображений из описаний на естественном языке, известных как « подсказки ».

Первая версия DALL-E была анонсирована в январе 2021 года. В следующем году был выпущен ее преемник DALL-E 2. DALL·E 3 был выпущен изначально в ChatGPT для клиентов ChatGPT Plus и ChatGPT Enterprise в октябре 2023 года [1] с доступностью через API OpenAI [2] и платформу «Labs», предоставленную в начале ноября. [3] Microsoft реализовала модель в инструменте Bing Image Creator и планирует внедрить ее в свое приложение Designer. [4]

История и предыстория

DALL·E был представлен компанией OpenAI в сообщении в блоге 5 января 2021 года и использует версию GPT-3 [5], модифицированную для генерации изображений.

6 апреля 2022 года OpenAI анонсировала DALL·E 2, преемника, разработанного для создания более реалистичных изображений с более высоким разрешением, которые «могут объединять концепции, атрибуты и стили». [6] 20 июля 2022 года DALL·E 2 вступил в бета-фазу, и приглашения были отправлены 1 миллиону лиц, внесенных в список ожидания; [7] пользователи могли бесплатно генерировать определенное количество изображений каждый месяц и могли покупать больше. [8] Ранее доступ был ограничен предварительно выбранными пользователями для предварительного просмотра исследования из-за проблем этики и безопасности. [9] [10] 28 сентября 2022 года DALL·E 2 был открыт для всех, и требование о наличии списка ожидания было снято. [11] В сентябре 2023 года OpenAI анонсировала свою последнюю модель изображения, DALL·E 3, способную понимать «значительно больше нюансов и деталей», чем предыдущие итерации. [12] В начале ноября 2022 года OpenAI выпустила DALL·E 2 как API , что позволяет разработчикам интегрировать модель в свои собственные приложения. Microsoft представила свою реализацию DALL·E 2 в своем приложении Designer и инструменте Image Creator, включенном в Bing и Microsoft Edge . [13] API работает по принципу оплаты за изображение, при этом цены варьируются в зависимости от разрешения изображения. Компаниям, работающим с корпоративной командой OpenAI, доступны скидки за объем. [14]

Название программы представляет собой комбинацию имён персонажа анимационного робота Pixar ВАЛЛ-И и каталонского художника-сюрреалиста Сальвадора Дали . [15] [5]

В феврале 2024 года OpenAI начала добавлять водяные знаки к изображениям, созданным с помощью DALL-E, содержащим метаданные в стандарте C2PA (Коалиция за происхождение и подлинность контента), продвигаемом Инициативой по подлинности контента . [16]

Технологии

Первая генеративная предобученная модель трансформатора (GPT) была первоначально разработана OpenAI в 2018 году [17] с использованием архитектуры Transformer . Первая итерация, GPT-1, [18] была масштабирована для создания GPT-2 в 2019 году; [19] в 2020 году она была снова масштабирована для создания GPT-3 с 175 миллиардами параметров. [20] [5] [21]

ДАЛЛ-И

DALL·E состоит из трех компонентов: дискретного VAE , авторегрессионного декодера Transformer (12 миллиардов параметров), аналогичного GPT-3, и пары CLIP, состоящей из кодировщика изображений и текстового кодировщика. [22]

Дискретный VAE может преобразовать изображение в последовательность токенов и наоборот, преобразовать последовательность токенов обратно в изображение. Это необходимо, поскольку Transformer не обрабатывает данные изображения напрямую. [22]

Входные данные для модели Transformer — это последовательность токенизированных подписей к изображениям, за которыми следуют токенизированные фрагменты изображений. Подпись к изображению на английском языке, токенизирована кодировкой пар байтов (размер словаря 16384) и может быть длиной до 256 токенов. Каждое изображение — это изображение RGB размером 256×256, разделенное на 32×32 фрагмента по 4×4 каждый. Затем каждый фрагмент преобразуется дискретным вариационным автокодировщиком в токен (размер словаря 8192). [22]

DALL·E была разработана и представлена ​​публике совместно с CLIP (Contrastive Language-Image Pre-training) . [23] CLIP — это отдельная модель, основанная на контрастном обучении , которая была обучена на 400 миллионах пар изображений с текстовыми подписями, взятыми из Интернета. Ее роль заключается в «понимании и ранжировании» выходных данных DALL·E путем прогнозирования того, какая подпись из списка из 32 768 подписей, случайно выбранных из набора данных (из которых одна была правильным ответом), наиболее подходит для изображения. [24]

Обученная пара CLIP используется для фильтрации большего начального списка изображений, сгенерированного DALL·E, чтобы выбрать изображение, наиболее близкое к текстовой подсказке. [22]

ДАЛЛ-И 2

DALL·E 2 использует 3,5 миллиарда параметров, что меньше, чем у его предшественника. [22] Вместо авторегрессионного Transformer, DALL·E 2 использует модель диффузии , обусловленную вложениями изображений CLIP, которые во время вывода генерируются из вложений текста CLIP предыдущей моделью. [22] Это та же архитектура, что и у Stable Diffusion , выпущенной несколькими месяцами позже.

Возможности

DALL·E может генерировать изображения в различных стилях, включая фотореалистичные изображения, картины и эмодзи . [5] Он может «манипулировать и переставлять» объекты на своих изображениях, [5] и может правильно размещать элементы дизайна в новых композициях без явных инструкций. Том Данн, пишущий для BoingBoing, заметил, что «например, когда его просят нарисовать редьку дайкон, сморкающуюся, потягивающую латте или едущую на одноколесном велосипеде, DALL·E часто рисует платок, руки и ноги в правдоподобных местах». [25] DALL·E продемонстрировал способность «заполнять пробелы», чтобы вывести соответствующие детали без конкретных подсказок, таких как добавление рождественских образов к подсказкам, обычно связанным с празднованием, [26] и соответствующим образом размещенные тени к изображениям, которые не упоминают их. [27] Кроме того, DALL·E демонстрирует широкое понимание визуальных и дизайнерских тенденций. [ необходима цитата ]

DALL·E может создавать изображения для широкого спектра произвольных описаний с различных точек зрения [28] с редкими сбоями. [15] Марк Ридл, доцент Школы интерактивных вычислений Технологического института Джорджии , обнаружил, что DALL-E может смешивать концепции (описываемые как ключевой элемент человеческого творчества ). [29] [30]

Его способности к визуальному мышлению достаточны для решения матриц Равена (визуальные тесты, часто применяемые к людям для измерения интеллекта). [31] [32]

Изображение точного текста, сгенерированного DALL·E 3 на основе текстовой подсказки «Иллюстрация авокадо, сидящего в кресле терапевта, говорящего: «Я чувствую себя таким пустым внутри», с дыркой размером с косточку в центре. Терапевт, ложка, делает заметки»

DALL·E 3 следует сложным подсказкам с большей точностью и детализацией, чем его предшественники, и способен генерировать более связный и точный текст. [33] [12] DALL·E 3 интегрирован в ChatGPT Plus. [12]

Модификация изображения

Две «вариации» « Девушки с жемчужной сережкой», созданные с помощью DALL·E 2

При наличии существующего изображения DALL·E 2 может создавать «вариации» изображения в виде отдельных выходных данных на основе оригинала, а также редактировать изображение, чтобы изменить или расширить его. «Вписывание» и «выписывание» DALL·E 2 используют контекст изображения для заполнения отсутствующих областей с помощью средства, соответствующего оригиналу, следуя заданной подсказке.

Например, это можно использовать для вставки нового объекта в изображение или расширения изображения за пределы его исходных границ. [34] Согласно OpenAI, «Outpainting учитывает существующие визуальные элементы изображения — включая тени, отражения и текстуры — для сохранения контекста исходного изображения». [35]

Технические ограничения

Понимание языка DALL·E 2 имеет ограничения. Иногда он не может отличить «Желтую книгу и красную вазу» от «Красной книги и желтой вазы» или «Панда, делающая латте-арт» от «Латте-арт панды». [36] Он генерирует изображения «астронавта, едущего на лошади», когда ему предлагают «лошадь, едущая на астронавте». [37] Он также не может генерировать правильные изображения в различных обстоятельствах. Запрос более трех объектов, отрицание, числа и связанные предложения могут привести к ошибкам, а характеристики объекта могут появиться на неправильном объекте. [28] Дополнительные ограничения включают обработку текста — который, даже с разборчивыми буквами, почти неизменно приводит к сновидной тарабарщине — и его ограниченную способность обращаться к научной информации, такой как астрономия или медицинские изображения. [38]

Попытка создать японский текст с использованием подсказки «человек, указывающий на тануки , с речевым пузырём с надписью «これは狸です!»», в результате чего текст отображается с бессмысленными кандзи и кана.

Этические проблемы

Зависимость DALL·E 2 от общедоступных наборов данных влияет на его результаты и в некоторых случаях приводит к алгоритмической предвзятости , например, к генерации большего количества мужчин, чем женщин для запросов, в которых не упоминается пол. [38] Обучающие данные DALL·E 2 были отфильтрованы для удаления жестоких и сексуальных изображений, но было обнаружено, что это увеличивает предвзятость в некоторых случаях, например, уменьшая частоту генерации женщин. [39] OpenAI выдвигает гипотезу, что это может быть связано с тем, что женщины с большей вероятностью подвергались сексуализации в обучающих данных, что привело к влиянию фильтра на результаты. [39] В сентябре 2022 года OpenAI подтвердила The Verge , что DALL·E незаметно вставляет фразы в подсказки пользователей, чтобы устранить предвзятость в результатах; например, «чернокожий мужчина» и «азиатская женщина» вставляются в подсказки, в которых не указан пол или раса. [40]

Проблема DALL·E 2 и подобных моделей генерации изображений заключается в том, что они могут использоваться для распространения дипфейков и других форм дезинформации. [41] [42] В попытке смягчить это программное обеспечение отклоняет подсказки, включающие публичных лиц, и загрузки, содержащие человеческие лица. [43] Подсказки, содержащие потенциально нежелательный контент, блокируются, а загруженные изображения анализируются для обнаружения оскорбительных материалов. [44] Недостатком фильтрации на основе подсказок является то, что ее легко обойти, используя альтернативные фразы, которые приводят к аналогичному выводу. Например, слово «кровь» фильтруется, а «кетчуп» и «красная жидкость» — нет. [45] [44]

Еще одна проблема, связанная с DALL·E 2 и аналогичными моделями, заключается в том, что они могут вызвать технологическую безработицу среди художников, фотографов и графических дизайнеров из-за своей точности и популярности. [46] [47] DALL·E 3 разработан, чтобы не дать пользователям создавать произведения искусства в стиле ныне живущих художников. [12]

В 2023 году Microsoft предложила Министерству обороны США использовать модели DALL·E для обучения системы управления полем боя . [48] В январе 2024 года OpenAI сняла полный запрет на использование в военных целях и в военных целях из своих политик использования. [49]

Прием

Изображения, созданные DALL·E по запросу: «иллюстрация молодого дайкона в пачке, выгуливающего собаку»

Большая часть освещения DALL·E фокусируется на небольшом подмножестве «сюрреалистических» [23] или «причудливых» [29] результатов. Результат DALL-E для «иллюстрации молодого дайкона в пачке, выгуливающего собаку» упоминался в статьях из Input , [50] NBC , [51] Nature , [52] и других публикаций. [5] [53] [54] Его результат для «кресла в форме авокадо» также широко освещался. [23] [30]

ExtremeTech заявила: «Вы можете попросить DALL·E предоставить фотографию телефона или пылесоса за определенный период времени, и он поймет, как изменились эти объекты». [26] Engadget также отметила его необычную способность «понимать, как телефоны и другие объекты меняются со временем». [27]

Согласно MIT Technology Review , одной из целей OpenAI было «дать языковым моделям лучшее понимание повседневных концепций, которые люди используют для осмысления вещей» [23] .

Инвесторы Уолл-стрит положительно восприняли DALL·E 2, и некоторые фирмы посчитали, что это может стать поворотным моментом для будущей многотриллионной индустрии. К середине 2019 года OpenAI уже получила более 1 миллиарда долларов финансирования от Microsoft и Khosla Ventures, [55] [56] [57] а в январе 2023 года, после запуска DALL·E 2 и ChatGPT, получила дополнительно 10 миллиардов долларов финансирования от Microsoft. [58]

Аниме- сообщество Японии негативно отреагировало на DALL·E 2 и подобные модели. [59] [60] [61] Художники обычно выдвигают два аргумента против программного обеспечения. Первый заключается в том, что искусство ИИ не является искусством, поскольку оно не создано человеком с намерением. «Сопоставление изображений, созданных ИИ, с их собственными работами унижает и подрывает время и мастерство, которые вложены в их искусство. Инструменты генерации изображений на основе ИИ подвергаются резкой критике со стороны художников, поскольку они обучаются на искусстве, созданном человеком, взятом из сети». [7] Вторая проблема заключается в проблемах с законом об авторском праве и данными, на которых обучаются модели преобразования текста в изображение. OpenAI не опубликовала информацию о том, какие наборы данных использовались для обучения DALL·E 2, что вызвало у некоторых опасения, что работы художников использовались для обучения без разрешения. Законы об авторском праве, касающиеся этих тем, на данный момент не являются окончательными. [8]

После интеграции DALL·E 3 в Bing Chat и ChatGPT, Microsoft и OpenAI подверглись критике за чрезмерную фильтрацию контента, при этом критики заявили, что DALL·E был «лоботомирован». [62] В качестве доказательства приводилась пометка изображений, созданных подсказками, такими как «человек ломает серверную стойку кувалдой». Сообщалось, что в течение первых дней запуска фильтрация была усилена до такой степени, что изображения, созданные некоторыми из собственных предложенных подсказок Bing, блокировались. [62] [63] TechRadar утверждал, что слишком большой наклон в сторону осторожности может ограничить ценность DALL·E как творческого инструмента. [63]

Реализации с открытым исходным кодом

Поскольку OpenAI не выпустила исходный код ни для одной из трех моделей, было предпринято несколько попыток создать модели с открытым исходным кодом, предлагающие аналогичные возможности. [64] [65] Выпущенная в 2022 году на платформе Spaces Hugging Face , Craiyon (ранее DALL·E Mini, пока OpenAI не запросила смену названия в июне 2022 года) представляет собой модель ИИ, основанную на оригинальной DALL·E, которая была обучена на неотфильтрованных данных из Интернета. Она привлекла значительное внимание СМИ в середине 2022 года после своего выпуска из-за своей способности создавать юмористические образы. [66] [67] [68]

Смотрите также

Ссылки

  1. ^ Дэвид, Эмилия (20 сентября 2023 г.). «OpenAI выпускает третью версию DALL·E». The Verge . Архивировано из оригинала 20 сентября 2023 г. . Получено 21 сентября 2023 г. .
  2. ^ "OpenAI Platform". platform.openai.com . Архивировано из оригинала 20 марта 2023 г. Получено 10 ноября 2023 г.
  3. ^ Niles, Raymond (10 ноября 2023 г.) [Обновлено на этой неделе]. "DALL-E 3 API". Справочный центр OpenAI . Архивировано из оригинала 10 ноября 2023 г. Получено 10 ноября 2023 г.
  4. ^ Мехди, Юсуф (21 сентября 2023 г.). «Представляем Microsoft Copilot, вашего повседневного спутника ИИ». Официальный блог Microsoft . Архивировано из оригинала 21 сентября 2023 г. Получено 21 сентября 2023 г.
  5. ^ abcdef Джонсон, Хари (5 января 2021 г.). «OpenAI дебютирует с DALL-E для генерации изображений из текста». VentureBeat. Архивировано из оригинала 5 января 2021 г. . Получено 5 января 2021 г. .
  6. ^ "DALL·E 2". OpenAI . Архивировано из оригинала 6 апреля 2022 г. Получено 6 июля 2022 г.
  7. ^ ab "DALL·E теперь доступен в бета-версии". OpenAI . 20 июля 2022 г. Архивировано из оригинала 20 июля 2022 г. Получено 20 июля 2022 г.
  8. ^ ab Allyn, Bobby (20 июля 2022 г.). «Сюрреалистично или слишком реально? Захватывающий инструмент искусственного интеллекта DALL·E выводит свои изображения на более широкую сцену». NPR . Архивировано из оригинала 20 июля 2022 г. Получено 20 июля 2022 г.
  9. ^ "DALL·E Waitlist". labs.openai.com . Архивировано из оригинала 4 июля 2022 г. . Получено 6 июля 2022 г. .
  10. ^ «От Trump Nevermind babies до deep fakes: DALL·E и этика искусства ИИ». The Guardian . 18 июня 2022 г. Архивировано из оригинала 6 июля 2022 г. Получено 6 июля 2022 г.
  11. ^ "DALL·E теперь доступен без списка ожидания". OpenAI . 28 сентября 2022 г. Архивировано из оригинала 4 октября 2022 г. Получено 5 октября 2022 г.
  12. ^ abcd "DALL·E 3". OpenAI . Архивировано из оригинала 20 сентября 2023 г. Получено 21 сентября 2023 г.
  13. ^ "DALL·E API теперь доступен в публичной бета-версии". OpenAI . 3 ноября 2022 г. Архивировано из оригинала 19 ноября 2022 г. Получено 19 ноября 2022 г.
  14. ^ Wiggers, Kyle (3 ноября 2022 г.). «Теперь любой может создавать приложения, использующие DALL·E 2 для генерации изображений». TechCrunch . Архивировано из оригинала 19 ноября 2022 г. Получено 19 ноября 2022 г.
  15. ^ ab Coldewey, Devin (5 января 2021 г.). «DALL-E от OpenAI создает правдоподобные изображения буквально всего, о чем вы его попросите». Архивировано из оригинала 6 января 2021 г. Получено 5 января 2021 г.
  16. ^ Growcoot, Matt (8 февраля 2024 г.). «ИИ-изображения, созданные на DALL-E, теперь содержат тег подлинности контента». PetaPixel . Получено 4 апреля 2024 г.
  17. ^ Рэдфорд, Алек; Нарасимхан, Картик; Салиманс, Тим; Суцкевер, Илья (11 июня 2018 г.). «Улучшение понимания языка с помощью генеративного предварительного обучения» (PDF) . OpenAI . стр. 12. Архивировано (PDF) из оригинала 26 января 2021 г. . Получено 23 января 2021 г. .
  18. ^ "GPT-1 to GPT-4: Каждая из моделей GPT OpenAI объяснена и сравнена". 11 апреля 2023 г. Архивировано из оригинала 15 апреля 2023 г. Получено 29 апреля 2023 г.
  19. ^ Рэдфорд, Алек; Ву, Джеффри; Чайлд, Ревон; и др. (14 февраля 2019 г.). «Языковые модели — это неконтролируемые многозадачные ученики» (PDF) . cdn.openai.com . 1 (8). Архивировано (PDF) из оригинала 6 февраля 2021 г. . Получено 19 декабря 2020 г. .
  20. ^ Браун, Том Б.; Манн, Бенджамин; Райдер, Ник; и др. (22 июля 2020 г.). «Языковые модели — это малоопытные ученики». arXiv : 2005.14165 [cs.CL].
  21. ^ Рамеш, Адитья; Павлов, Михаил; Гох, Габриэль; и др. (24 февраля 2021 г.). «Генерация текста в изображение с нуля». arXiv : 2102.12092 [cs.LG].
  22. ^ abcdef Рамеш, Адитья; Дхаривал, Прафулла; Никол, Алекс; Чу, Кейси; Чен, Марк (12 апреля 2022 г.). «Генерация иерархических текстовых условных изображений с использованием латентных значений CLIP». arXiv : 2204.06125 [cs.CV].
  23. ^ abcd Heaven, Уилл Дуглас (5 января 2021 г.). «Это кресло из авокадо может стать будущим ИИ». MIT Technology Review. Архивировано из оригинала 5 января 2021 г. Получено 5 января 2021 г.
  24. ^ Рэдфорд, Алек; Ким, Чон Вук; Халласи, Крис; и др. (1 июля 2021 г.). Изучение переносимых визуальных моделей с помощью надзора за естественным языком. Труды 38-й Международной конференции по машинному обучению. PMLR. С. 8748–8763.
  25. ^ Данн, Том (10 февраля 2021 г.). «Эта нейронная сеть ИИ преобразует текстовые подписи в искусство, как медуза Пикачу». BoingBoing . Архивировано из оригинала 22 февраля 2021 г. . Получено 2 марта 2021 г. .
  26. ^ ab Whitwam, Ryan (6 января 2021 г.). «OpenAI's 'DALL-E' Generates Images From Text Descriptions». ExtremeTech . Архивировано из оригинала 28 января 2021 г. . Получено 2 марта 2021 г. .
  27. ^ ab Dent, Steve (6 января 2021 г.). «Приложение OpenAI DALL-E генерирует изображения только по описанию». Engadget . Архивировано из оригинала 27 января 2021 г. . Получено 2 марта 2021 г. .
  28. ^ ab Маркус, Гэри; Дэвис, Эрнест; Ааронсон, Скотт (2 мая 2022 г.). «Очень предварительный анализ DALL-E 2». arXiv : 2204.13807 [cs.CV].
  29. ^ ab Shead, Sam (8 января 2021 г.). «Почему все говорят о генераторе изображений, выпущенном лабораторией искусственного интеллекта, поддерживаемой Илоном Маском». CNBC . Архивировано из оригинала 16 июля 2022 г. Получено 2 марта 2021 г.
  30. ^ ab Wakefield, Jane (6 января 2021 г.). «ИИ рисует выгуливающего собаку младенца-редиска в пачке». British Broadcasting Corporation . Архивировано из оригинала 2 марта 2021 г. . Получено 3 марта 2021 г. .
  31. ^ Марковиц, Дейл (10 января 2021 г.). «Вот как работает волшебный генератор изображений DALL-E от OpenAI». TheNextWeb . Архивировано из оригинала 23 февраля 2021 г. Получено 2 марта 2021 г.
  32. ^ "DALL·E: Создание изображений из текста". OpenAI . 5 января 2021 г. Архивировано из оригинала 27 марта 2021 г. Получено 13 августа 2022 г.
  33. ^ Эдвардс, Бендж (20 сентября 2023 г.). «Новый генератор изображений на основе ИИ от OpenAI расширяет границы детализации и обеспечивает точность». Ars Technica . Архивировано из оригинала 21 сентября 2023 г. Получено 21 сентября 2023 г.
  34. ^ Колдьюи, Девин (6 апреля 2022 г.). «Новый инструмент OpenAI рисует что угодно, больше и лучше, чем когда-либо». TechCrunch . Архивировано из оригинала 6 мая 2023 г. Получено 26 ноября 2022 г.
  35. ^ "DALL·E: Знакомство с Outpainting". OpenAI . 31 августа 2022 г. Архивировано из оригинала 26 ноября 2022 г. Получено 26 ноября 2022 г.
  36. ^ Сахария, Читван; Чан, Уильям; Саксена, Саурабх; и др. (23 мая 2022 г.). «Фотореалистичные модели диффузии текста в изображение с глубоким пониманием языка». arXiv : 2205.11487 [cs.CV].
  37. ^ Маркус, Гэри (28 мая 2022 г.). «Лошадь едет на астронавте». Дорога к ИИ, которому мы можем доверять . Архивировано из оригинала 19 июня 2022 г. Получено 18 июня 2022 г.
  38. ^ ab Strickland, Eliza (14 июля 2022 г.). «DALL·E 2's Failures Are the Most Interesting Thing About It». IEEE Spectrum . Архивировано из оригинала 15 июля 2022 г. Получено 16 августа 2022 г.
  39. ^ ab "DALL·E 2 Pre-Training Mitigations". OpenAI . 28 июня 2022 г. Архивировано из оригинала 19 июля 2022 г. Получено 18 июля 2022 г.
  40. ^ Джеймс Винсент (29 сентября 2022 г.). «Генератор изображений OpenAI DALL·E доступен для немедленного использования любым желающим». The Verge . Архивировано из оригинала 29 сентября 2022 г. . Получено 29 сентября 2022 г. .
  41. ^ Тейлор, Джош (18 июня 2022 г.). «От Trump Nevermind babies до deep fakes: DALL-E и этика искусства ИИ». The Guardian . Архивировано из оригинала 6 июля 2022 г. Получено 2 августа 2022 г.
  42. Найт, Уилл (13 июля 2022 г.). «Когда ИИ создает искусство, люди зажигают творческую искру». Wired . Архивировано из оригинала 2 августа 2022 г. Получено 2 августа 2022 г.
  43. ^ Роуз, Янус (24 июня 2022 г.). «DALL-E теперь генерирует реалистичные лица поддельных людей». Vice . Архивировано из оригинала 30 июля 2022 г. . Получено 2 августа 2022 г. .
  44. ^ ab OpenAI (19 июня 2022 г.). "DALL·E 2 Preview – Risks and Limitations". GitHub . Архивировано из оригинала 2 августа 2022 г. . Получено 2 августа 2022 г. .
  45. Лейн, Лора (1 июля 2022 г.). «DALL-E, Make Me Another Picasso, Please». The New Yorker . Архивировано из оригинала 2 августа 2022 г. Получено 2 августа 2022 г.
  46. ^ Голдман, Шарон (26 июля 2022 г.). «OpenAI: убьет ли DALL·E 2 творческие карьеры?». Архивировано из оригинала 15 августа 2022 г. . Получено 16 августа 2022 г. .
  47. ^ Блейн, Лоз (29 июля 2022 г.). «DALL-E 2: Инструмент мечты и экзистенциальная угроза визуальным художникам». Архивировано из оригинала 17 августа 2022 г. . Получено 16 августа 2022 г. .
  48. ^ Биддл, Сэм (10 апреля 2024 г.). «Microsoft представила DALL-E от OpenAI в качестве боевого инструмента для армии США». The Intercept .
  49. ^ Биддл, Сэм (12 января 2024 г.). «OpenAI тихо отменяет запрет на использование ChatGPT для «военных целей и военных действий»». The Intercept .
  50. ^ Касана, Мехрин (7 января 2021 г.). «Этот ИИ превращает текст в сюрреалистическое искусство, основанное на предположениях». Ввод. Архивировано из оригинала 29 января 2021 г. . Получено 2 марта 2021 г. .
  51. ^ Эренкранц, Мелани (27 января 2021 г.). «Вот DALL-E: алгоритм, научившийся рисовать все, что вы ему скажете». NBC News . Архивировано из оригинала 20 февраля 2021 г. Получено 2 марта 2021 г.
  52. ^ Стоув, Эмма (5 февраля 2021 г.). «Цирк тихоходок и дерево жизни — лучшие научные изображения января». Nature . Архивировано из оригинала 8 марта 2021 г. . Получено 2 марта 2021 г. .
  53. ^ Найт, Уилл (26 января 2021 г.). «Этот ИИ может перейти от „искусства“ к управлению самоуправляемым автомобилем». Wired . Архивировано из оригинала 21 февраля 2021 г. Получено 2 марта 2021 г.
  54. ^ Метц, Рэйчел (2 февраля 2021 г.). «Редиска в пачке выгуливает собаку? Этот ИИ может нарисовать ее очень хорошо». CNN. Архивировано из оригинала 16 июля 2022 г. Получено 2 марта 2021 г.
  55. ^ Лесвинг, Киф (8 октября 2022 г.). «Почему Кремниевая долина так взволнована неловкими рисунками, сделанными искусственным интеллектом». CNBC . Архивировано из оригинала 29 июля 2023 г. Получено 1 декабря 2022 г.
  56. ^ Этерингтон, Даррелл (22 июля 2019 г.). «Microsoft инвестирует 1 миллиард долларов в OpenAI в рамках нового многолетнего партнерства». TechCrunch . Архивировано из оригинала 22 июля 2019 г. Получено 21 сентября 2023 г.
  57. ^ "Первый венчурный инвестор OpenAI высказался о генеративном ИИ" Fortune . Архивировано из оригинала 23 октября 2023 г. Получено 21 сентября 2023 г.
  58. ^ Метц, Кейд; Вайс, Карен (23 января 2023 г.). «Microsoft инвестирует 10 миллиардов долларов в OpenAI, создателя ChatGPT». The New York Times . ISSN  0362-4331. Архивировано из оригинала 21 сентября 2023 г. . Получено 21 сентября 2023 г. .
  59. ^ «Искусство, созданное искусственным интеллектом, вызвало яростную реакцию японского аниме-сообщества». Остальной мир . 27 октября 2022 г. Архивировано из оригинала 31 декабря 2022 г. Получено 3 января 2023 г.
  60. ^ Руз, Кевин (2 сентября 2022 г.). «Картина, созданная с помощью искусственного интеллекта, выиграла художественную премию. Художники недовольны». The New York Times . ISSN  0362-4331. Архивировано из оригинала 31 мая 2023 г. Получено 3 января 2023 г.
  61. ^ Доус, Райан (15 декабря 2022 г.). «ArtStation backlash increase following AI art protest response» (Реакция протеста со стороны ИИ на арт-протест). AI News . Архивировано из оригинала 3 января 2023 г. Получено 3 января 2023 г.
  62. ^ ab Corden, Jez (8 октября 2023 г.). «Создание образа Bing Dall-E 3 было отличным в течение нескольких дней, но теперь Microsoft предсказуемо лоботомировала его». Windows Central . Архивировано из оригинала 10 октября 2023 г. Получено 11 октября 2023 г.
  63. ^ ab Allan, Darren (9 октября 2023 г.). «Microsoft ограничивает возможности Bing AI Image Creator – и результаты не имеют особого смысла». TechRadar . Архивировано из оригинала 10 октября 2023 г. . Получено 11 октября 2023 г. .
  64. ^ Сахар Мор, Stripe (16 апреля 2022 г.). «Как DALL-E 2 может решить основные проблемы компьютерного зрения». VentureBeat . Архивировано из оригинала 24 мая 2022 г. Получено 15 июня 2022 г.
  65. ^ "jina-ai/dalle-flow". Jina AI. 17 июня 2022 г. Архивировано из оригинала 17 июня 2022 г. Получено 17 июня 2022 г.
  66. ^ Карсон, Эрин (14 июня 2022 г.). «Все, что нужно знать о Dall-E Mini, творце ИИ-искусства, поражающем воображение». CNET . Архивировано из оригинала 15 июня 2022 г. Получено 15 июня 2022 г.
  67. ^ Шредер, Одра (9 июня 2022 г.). «Программа искусственного интеллекта DALL-E mini выдает некоторые поистине проклятые изображения». Daily Dot . Архивировано из оригинала 10 июня 2022 г. Получено 15 июня 2022 г.
  68. ^ Диас, Ана (15 июня 2022 г.). «Люди используют DALL-E mini, чтобы создавать мемные мерзости — вроде мопса Пикачу». Polygon . Архивировано из оригинала 15 июня 2022 г. . Получено 15 июня 2022 г. .

Внешние ссылки