stringtranslate.com

Быстрое проектирование

Проектирование подсказок — это процесс структурирования инструкции, которая может быть интерпретирована и понята генеративной моделью искусственного интеллекта (ИИ). [1] [2] Подсказка — это текст на естественном языке, описывающий задачу, которую должен выполнить ИИ. [3] Подсказка для языковой модели «текст в текст» может быть запросом, например «что такое малая теорема Ферма ?», [4] командой, например «написать стихотворение в стиле Эдгара Аллана По о падающих листьях» [5] или более длинным утверждением, включающим контекст, инструкции [6] и историю разговора.

Инжиниринг подсказок может включать формулировку запроса, указание стиля [5], предоставление соответствующего контекста [7] или назначение роли ИИ, например, «действовать как носитель французского языка» [8] .

При общении с моделью «текст-изображение» или «текст-аудио» типичной подсказкой является описание желаемого результата, например, «высококачественное фото астронавта, едущего на лошади» [9] или «Lo-fi slow BPM electro chill с органическими образцами». [10] Подсказка для модели «текст-изображение» может включать добавление, удаление, подчеркивание и переупорядочивание слов для достижения желаемой темы, стиля, [1] макета, освещения [11] и эстетики.

История

В 2018 году исследователи впервые предложили, что все ранее отдельные задачи в НЛП могут быть представлены как проблема ответа на вопрос в контексте. Кроме того, они обучили первую единую, совместную, многозадачную модель, которая будет отвечать на любой вопрос, связанный с задачей, например «Каково настроение» или «Переведите это предложение на немецкий язык» или «Кто президент?» [12]

В 2021 году исследователи доработали одну генеративно предобученную модель (T0) для выполнения 12 задач NLP (используя 62 набора данных, поскольку каждая задача может иметь несколько наборов данных). Модель показала хорошую производительность на новых задачах, превзойдя модели, обученные напрямую на выполнении только одной задачи (без предобучения). Для решения задачи T0 дается задача в структурированной подсказке, например, If {{premise}} is true, is it also true that {{hypothesis}}? ||| {{entailed}}.подсказка, используемая для того, чтобы заставить T0 решить вывод . [13]

Репозиторий подсказок сообщил, что в феврале 2022 года было доступно более 2000 публичных подсказок для примерно 170 наборов данных. [14]

В 2022 году исследователи Google предложили метод подсказки цепочки мыслей . [15] [16]

В 2023 году несколько баз данных подсказок для преобразования текста в текст и текста в изображение стали общедоступными. [17] [18]

Текст в текст

Цепочка мыслей

По данным Google, подсказки цепочки мыслей (CoT) считаются методом, который позволяет большим языковым моделям (LLM) решать проблему в виде серии промежуточных шагов [19] перед тем, как дать окончательный ответ. В 2022 году Google также заявил, что подсказки цепочки мыслей улучшают способность к рассуждению, побуждая модель отвечать на многошаговую задачу с помощью шагов рассуждения, которые имитируют ход мыслей . [20] [15] [21] Согласно заявлениям Google и Amazon, методы цепочки мыслей гипотетически позволяют большим языковым моделям преодолевать трудности с некоторыми задачами рассуждения, требующими логического мышления и нескольких шагов для решения, такими как арифметические или здравые вопросы рассуждения . [22] [23] [24]

Например, если задать вопрос «В: В кафе было 23 яблока. Если они использовали 20 для приготовления обеда и купили еще 6, сколько яблок у них осталось?», Google утверждает, что подсказка CoT может побудить LLM ответить «A: Изначально в кафе было 23 яблока. Они использовали 20 для приготовления обеда. Таким образом, у них было 23 - 20 = 3. Они купили еще 6 яблок, поэтому у них есть 3 + 6 = 9. Ответ: 9». [15]

Как изначально предлагалось Google, [15] каждая подсказка CoT включала несколько примеров вопросов и ответов. Это сделало ее техникой подсказок с несколькими выстрелами . Однако, по словам исследователей из Google и Токийского университета, простое добавление слов «Давайте подумаем шаг за шагом», [25] также оказалось эффективным, что делает CoT техникой подсказок с нулевым выстрелом . OpenAI утверждает, что эта подсказка обеспечивает лучшее масштабирование, поскольку пользователю больше не нужно формулировать много конкретных примеров вопросов и ответов CoT. [26]

Google утверждает, что применительно к PaLM , языковой модели с параметрами 540B , подсказки CoT значительно помогли модели, позволив ей работать на уровне, сопоставимом с точно настроенными моделями для конкретных задач, и достичь самых современных результатов на тот момент на математическом бенчмарке GSM8K . [15] По данным Google, можно точно настроить модели на наборах данных CoT для дальнейшего улучшения этой возможности и стимулирования лучшей интерпретируемости . [27] [28]

Пример: [25]

 В: {вопрос} A: Давайте подумаем шаг за шагом.

Другие методы

Подсказка цепочки мыслей — это всего лишь один из многих методов инженерии подсказок. Были предложены и другие методы. Было опубликовано не менее 29 различных методов. [29]

Подсказка цепочки символов (CoS)

Научное сотрудничество между Университетом Вестлейк, Китайским университетом Гонконга и Эдинбургским университетом заявило, что подсказки в виде цепочки символов в сочетании с подсказками CoT помогают LLM справляться с трудностями пространственного рассуждения в тексте. Другими словами, использование произвольных символов, таких как ' / ', помогает LLM интерпретировать пробелы в тексте. Это, как утверждается, помогает в рассуждениях и повышает производительность LLM. [30]

Пример: [30]

Вход: Есть набор кирпичей. Желтый кирпич C находится на кирпиче E. Желтый кирпич D находится на кирпиче A. Желтый кирпич E находится на кирпиче D. Белый кирпич A находится на кирпиче B. Для кирпича B цвет белый. Теперь нам нужно получить определенный кирпич. Теперь кирпичи должны быть захвачены сверху вниз, и если нужно захватить нижний кирпич, сначала нужно удалить верхний кирпич. Как получить кирпич D?Б/А/Д/Е/СС/ЭЭ/ДДВыход:Итак, мы получаем результат как C, E, D.

Обучение с небольшим количеством выстрелов

Подсказка может включать несколько примеров, на которых может учиться модель, например, попросить модель завершить « maison → house, chat → cat, chien →» (ожидаемый ответ — dog ), [31] подход, называемый обучением с несколькими попытками . [32]

Сгенерированные знания, подсказки

Подсказка сгенерированных знаний [33] сначала побуждает модель генерировать соответствующие факты для завершения подсказки, а затем приступать к ее завершению. Качество завершения обычно выше [ необходима цитата ] , поскольку модель может быть обусловлена ​​соответствующими фактами.

Пример: [33]

 Сформируйте некоторые знания о концепциях, представленных во входных данных. Ввод: {вопрос} Знание:

Подсказки от наименьшего к наибольшему

Метод подсказок «от наименьшего к наибольшему» [34] побуждает модель сначала перечислить подзадачи проблемы, а затем решить их последовательно, так что последующие подзадачи могут быть решены с помощью ответов на предыдущие подзадачи.

Пример: [34]

 Вход: В: {вопрос} A: Давайте разберем эту проблему: 1.

Самосогласованное декодирование

Самосогласованное декодирование [35] выполняет несколько цепочек мыслей, затем выбирает наиболее часто достигаемый вывод из всех цепочек. Если цепочка мыслей сильно расходится, можно запросить человека на правильную цепочку мыслей. [36]

Подсказки на основе сложности

Подсказки на основе сложности [37] выполняют несколько развертываний CoT, затем выбирают развертывания с самыми длинными цепочками мыслей, затем выбирают из них наиболее часто достигаемый вывод.

Самообслуживание

Self-refine [38] побуждает LLM решить проблему, затем побуждает LLM критиковать свое решение, затем побуждает LLM снова решить проблему с учетом проблемы, решения и критики. Этот процесс повторяется до тех пор, пока не будет остановлен, либо из-за того, что закончатся токены, время, либо LLM выведет токен «стоп».

Пример критики: [38]

 У меня есть код. Дайте одно предложение по улучшению читаемости. Не исправляйте код, просто дайте предложение. Код: {код} Предположение:

Пример уточнения:

 Код: {код} Давайте воспользуемся этим предложением для улучшения кода. Предложение: {предложение} Новый код:

Древо мысли

Подсказка с использованием дерева мыслей [39] обобщает цепочку мыслей, побуждая модель генерировать один или несколько «возможных следующих шагов», а затем запуская модель на каждом из возможных следующих шагов с помощью поиска в ширину , луча или какого-либо другого метода поиска по дереву. [40]

Майевтическое побуждение

Майевтическое подсказывание похоже на дерево мыслей. Модель побуждается ответить на вопрос с объяснением. Затем модель побуждается объяснить части объяснения и так далее. Непоследовательные деревья объяснений обрезаются или отбрасываются. Это улучшает производительность при сложных рассуждениях здравого смысла. [41]

Пример: [41]

 В: {вопрос} A: Верно, потому что
 В: {вопрос} A: Ложь, потому что

Направленно-стимулирующее подсказывание

Подсказка направленного стимула [42] включает подсказку или сигнал, например, желаемые ключевые слова, чтобы направить языковую модель к желаемому результату.

Пример: [42]

 Статья: {статья} Ключевые слова:
 Статья: {статья} В: Напишите краткое изложение статьи в 2–4 предложениях, точно включающее указанные ключевые слова. Ключевые слова: {ключевые слова} А:

Побуждение к раскрытию неопределенности

По умолчанию выходные данные языковых моделей могут не содержать оценок неопределенности. Модель может выводить текст, который кажется уверенным, хотя базовые предсказания токенов имеют низкие оценки правдоподобия . Большие языковые модели, такие как GPT-4, могут иметь точно откалиброванные оценки правдоподобия в своих предсказаниях токенов, [43] и поэтому неопределенность выходных данных модели может быть напрямую оценена путем считывания оценок правдоподобия предсказаний токенов.

Но если доступ к таким оценкам невозможен (например, когда доступ к модели осуществляется через ограниченный API), неопределенность все равно может быть оценена и включена в выходные данные модели. Один простой метод — побудить модель использовать слова для оценки неопределенности. [44] Другой метод — побудить модель отказаться отвечать стандартизированным образом, если входные данные не удовлетворяют условиям. [ необходима цитата ]

Автоматическая генерация подсказок

Генерация дополненной поисковой информации

Двухфазный процесс поиска документов с использованием плотных внедрений и большой языковой модели (LLM) для формулировки ответа

Генерация дополненного поиска (RAG) — это двухфазный процесс, включающий поиск документа и формулировку ответа с помощью Большой языковой модели (LLM). Начальная фаза использует плотные вложения для поиска документов. Этот поиск может быть основан на различных форматах баз данных в зависимости от варианта использования, таких как векторная база данных , сводный индекс, древовидный индекс или индекс таблицы ключевых слов. [45]

В ответ на запрос извлекатель документов выбирает наиболее релевантные документы. Эта релевантность обычно определяется путем первого кодирования как запроса, так и документов в векторы, а затем идентификации документов, векторы которых наиболее близки по евклидову расстоянию к вектору запроса. После извлечения документов LLM генерирует вывод, который включает информацию как из запроса, так и из извлеченных документов. [46] Этот метод особенно полезен для обработки частной или динамической информации, которая не была включена в начальные фазы обучения или тонкой настройки модели. RAG также примечателен своим использованием обучения «несколькими выстрелами», когда модель использует небольшое количество примеров, часто автоматически извлеченных из базы данных, для информирования своих выводов.

Графическое извлечение-дополненная генерация

GraphRAG с графом знаний, объединяющим шаблоны доступа для неструктурированных, структурированных и смешанных данных.

GraphRAG [47] (разработанный Microsoft Research) — это метод, который расширяет RAG с помощью графа знаний (обычно созданного LLM), чтобы позволить модели связывать разрозненные фрагменты информации, синтезировать идеи и целостно понимать обобщенные семантические концепции в больших наборах данных.

Было показано, что он эффективен на таких наборах данных, как Violent Incident Information from News Articles (VIINA). [48] Объединяя графы знаний, созданные LLM, с графическим машинным обучением, GraphRAG существенно улучшает полноту и разнообразие генерируемых ответов на глобальные вопросы осмысления.

Более ранние работы показали эффективность использования графа знаний для ответов на вопросы с использованием генерации текста в запрос. [49] Эти методы можно комбинировать для поиска как по неструктурированным, так и по структурированным данным, обеспечивая расширенный контекст и улучшенный рейтинг.

Использование языковых моделей для генерации подсказок

Большие языковые модели (LLM) сами по себе могут использоваться для составления подсказок для больших языковых моделей. [50] [51] [52] [53]

Алгоритм автоматического инженера подсказок использует один LLM для передачи поиска по подсказкам для другого LLM: [54]

Примеры CoT могут быть сгенерированы самим LLM. В «auto-CoT» [55] библиотека вопросов преобразуется в векторы с помощью такой модели, как BERT . Векторы вопросов кластеризуются . Выбираются вопросы, ближайшие к центроидам каждого кластера. LLM выполняет CoT с нулевым выстрелом по каждому вопросу. Полученные примеры CoT добавляются в набор данных. При запросе нового вопроса примеры CoT к ближайшим вопросам могут быть извлечены и добавлены в запрос.

Контекстное обучение

Инженерия подсказок, возможно, может быть дополнительно обеспечена контекстным обучением , определяемым как способность модели временно обучаться на основе подсказок. Способность к контекстному обучению является эмерджентной способностью [56] больших языковых моделей . Само по себе контекстное обучение является эмерджентным свойством масштаба модели , то есть разрывы [57] в законах масштабирования ниже по потоку происходят таким образом, что его эффективность увеличивается с разной скоростью в больших моделях, чем в меньших. [58] [15]

В отличие от обучения и тонкой настройки для каждой конкретной задачи, которые не являются временными, то, что было изучено во время контекстного обучения, имеет временную природу. Оно не переносит временные контексты или предубеждения, за исключением тех, которые уже присутствуют в (пред)тренировочном наборе данных , из одного разговора в другой. [59] Этот результат «меза-оптимизации» [60] [61] в слоях трансформатора является формой мета-обучения или «обучения обучению». [62]

Текст-в-изображение

В 2022 году модели преобразования текста в изображение, такие как DALL-E 2 , Stable Diffusion и Midjourney , были выпущены для публики. [63] Эти модели принимают текстовые подсказки в качестве входных данных и используют их для генерации изображений искусства ИИ . Модели преобразования текста в изображение, как правило, не понимают грамматику и структуру предложений так же, как большие языковые модели , [64] и требуют другого набора методов подсказок.

Форматы подсказок

Подсказка «текст-изображение» обычно включает описание предмета искусства (например, ярко-оранжевые маки ), желаемую среду (например, цифровая живопись или фотография ), стиль (например, гиперреалистичный или поп-арт ), освещение (например, ореол освещения или сумеречные лучи ), цвет и текстуру. [65]

Документация Midjourney поощряет короткие, описательные подсказки: вместо «Покажите мне картинку с множеством цветущих калифорнийских маков, сделайте их яркими, сочно-оранжевыми и нарисуйте их в иллюстрированном стиле цветными карандашами» эффективной подсказкой может быть «Ярко-оранжевые калифорнийские маки, нарисованные цветными карандашами» [64] .

Порядок слов влияет на вывод подсказки «текст-изображение». Слова, расположенные ближе к началу подсказки, могут быть выделены сильнее. [1]

Стили художника

Некоторые модели преобразования текста в изображение способны имитировать стиль конкретных художников по имени. Например, фраза в стиле Грега Рутковски использовалась в подсказках Stable Diffusion и Midjourney для генерации изображений в отличительном стиле польского цифрового художника Грега Рутковски. [66]

Отрицательные подсказки

Демонстрация влияния отрицательных подсказок на изображения, полученные с помощью Stable Diffusion
  • Вверху : нет отрицательного запроса
  • Центр : «зеленые деревья»
  • Внизу : «круглые камни, круглые скалы»

Модели «текст-изображение» изначально не понимают отрицание. Подсказка «вечеринка без торта» скорее всего создаст изображение, включающее торт. [64] В качестве альтернативы, отрицательные подсказки позволяют пользователю указать в отдельной подсказке, какие термины не должны появляться в результирующем изображении. [67]

Нетекстовые подсказки

Некоторые подходы дополняют или заменяют текстовые подсказки на естественном языке нетекстовым вводом.

Текстовая инверсия и встраивание

Для моделей «текст-изображение» «Текстовая инверсия» [68] выполняет процесс оптимизации для создания нового встраивания слова на основе набора примеров изображений. Этот вектор встраивания действует как «псевдослово», которое может быть включено в подсказку для выражения содержания или стиля примеров.

Подсказка изображения

В 2023 году исследование Meta AI выпустило Segment Anything, модель компьютерного зрения , которая может выполнять сегментацию изображений с помощью подсказок. В качестве альтернативы текстовым подсказкам Segment Anything может принимать ограничивающие рамки, маски сегментации и точки переднего плана/фона. [69]

Использование градиентного спуска для поиска подсказок

При «настройке префикса», [70] «настройке подсказки» или «мягкой подсказке» [71] векторы с плавающей точкой ищутся напрямую с помощью градиентного спуска , чтобы максимизировать логарифмическое правдоподобие выходных данных.

Формально, пусть будет набором мягких токенов подсказок (настраиваемых вложений), тогда как и будут вложениями токенов входа и выхода соответственно. Во время обучения настраиваемые вложения, входные и выходные токены объединяются в одну последовательность и подаются в большие языковые модели (LLM). Потери вычисляются по токенам; градиенты распространяются обратно к параметрам, специфичным для подсказок: в настройке префиксов это параметры, связанные с токенами подсказок на каждом уровне; в настройке подсказок это просто мягкие токены, добавленные в словарь. [72]

Более формально, это быстрая настройка. Пусть LLM записывается как , где — последовательность лингвистических токенов, — функция преобразования токена в вектор, а — остальная часть модели. При настройке префикса задается набор пар вход-выход , а затем используется градиентный спуск для поиска . Другими словами, — это логарифмическое правдоподобие вывода , если модель сначала кодирует вход в вектор , затем добавляет к вектору «вектор префикса» , а затем применяет .

Для настройки префикса все аналогично, но «вектор префикса» предварительно добавляется к скрытым состояниям в каждом слое модели.

Более ранний результат [73] использует ту же идею поиска градиентного спуска, но разработан для маскированных языковых моделей, таких как BERT, и ищет только по последовательностям токенов, а не по числовым векторам. Формально, он ищет, где is ранжируется по последовательностям токенов указанной длины.

Быстрая инъекция

Prompt injection — это семейство связанных компьютерных эксплойтов безопасности, реализуемых путем получения модели машинного обучения (например, LLM), обученной следовать инструкциям, данным человеком, для выполнения инструкций, предоставленных злонамеренным пользователем. Это контрастирует с предполагаемой работой систем, следующих инструкциям, в которых модель ML предназначена только для выполнения доверенных инструкций (подсказок), предоставленных оператором модели ML. [74] [75] [76]

Смотрите также

Ссылки

  1. ^ abc Диаб, Мохамад; Эррера, Джулиан; Чернов, Боб (28.10.2022). "Stable Diffusion Prompt Book" (PDF) . Получено 07.08.2023 . Инженерия подсказок — это процесс структурирования слов, которые могут быть интерпретированы и поняты моделью преобразования текста в изображение . Думайте об этом как о языке, на котором вам нужно говорить, чтобы сообщить модели ИИ, что рисовать.
  2. ^ Циглер, Альберт; Берриман, Джон (17 июля 2023 г.). «Руководство разработчика по оперативной инженерии и LLM». Блог GitHub . Оперативное проектирование — это искусство общения с генеративной моделью ИИ.
  3. ^ Рэдфорд, Алек; Ву, Джеффри; Чайлд, Ревон; Луан, Дэвид; Амодеи, Дарио; Сутскевер, Илья (2019). «Языковые модели — неконтролируемые многозадачные ученики» (PDF) . OpenAI. Мы демонстрируем, что языковые модели могут выполнять нисходящие задачи в нулевой настройке — без каких-либо изменений параметров или архитектуры.
  4. ^ "Введение в ChatGPT". Блог OpenAI . 2022-11-30 . Получено 2023-08-16 . Что такое малая теорема Ферма
  5. ^ ab Robinson, Reid (3 августа 2023 г.). «Как написать эффективное приглашение GPT-3 или GPT-4». Zapier . Получено 14 августа 2023 г.«Базовая подсказка: «Напишите стихотворение о листопаде». Лучшая подсказка: «Напишите стихотворение в стиле Эдгара Аллана По о листопаде».
  6. ^ Гоувс-Стюарт, Наташа (16 июня 2023 г.). «Полное руководство по разработке подсказок для вашей модели GPT-3.5-Turbo». masterofcode.com .
  7. ^ Гринберг, Дж., Лора (31 мая 2023 г.). «Как подготовить и подтолкнуть ChatGPT к более надежной поддержке при составлении контрактов». contractnerds.com . Получено 24 июля 2023 г. .
  8. ^ "GPT Best Practices". OpenAI . Получено 2023-08-16 .
  9. Heaven, Will Douglas (6 апреля 2022 г.). «Этот астронавт на лошади — важная веха на долгом пути ИИ к пониманию». MIT Technology Review . Получено 14 августа 2023 г.
  10. ^ Wiggers, Kyle (2023-06-12). "Meta open sources an AI-powered music generator". TechCrunch . Получено 2023-08-15 . Затем я дал более сложную подсказку, чтобы попытаться сбить MusicGen с толку: "Lo-fi slow BPM electro chill with organic samples."
  11. ^ «Как писать подсказки для фотосъемки с использованием ИИ: руководство по улучшению фотографий продуктов». claid.ai . 12 июня 2023 г. . Получено 12 июня 2023 г. .
  12. ^ Макканн, Брайан; Шириш, Нитиш; Сюн, Кайминг; Сочер, Ричард (2018). «Естественное языковое десятиборье: многозадачное обучение как ответ на вопрос». arXiv : 1806.08730 [cs.CL].
  13. ^ Сан, Виктор и др. (2021). «Многозадачное обучение с подсказками позволяет обобщить задачи с нуля». arXiv : 2110.08207 [cs.LG].
  14. ^ Бах, Стивен Х.; Сань, Виктор; Йонг, Чжэн-Синь; Вебсон, Альберт; Раффель, Колин; Наяк, Нихал В.; Шарма, Абхишт; Ким, Тэвун; М. Сайфул Бари; Феври, Тибо; Аляфей, Заид; Дей, Манан; Сантилли, Андреа; Сан, Чжицин; Бен-Дэвид, Срулик; Сюй, Канвен; Чхаблани, Гунджан; Ван, Хан; Джейсон Алан Фрис; Аль-Шайбани, Магед С.; Шарма, Шанья; Таккер, Урмиш; Альмубарак, Халид; Тан, Сянгру; Радев, Драгомир; Майк Тянь-Цзянь Цзян; Раш, Александр М. (2022). «PromptSource: Интегрированная среда разработки и репозиторий для подсказок на естественном языке». arXiv : 2202.01279 [cs.LG].
  15. ^ abcdef Вэй, Джейсон; Ван, Сюэчжи; Шурманс, Дейл; Босма, Маартен; Ихтер, Брайан; Ся, Фэй; Чи, Эд Х.; Ле, Куок В.; Чжоу, Денни (31 октября 2022 г.). Подсказка цепочки мыслей вызывает рассуждение в больших языковых моделях. Достижения в области нейронных систем обработки информации (NeurIPS 2022). Том 35. arXiv : 2201.11903 .
  16. ^ Вэй, Джейсон; Чжоу (11 мая 2022 г.). «Языковые модели выполняют рассуждение с помощью цепочки мыслей». ai.googleblog.com . Получено 10 марта 2023 г. .
  17. ^ Чен, Брайан X. (2023-06-23). ​​«Как превратить вашего чат-бота в лайф-коуча». The New York Times .
  18. ^ Чен, Брайан X. (2023-05-25). «Получите максимум от ChatGPT с этими золотыми подсказками». The New York Times . ISSN  0362-4331 . Получено 2023-08-16 .
  19. ^ МакОлифф, Закари. «Последнюю модель искусственного интеллекта от Google можно научить решать проблемы». CNET . Получено 10 марта 2023 г.«Цепочка мыслей позволяет нам описывать многошаговые задачи как ряд промежуточных шагов», — генеральный директор Google Сундар Пичаи
  20. ^ МакОлифф, Закари. «Последнюю модель искусственного интеллекта от Google можно научить решать проблемы». CNET . Получено 10 марта 2023 г.
  21. ^ Шаран Наранг и Ааканкша Чоудхери (2022-04-04). «Модель языка путей (PaLM): масштабирование до 540 миллиардов параметров для прорывной производительности».
  22. ^ Данг, Экта (8 февраля 2023 г.). «Использование мощи GPT-3 в научных исследованиях». VentureBeat . Получено 10 марта 2023 г.
  23. ^ Монтти, Роджер (13 мая 2022 г.). «Цепочка подсказок мыслей от Google может усилить лучшие сегодняшние алгоритмы». Search Engine Journal . Получено 10 марта 2023 г.
  24. ^ Рэй, Тирнан. «Ученые Amazon Alexa демонстрируют, что более крупный ИИ не всегда лучше». ZDNET . Получено 10 марта 2023 г.
  25. ^ Аб Кодзима, Такеши; Шисян Шейн Гу; Рид, Машел; Мацуо, Ютака; Ивасава, Юсуке (2022). «Большие языковые модели — это рассуждения с нулевым выстрелом». arXiv : 2205.11916 [cs.CL].
  26. ^ Диксон, Бен (30 августа 2022 г.). «LLM не выучили наш язык — мы пытаемся выучить их». VentureBeat . Получено 10 марта 2023 г.
  27. ^ Чунг, Хён Вон; Хоу, Ле; Лонгпре, Шейн; Зоф, Баррет; Тай, Йи; Федус, Уильям; Ли, Юньсюань; Ван, Сюэчжи; Дегани, Мостафа; Брахма, Сиддхартха; Вебсон, Альберт; Гу, Шисян Шейн; Дай, Чжуюн; Сузгун, Мирак; Чен, Синьюнь; Чоудери, Ааканша; Кастро-Рос, Алекс; Пелла, Мари; Робинсон, Кевин; Вальтер, Даша; Наранг, Шаран; Мишра, Гаурав; Ю, Адамс; Чжао, Винсент; Хуан, Яньпин; Дай, Эндрю; Ю, Хункун; Петров, славянин; Чи, Эд Х.; Дин, Джефф; Девлин, Джейкоб; Робертс, Адам; Чжоу, Денни; Ле, Куок В.; Вэй, Джейсон (2022). «Масштабирование инструкций — тонко настроенные языковые модели». arXiv : 2210.11416 [cs.LG].
  28. ^ Вэй, Джейсон; Тай, Йи (29 ноября 2022 г.). «Лучшие языковые модели без массивных вычислений». ai.googleblog.com . Получено 10 марта 2023 г. .
  29. ^ Sahoo, Pranab; Singh, Ayush Kumar; Saha, Sriparna; Jain, Vinija; Mondal, Samrat; Chadha, Aman (2024-02-05), Систематический обзор оперативной инженерии в больших языковых моделях: методы и приложения , arXiv : 2402.07927
  30. ^ Аб Ху, Ханьсюй; Лу, Хунъюань; Чжан, Хуацзянь; Сон, Юн-Зе; Лам, Вай; Чжан, Юэ (03 октября 2023 г.), Подсказка по цепочке символов способствует планированию в моделях большого языка , arXiv : 2305.10276
  31. ^ Гарг, Шивам; Ципрас, Димитрис; Лян, Перси; Валиант, Грегори (2022). «Чему могут научиться трансформеры в контексте? Пример изучения простых классов функций». arXiv : 2208.01066 [cs.CL].
  32. ^ Браун, Том; Манн, Бенджамин; Райдер, Ник; Суббиа, Мелани; Каплан, Джаред Д.; Дхаривал, Прафулла; Нилакантан, Арвинд (2020). «Языковые модели — это ученики с небольшим количеством попыток». Достижения в области нейронных систем обработки информации . 33 : 1877–1901. arXiv : 2005.14165 .
  33. ^ ab Лю, Цзячэн; Лю, Алиса; Лу, Симин; Веллэк, Шон; Уэст, Питер; Ле Брас, Ронан; Чой, Еджин; Хаджиширзи, Ханнанех (май 2022 г.). «Сгенерированные знания, побуждающие к здравомысленному рассуждению». Труды 60-го ежегодного собрания Ассоциации компьютерной лингвистики (том 1: длинные статьи) . Дублин, Ирландия: Ассоциация компьютерной лингвистики: 3154–3169. arXiv : 2110.08387 . doi : 10.18653/v1/2022.acl-long.225 . S2CID  239016123.
  34. ^ ab Zhou, Denny; Schärli, Nathanael; Hou, Le; Wei, Jason; Scales, Nathan; Wang, Xuezhi; Schuurmans, Dale; Cui, Claire; Bousquet, Olivier; Le, Quoc; Chi, Ed (2022-05-01). "Подсказки от наименьшего к наибольшему позволяют строить сложные рассуждения в больших языковых моделях". arXiv : 2205.10625 [cs.AI]. ...подсказки от наименьшего к наибольшему. Основная идея этой стратегии — разбить сложную задачу на ряд более простых подзадач, а затем последовательно их решить.
  35. ^ Ван, Сюэчжи; Вэй, Джейсон; Шуурманс, Дейл; Ле, Куок; Чи, Эд; Наранг, Шаран; Чоудхери, Ааканкша; Чжоу, Денни (2022-03-01). «Самосогласованность улучшает цепочку рассуждений в языковых моделях». arXiv : 2203.11171 [cs.CL].
  36. ^ Дяо, Шичжэ; Ван, Пэнчэн; Линь, Юн; Чжан, Тун (2023-02-01). «Активное подсказывание с цепочкой мыслей для больших языковых моделей». arXiv : 2302.12246 [cs.CL].
  37. ^ Фу, Яо; Пэн, Хао; Сабхарвал, Ашиш; Кларк, Питер; Хот, Тушар (2022-10-01). «Подсказки на основе сложности для многошагового рассуждения». arXiv : 2210.00720 [cs.CL].
  38. ^ аб Мадаан, Аман; Тандон, Никет; Гупта, Прахар; Халлинан, Скайлер; Гао, Лую; Вигреффе, Сара; Алон, Ури; Дзири, Нуха; Прабхумойе, Шримаи; Ян, Имин; Гупта, Шашанк; Прасад Маджумдер, Бодхисаттва; Германн, Кэтрин; Веллек, Шон; Язданбахш, Амир (01 марта 2023 г.). «Самоуточнение: итеративное уточнение с самообратной связью». arXiv : 2303.17651 [cs.CL].
  39. ^ Лонг, Цзеи (15.05.2023). «Большая языковая модель, управляемая деревом мыслей». arXiv : 2305.08291 [cs.AI].
  40. ^ Яо, Шуньюй; Ю, Дянь; Чжао, Джеффри; Шафран, Ицхак; Гриффитс, Томас Л.; Цао, Юань; Нарасимхан, Картик (2023-05-17). «Дерево мыслей: осознанное решение проблем с помощью больших языковых моделей». arXiv : 2305.10601 [cs.CL].
  41. ^ ab Jung, Jaehun; Qin, Lianhui; Welleck, Sean; Brahman, Faeze; Bhagavatula, Chandra; Le Bras, Ronan; Choi, Yejin (2022). «Майевтическое подсказывание: логически последовательное рассуждение с рекурсивными объяснениями». arXiv : 2205.11822 [cs.CL].
  42. ^ ab Li, Zekun; Peng, Baolin; He, Pengcheng; Galley, Michel; Gao, Jianfeng; Yan, Xifeng (2023). «Guiding Large Language Models via Directional Stimulus Prompting». arXiv : 2302.11520 [cs.CL]. Направленный стимул служит подсказками или сигналами для каждого входного запроса, чтобы направлять LLM к желаемому результату, например, к ключевым словам, которые желаемое резюме должно включать для реферирования.
  43. ^ OpenAI (2023-03-27). "Технический отчет GPT-4". arXiv : 2303.08774 [cs.CL]. [См. рис. 8.]
  44. ^ Элиот, Лэнс (2023-08-18). «Новейшая технология инжиниринга подсказок направлена ​​на то, чтобы вынести определенность и неопределенность генеративного ИИ непосредственно на стол и наружу». Forbes . Получено 2024-08-31 . Если вы явно указываете в своей подсказке, что хотите, чтобы генеративный ИИ выдал квалификацию определенности или неопределенности, то вы почти наверняка получите такое указание.
  45. ^ "Как работает каждый индекс - LlamaIndex 🦙 v0.10.17". docs.llamaindex.ai . Получено 2024-04-08 .
  46. ^ Льюис, Патрик; Перес, Итан; Пиктус, Александра; Петрони, Фабио; Карпухин, Владимир; Гойал, Наман; Кюттлер, Генрих; Льюис, Майк; Йих, Вэнь-тау; Роктешель, Тим; Ридель, Себастьян; Киела, Доуве (2020). «Генерация дополненной последовательности для задач обработки естественного языка с интенсивным использованием знаний». Достижения в области нейронных систем обработки информации . 33. Curran Associates, Inc.: 9459–9474. arXiv : 2005.11401 .
  47. ^ GraphRAG: Раскрытие возможностей открытия LLM в области повествовательных частных данных, 2024 г.
  48. ^ Эдж, Даррен; Трин, Ха; Ченг, Ньюман; Брэдли, Джошуа; Чао, Алекс; Моди, Апурва; Труитт, Стивен; Ларсон, Джонатан (2024), От локального к глобальному: подход графа RAG к реферированию, ориентированному на запросы , arXiv : 2404.16130
  49. ^ Секеда, Хуан; Аллеманг, Дин; Джейкоб, Брайон (2023), Тест для понимания роли графов знаний в точности большой языковой модели для ответов на вопросы в базах данных SQL Enterprise , arXiv : 2311.07509
  50. ^ Сингх, Чандан; Моррис, Джон; Анеджа, Джоти; Раш, Александр; Гао, Цзяньфэн (4 октября 2022 г.). «Объяснение закономерностей в данных с помощью языковых моделей посредством интерпретируемого автоподсказывания». arXiv : 2210.01848 [cs.LG].
  51. ^ Фернандо, Крисанта; Банарсе, Дилан; Михалевски, Хенрик; Осиндеро, Саймон; Роктешель, Тим (2023). «Promptbreeder: самореферентное самосовершенствование посредством быстрой эволюции». arXiv : 2309.16797 . {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  52. ^ Прайсант, Рид; Итер, Дэн; Ли, Джерри; Ли, Инь Тат; Чжу, Чэнгуан; Цзэн, Майкл (2023). «Автоматическая оптимизация подсказок с помощью «градиентного спуска» и поиска луча». arXiv : 2305.03495 . {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  53. ^ Го, Цинъянь; Ван, Руй; Го, Цзюньлян; Ли, Бэй; Сон, Кайтао; Тан, Сюй; Лю, Гоцин; Бянь, Цзян; Ян, Юджиу (2023). «Соединение больших языковых моделей с эволюционными алгоритмами дает мощные оперативные оптимизаторы». arXiv : 2309.08532 . {{cite journal}}: Цитировать журнал требует |journal=( помощь )
  54. ^ Чжоу, Юнчао; Иоан Муресану, Андрей; Хань, Цзывэнь; Пастер, Кейран; Питис, Сильвиу; Чан, Харрис; Ба, Джимми (2022-11-01). «Большие языковые модели — инженеры подсказок человеческого уровня». arXiv : 2211.01910 [cs.LG].
  55. ^ Чжан, Чжушэн; Чжан, Астон; Ли, Му; Смола, Алекс (2022-10-01). «Автоматическое побуждение цепочки мыслей в больших языковых моделях». arXiv : 2210.03493 [cs.CL].
  56. ^ Вэй, Джейсон; Тай, Йи; Боммасани, Риши; Раффель, Колин; Зоф, Баррет; Борго, Себастьян; Йогатама, Дани; Босма, Маартен; Чжоу, Денни; Мецлер, Дональд; Чи, Эд Х.; Хашимото, Тацунори; Виньялс, Ориол; Лян, Перси; Дин, Джефф; Федус, Уильям (31 августа 2022 г.). «Возникающие способности больших языковых моделей». arXiv : 2206.07682 [cs.CL]. При подсказке предварительно обученная языковая модель получает подсказку (например, инструкцию на естественном языке) задачи и завершает ответ без дальнейшего обучения или градиентных обновлений ее параметров... Способность выполнять задачу с помощью подсказки с несколькими попытками является возникающей, когда модель имеет случайную производительность до определенного масштаба, после чего производительность увеличивается до уровня, значительно превышающего случайную
  57. ^ Кабальеро, Итан; Гупта, Кшитидж; Риш, Ирина; Крюгер, Дэвид (2022). «Нарушенные законы нейронного масштабирования». Международная конференция по представлениям обучения (ICLR), 2023.
  58. ^ Вэй, Джейсон; Тай, Йи; Боммасани, Риши; Раффель, Колин; Зоф, Баррет; Боржо, Себастьян; Йогатама, Дэни; Босма, Мартен; Чжоу, Денни; Мецлер, Дональд; Чи, Эд Х.; Хасимото, Тацунори; Виньялс, Ориол; Лян, Перси; Дин, Джефф; Федус, Уильям (31 августа 2022 г.). «Новые возможности больших языковых моделей». arXiv : 2206.07682 [cs.CL].
  59. ^ Массер, Джордж. «Как ИИ знает то, о чем ему никто не рассказывал». Scientific American . Получено 17 мая 2023 г. К тому времени, как вы вводите запрос в ChatGPT, сеть должна быть исправлена; в отличие от людей, она не должна продолжать учиться. Поэтому стало неожиданностью, что LLM на самом деле обучаются на подсказках своих пользователей — эта способность известна как контекстное обучение.
  60. ^ Йоханнес фон Освальд; Никлассон, Эйвинд; Рандаццо, Этторе; Сакраменто, Жуан; Мордвинцев, Александр; Жмогинов, Андрей; Владимиров, Макс (2022). «Трансформеры обучаются в контексте градиентным спуском». arXiv : 2212.07677 [cs.LG]. Таким образом, мы показываем, как обученные трансформеры становятся меза-оптимизаторами, т.е. обучают модели градиентным спуском в своем прямом проходе.
  61. ^ "Mesa-Optimization". 31 мая 2019 г. Получено 17 мая 2023 г. Mesa -Optimization — это ситуация, которая возникает, когда обученная модель (например, нейронная сеть) сама является оптимизатором.
  62. ^ Гарг, Шивам; Ципрас, Димитрис; Лян, Перси; Валиант, Грегори (2022). «Чему могут научиться трансформеры в контексте? Пример простых классов функций». arXiv : 2208.01066 [cs.CL]. Обучение модели выполнению контекстного обучения можно рассматривать как пример более общей парадигмы обучения обучению или метаобучения
  63. ^ Монж, Джим Клайд (2022-08-25). "Dall-E2 VS Stable Diffusion: Same Prompt, Different Results". MLearning.ai . Получено 2022-08-31 .
  64. ^ abc "Prompts" . Получено 2023-08-14 .
  65. ^ "Stable Diffusion prompt: a definitive guide". 2023-05-14 . Получено 2023-08-14 .
  66. ^ Хейккиля, Мелисса (16.09.2022). «Этот художник доминирует в искусстве, созданном искусственным интеллектом, и он этим не доволен». MIT Technology Review . Получено 14.08.2023 .
  67. ^ Макс Вульф (2022-11-28). "Стабильная диффузия 2.0 и важность отрицательных подсказок для хороших результатов" . Получено 2023-08-14 .
  68. ^ Гал, Ринон; Алалуф, Ювал; Ацмон, Ювал; Паташник, Ор; Бермано, Амит Х.; Чечик, Гал; Коэн-Ор, Дэниел (2022). «Изображение стоит одного слова: персонализация генерации текста в изображение с помощью текстовой инверсии». arXiv : 2208.01618 [cs.CV]. Используя всего 3-5 изображений предоставленной пользователем концепции, такой как объект или стиль, мы учимся представлять ее с помощью новых «слов» в пространстве встраивания замороженной модели преобразования текста в изображение.
  69. ^ Кириллов, Александр; Минтун, Эрик; Рави, Никила; Мао, Ханзи; Роллан, Хлоя; Густафсон, Лаура; Сяо, Тете; Уайтхед, Спенсер; Берг, Александр К.; Ло, Ван-Йен; Доллар, Петр; Гиршик, Росс (01 апреля 2023 г.). «Сегментировать что угодно». arXiv : 2304.02643 [cs.CV].
  70. ^ Ли, Сян Лиза; Лян, Перси (2021). «Настройка префиксов: оптимизация непрерывных подсказок для генерации». Труды 59-го ежегодного собрания Ассоциации компьютерной лингвистики и 11-й Международной совместной конференции по обработке естественного языка (том 1: длинные статьи) . стр. 4582–4597. doi :10.18653/V1/2021.ACL-LONG.353. S2CID  230433941. В этой статье мы предлагаем настройку префиксов, легкую альтернативу тонкой настройке... Настройка префиксов черпает вдохновение из подсказок
  71. ^ Лестер, Брайан; Аль-Рфу, Рами; Констант, Ноа (2021). «Сила масштаба для эффективной настройки подсказок по параметрам». Труды конференции 2021 года по эмпирическим методам обработки естественного языка . стр. 3045–3059. arXiv : 2104.08691 . doi :10.18653/V1/2021.EMNLP-MAIN.243. S2CID  233296808. В этой работе мы исследуем «настройку подсказок», простой, но эффективный механизм обучения «мягким подсказкам»... В отличие от дискретных текстовых подсказок, используемых GPT-3, мягкие подсказки обучаются с помощью обратного распространения
  72. ^ Сан, Сименг; Лю, Ян; Итер, Дэн; Чжу, Чэнгуан; Айер, Мохит (2023). «Как контекстное обучение помогает ускорить настройку?». arXiv : 2302.11521 [cs.CL].
  73. ^ Шин, Тейлор; Разеги, Ясаман; Логан IV, Роберт Л.; Уоллес, Эрик; Сингх, Самир (ноябрь 2020 г.). «AutoPrompt: извлечение знаний из языковых моделей с помощью автоматически генерируемых подсказок». Труды конференции 2020 года по эмпирическим методам обработки естественного языка (EMNLP) . Онлайн: Ассоциация компьютерной лингвистики. стр. 4222–4235. doi : 10.18653/v1/2020.emnlp-main.346 . S2CID  226222232.
  74. ^ Уиллисон, Саймон (12 сентября 2022 г.). «Атаки с использованием быстрых инъекций против GPT-3». simonwillison.net . Получено 09.02.2023 .
  75. ^ Папп, Дональд (17.09.2022). «То, что старо, снова стало новым: атака с использованием быстрой инъекции GPT-3 влияет на ИИ». Hackaday . Получено 09.02.2023 .
  76. ^ Виглиароло, Брэндон (19 сентября 2022 г.). «Атака GPT-3 „быстрая инъекция“ вызывает плохие манеры у ботов». www.theregister.com . Получено 09.02.2023 .