В то время как большие языковые модели (в некоторых контекстах их называют «чат-ботами ИИ») могут быть очень полезны, машинно-генерируемый текст (во многом похожий на текст, генерируемый человеком) может содержать ошибки или недостатки или быть совершенно бесполезным.
В частности, просьба к LLM «написать статью для Википедии» иногда может привести к тому, что вывод станет откровенной фальсификацией , полной вымышленных ссылок . Он может быть предвзятым , может клеветать на живых людей или может нарушать авторские права . Таким образом, весь текст, созданный LLM, должен быть проверен редакторами перед использованием в статьях.
Редакторы, которые не полностью осознают эти риски и не способны преодолеть ограничения этих инструментов, не должны редактировать с их помощью. LLM не должны использоваться для задач, с которыми редактор не имеет существенного знакомства. Их результаты должны быть тщательно проверены на предмет соответствия всем применимым политикам. В любом случае редакторы должны избегать публикации в Википедии контента, полученного путем просьбы LLM написать оригинальный контент. Даже если такой контент был сильно отредактирован, предпочтительны альтернативы, которые не используют сгенерированный машиной контент. Как и в случае со всеми правками, редактор несет полную ответственность за свои правки с помощью LLM.
Википедия — не испытательный полигон . Использование LLM для написания комментариев на странице обсуждения или редактирования резюме непрозрачным способом настоятельно не рекомендуется. LLM, используемые для создания или изменения текста, должны быть упомянуты в резюме редактирования , даже если их условия обслуживания не требуют этого.
LLM — это программы завершения шаблонов: они генерируют текст, выводя слова, которые, скорее всего, будут следовать за предыдущими. Они изучают эти шаблоны из своих обучающих данных, которые включают в себя широкий спектр контента из Интернета и других источников, включая художественные произведения, сообщения на форумах с низкими усилиями, неструктурированный и низкокачественный контент, оптимизированный для SEO, и так далее. Из-за этого LLM иногда «делают выводы», которые, даже если они кажутся поверхностно знакомыми, отсутствуют ни в одном надежном источнике. Они также могут выполнять подсказки с абсурдными предпосылками, например «Далее приведена статья о пользе употребления в пищу измельченного стекла». Наконец, LLM могут придумывать вещи, что является статистически неизбежным побочным продуктом их дизайна, называемым « галлюцинацией ». Все это, с практической точки зрения, эквивалентно оригинальному исследованию .
Поскольку LLM часто выдают точные утверждения, и поскольку их результаты обычно звучат правдоподобно и даются с уверенностью, всякий раз, когда они предоставляют кажущийся полезным результат, у людей могут возникнуть трудности с обнаружением вышеуказанных проблем. Средний пользователь, который считает, что у него есть полезный инструмент, который, возможно, провел выборочную проверку на точность и «не увидел никаких проблем», склонен принять результат таким, какой он есть; но весьма вероятно, что проблемы есть. Даже если 90% контента приемлемы, а 10% ложны, это огромная проблема в энциклопедии. Результаты LLM ухудшаются, когда им задают сложные вопросы, о неясных темах или просят выполнять задачи, для которых они не подходят (например, задачи, требующие обширных знаний или анализа).
LLM не следуют политике Википедии по проверяемости и надежности источников . LLM иногда полностью исключают цитаты или ссылаются на источники, которые не соответствуют стандартам надежности Википедии (включая ссылку на Википедию как на источник ). В некоторых случаях они галлюцинируют цитатами несуществующих ссылок, выдумывая названия, авторов и URL-адреса.
Галлюцинированный контент LLM, помимо того, что является оригинальным исследованием, как объяснялось выше, также нарушает политику проверяемости, поскольку его невозможно проверить, поскольку он выдуман: нет никаких ссылок, которые можно было бы найти.
LLM могут создавать контент, который кажется нейтральным по тону, но не обязательно по существу . Эта проблема особенно сильна в отношении биографий ныне живущих людей .
LLM может генерировать материал, нарушающий авторские права . [a] Сгенерированный текст может включать дословные фрагменты из несвободного контента или быть производной работой . Кроме того, использование LLM для резюмирования защищенного авторским правом контента (например, новостных статей) может привести к чрезмерно близким парафразам .
Статус авторских прав LLM, обучавшихся на материалах, защищенных авторским правом, пока не полностью изучен. Их выходные данные могут быть несовместимы с лицензией CC BY-SA и лицензией GNU, используемой для текста, опубликованного в Википедии.
LLM являются вспомогательными инструментами и не могут заменить человеческое суждение. Необходимо тщательное суждение, чтобы определить, соответствуют ли такие инструменты заданной цели. Редакторы, использующие LLM, должны ознакомиться с присущими данному LLM ограничениями, а затем преодолеть эти ограничения, чтобы гарантировать, что их правки соответствуют соответствующим рекомендациям и политикам. С этой целью, прежде чем использовать LLM, редакторы должны получить существенный опыт выполнения той же или более сложной задачи без помощи LLM . [b]
Некоторые редакторы компетентны в самостоятельном редактировании, но постоянно вносят ненадлежащие правки с помощью LLM, несмотря на искренние усилия внести свой вклад. Предполагается, что такие редакторы некомпетентны в этом конкретном смысле. Они могут не знать о рисках и неотъемлемых ограничениях или знать, но не иметь возможности преодолеть их, чтобы обеспечить соответствие политике. В таком случае редактору может быть запрещено помогать себе с такими инструментами (т. е. ограничено только самостоятельным редактированием). Это особый тип ограниченного запрета. В качестве альтернативы или в дополнение они могут быть частично заблокированы от определенного пространства имен или пространств имен.
Каждое редактирование, включающее вывод LLM, должно быть отмечено как LLM-assisted путем указания имени и, если возможно, версии AI в сводке редактирования . Это относится ко всем пространствам имен .
Вставка необработанных выходных данных больших языковых моделей непосредственно в окно редактирования для создания новой статьи или добавления существенной новой прозы к существующим статьям обычно приводит к плохим результатам. LLM могут использоваться для копирования или расширения существующего текста и для генерации идей для новых или существующих статей. Каждое изменение в статье должно соответствовать всем применимым политикам и рекомендациям. Это означает, что редактор должен ознакомиться с ландшафтом источников для рассматриваемой темы, а затем тщательно оценить текст на предмет его нейтральности в целом и проверяемости в отношении цитируемых источников. Если цитаты генерируются как часть вывода, они должны убедиться, что соответствующие источники являются нефиктивными, надежными, релевантными и подходящими источниками, а также проверить целостность текста и источника .
При использовании LLM в качестве консультанта по написанию, т. е. при запросе планов, как улучшить абзацы, критике текста и т. д., редакторы должны помнить, что предоставляемая им информация ненадежна. При использовании LLM для редактирования, реферирования и перефразирования редакторы должны помнить, что он может не обнаружить грамматические ошибки, не интерпретировать синтаксические двусмысленности или не сохранить ключевую информацию нетронутой. Можно попросить LLM исправить недостатки в его собственном выводе, такие как отсутствие информации в резюме или неэнциклопедический, например, рекламный, тон, и хотя эти попытки могут быть полезными, на них не следует полагаться вместо ручных исправлений. Возможно, вывод придется сильно отредактировать или выбросить. При выборе того, следует ли включать предложения и изменения, требуются должные усилия и здравый смысл.
Необработанные результаты LLM также не следует добавлять напрямую в черновики . Черновики — это работа в процессе, и их первоначальные версии часто не соответствуют стандарту, требуемому для статей, но предоставление редакторам возможности разрабатывать содержание статьи, начиная с неизмененной первоначальной версии, выведенной LLM, не является одной из целей пространства черновиков или пользовательского пространства .
Википедия полагается на усилия добровольцев по проверке нового контента на предмет соответствия нашим основным политикам в отношении контента . Это часто занимает много времени. Неформальный общественный договор в Википедии заключается в том, что редакторы будут вкладывать значительные усилия в свой вклад, чтобы другим редакторам не приходилось «убирать за ними». Редакторы должны гарантировать, что их правки с помощью LLM приносят чистый положительный эффект для энциклопедии и не увеличивают нагрузку на других добровольцев по обслуживанию.
LLM не следует использовать для несанкционированного редактирования в стиле бота ( WP:MEATBOT ) или чего-либо, даже приближающегося к редактированию в стиле бота. Использование LLM для содействия высокоскоростному редактированию в пространстве статьи имеет высокую вероятность несоответствия стандартам ответственного использования из-за сложности тщательной проверки контента на предмет соответствия всем применимым политикам.
Wikipedia не является испытательным полигоном для разработки LLM, например, путем проведения экспериментов или испытаний в Wikipedia исключительно для этой цели. Изменения в Wikipedia вносятся для продвижения энциклопедии, а не технологии. Это не означает, что редакторам запрещается ответственно экспериментировать с LLM в своем пользовательском пространстве с целью улучшения Wikipedia.
Редакторы не должны использовать LLM для написания комментариев. Коммуникация лежит в основе процесса принятия решений в Википедии , и предполагается, что редакторы, вносящие вклад в англоязычную Википедию, обладают способностью эффективно общаться . Для общения важно иметь собственные мысли и находить аутентичный способ их выражения. Использование машинно-генерируемого текста не соответствует этому требованию, поскольку он не является суррогатом для приложения личных усилий и конструктивного взаимодействия.
Повторное неправомерное использование степеней LLM формирует модель деструктивного редактирования и может привести к блокировке или запрету .
Работы, созданные LLM, не являются § Надежными источниками . Если их результаты не были опубликованы надежными источниками со строгим контролем и можно проверить, что содержание было оценено на точность издателем, их не следует цитировать.
Редактор, который идентифицирует контент, созданный LLM, который не соответствует нашим основным политикам в отношении контента , и решает не удалять его сразу (что обычно нормально), должен либо отредактировать его, чтобы он соответствовал, либо предупредить других редакторов о проблеме. Первое, что нужно проверить, — это то, что упомянутые работы действительно существуют. Затем все фактические утверждения необходимо проверить по предоставленным источникам. Необходимо установить наличие целостности текстового источника. Все, что оказывается не соответствующим политике, должно быть удалено.
Чтобы предупредить других редакторов, редактор, который отвечает на проблему, должен поместить в начало затронутой статьи или черновика (только если этот редактор не чувствует себя способным быстро решить проблему самостоятельно). В биографиях ныне живущих людей несоответствующий политике контент, созданный LLM, следует немедленно удалить — не дожидаясь обсуждения или решения помеченной проблемы кем-то другим.{{AI-generated|date=November 2024}}
Если удаление, описанное выше, приведет к удалению всего содержимого статьи или черновика, то он становится кандидатом на удаление. [c] Если вся страница представляется фактически неверной или основана на сфабрикованных источниках, может быть целесообразным быстрое удаление в соответствии с WP:G3 (Чистый вандализм и явные мистификации).
Следующие шаблоны можно использовать для предупреждения редакторов на их страницах обсуждения: