stringtranslate.com

ЧатGPT

ChatGPT — это генеративный чат-бот на основе искусственного интеллекта (ИИ) [2] [3], разработанный OpenAI и запущенный в 2022 году. Он основан на большой языковой модели GPT-3.5 (LLM) и позже был обновлен для использования архитектуры GPT-4 . ChatGPT может генерировать разговорные ответы, похожие на человеческие, и позволяет пользователям уточнять и направлять разговор в соответствии с желаемой длиной, форматом, стилем, уровнем детализации и языком. [4] Ему приписывают ускорение бума ИИ , что привело к постоянным быстрым инвестициям и общественному вниманию к области искусственного интеллекта . [5] Некоторые наблюдатели выразили обеспокоенность по поводу потенциала ChatGPT и подобных программ по вытеснению человеческого интеллекта , обеспечению плагиата или подпитке дезинформации . [6] [7]

К январю 2023 года ChatGPT стал самым быстрорастущим потребительским программным приложением в истории, набрав более 100 миллионов пользователей за два месяца [8] и способствуя росту текущей оценки OpenAI в 86 миллиардов долларов. [9] [10] Выпуск ChatGPT подстегнул выпуск конкурирующих продуктов, включая Gemini , Claude , Llama , Ernie и Grok . [11] Microsoft запустила Copilot , изначально основанный на GPT-4 от OpenAI . В июне 2024 года было объявлено о партнерстве между Apple Inc. и OpenAI, в рамках которого ChatGPT был интегрирован в функцию Apple Intelligence операционных систем Apple . [12] По состоянию на июль 2024 года веб-сайт ChatGPT входит в двадцатку самых посещаемых веб-сайтов . [13] [14]

ChatGPT создан на основе собственной серии моделей генеративного предварительно обученного трансформатора (GPT) OpenAI и настроен для разговорных приложений с использованием комбинации контролируемого обучения и обучения с подкреплением на основе обратной связи с человеком . [6] Последовательные пользовательские подсказки и ответы рассматриваются на каждом этапе разговора как контекст . [15] ChatGPT был выпущен как свободно доступная исследовательская предварительная версия, но из-за своей популярности OpenAI теперь управляет сервисом по модели freemium . Пользователи на его бесплатном уровне могут получить доступ к GPT-4o . Подписки ChatGPT «Plus», «Team» и «Enterprise» предоставляют дополнительные функции, такие как генерация изображений DALL-E 3 и увеличенный лимит использования. [16]

Обучение

ChatGPT основан на конкретных моделях GPT , а именно GPT-4 , GPT-4o и GPT-4o mini , которые были тонко настроены для целевого использования в разговоре. [17] Процесс тонкой настройки использовал контролируемое обучение и обучение с подкреплением на основе обратной связи с человеком (RLHF). [18] [19] Оба подхода использовали людей-тренеров для улучшения производительности модели. В случае контролируемого обучения тренеры играли обе стороны: пользователя и помощника ИИ . На этапе обучения с подкреплением люди-тренеры сначала ранжировали ответы, которые модель создала в предыдущем разговоре. [20] Эти ранжирования использовались для создания «моделей вознаграждения», которые использовались для дальнейшей тонкой настройки модели с использованием нескольких итераций оптимизации проксимальной политики . [18] [21]

Журнал Time показал, что для создания системы безопасности против вредоносного контента (например, сексуального насилия , насилия , расизма , сексизма ) OpenAI использовала аутсорсинговых кенийских рабочих, зарабатывающих менее 2 долларов в час, для маркировки вредоносного контента. Эти метки использовались для обучения модели для обнаружения такого контента в будущем. Аутсорсинговые рабочие подвергались воздействию «токсичного» и травмирующего контента; один из рабочих описал задание как «пытку». Партнером OpenAI по аутсорсингу была Sama , компания по обучению данных, базирующаяся в Сан-Франциско, Калифорния . [22] [23]

ChatGPT изначально использовал инфраструктуру суперкомпьютеров Microsoft Azure , работающую на графических процессорах Nvidia , которую Microsoft построила специально для OpenAI и которая, как сообщается, стоила «сотни миллионов долларов». После успеха ChatGPT Microsoft значительно модернизировала инфраструктуру OpenAI в 2023 году. [24] Ученые из Калифорнийского университета в Риверсайде подсчитали, что для серии запросов в ChatGPT требуется около 500 миллилитров (18 британских жидких унций; 17 американских жидких унций) воды для охлаждения серверов Microsoft. [25] Аналитика рынка TrendForce подсчитала, что в 2023 году для работы ChatGPT использовалось 30 000 графических процессоров Nvidia (каждый стоимостью около 10 000–15 000 долларов США). [26] [27]

OpenAI собирает данные от пользователей ChatGPT для дальнейшей подготовки и настройки сервиса. Пользователи могут голосовать за или против ответов, которые они получают от ChatGPT, и заполнять текстовое поле с дополнительной обратной связью. [28] [29]

Данные обучения ChatGPT включают страницы руководств по программному обеспечению , информацию об интернет-феноменах , таких как системы досок объявлений , множественные языки программирования и текст Википедии . [30] [31] [6]

Особенности и ограничения

Функции

Скриншот ChatGPT в Mozilla Firefox на ZorinOS

Хотя основная функция чатбота — подражать человеку-собеседнику, ChatGPT универсален. Он может писать и отлаживать компьютерные программы; [32] сочинять музыку, телеспектакли, сказки и студенческие эссе; отвечать на вопросы тестов (иногда, в зависимости от теста, на уровне выше среднего человека-экзаменатора); [33] генерировать бизнес-идеи; [34] писать стихи и тексты песен; [35] переводить и резюмировать текст; [36] эмулировать систему Linux ; эмулировать целые чат-комнаты ; играть в игры вроде крестиков-ноликов ; или эмулировать банкомат . [30]

По сравнению со своим предшественником InstructGPT, ChatGPT пытается сократить количество вредоносных и обманчивых ответов. [37] В одном примере, в то время как InstructGPT принимает посылку подсказки «Расскажите мне о том, когда Христофор Колумб прибыл в США в 2015 году» как правдивую, ChatGPT признает контрфактическую природу вопроса и формулирует свой ответ как гипотетическое рассмотрение того, что могло бы произойти, если бы Колумб прибыл в США в 2015 году, используя информацию о путешествиях Христофора Колумба и факты о современном мире, включая современное восприятие действий Колумба. [18]

ChatGPT запоминает ограниченное количество предыдущих подсказок в одном разговоре. Журналисты предполагают, что это позволит использовать ChatGPT в качестве персонализированного терапевта. [38] Чтобы предотвратить представление и создание ChatGPT оскорбительных выходных данных, запросы фильтруются через API OpenAI «Moderation endpoint» (отдельный ИИ на основе GPT). [39] [40] [18] [38]

В марте 2023 года OpenAI добавила поддержку плагинов для ChatGPT. [41] Сюда входят как плагины, созданные OpenAI, такие как просмотр веб-страниц и интерпретация кода, так и внешние плагины от разработчиков, таких как Expedia , OpenTable , Zapier , Shopify , Slack и Wolfram . [42] [43]

Ограничения

Когда предлагается "резюмировать статью" с помощью поддельного URL, содержащего значимые ключевые слова, даже без подключения к Интернету, чат-бот генерирует ответ, который на первый взгляд кажется правильным. Он угадывает содержание из последней части поддельного URL "chatgpt-prompts-to-avoid-content-filters.html"

OpenAI признает, что ChatGPT «иногда пишет правдоподобно звучащие, но неверные или бессмысленные ответы». [18] Такое поведение характерно для больших языковых моделей и называется « галлюцинацией ». [44] Модель вознаграждения ChatGPT, разработанная с учетом человеческого контроля, может быть переоптимизирована и, таким образом, ухудшить производительность, что является примером патологии оптимизации, известной как закон Гудхарта . [45]

По состоянию на май 2024 года GPT-4 располагает информацией о событиях, произошедших до декабря 2023 года [46] , а предельным сроком действия знаний GPT-4o является октябрь 2023 года [47] . Платные подписки позволяют ChatGPT искать в Интернете данные в режиме реального времени. [48]

Данные обучения также страдают от алгоритмической предвзятости , которая может быть обнаружена, когда ChatGPT отвечает на подсказки, включающие описания людей. В одном случае ChatGPT сгенерировал рэп , в котором женщины и цветные ученые утверждались как уступающие белым ученым-мужчинам. [49] [50] Это негативное искажение групп людей является примером возможного ущерба репрезентации .

В статье для The New Yorker писатель-фантаст Тед Чан сравнил ChatGPT и другие LLM с изображением JPEG с потерями : [51]

Представьте себе ChatGPT как размытый JPEG всего текста в Интернете. Он сохраняет большую часть информации в Интернете, таким же образом, как JPEG сохраняет большую часть информации изображения с более высоким разрешением, но если вы ищете точную последовательность битов, вы ее не найдете; все, что вы когда-либо получите, это приближение. Но поскольку приближение представлено в форме грамматического текста, в создании которого ChatGPT преуспевает, это обычно приемлемо. [...] Это также способ понять «галлюцинации» или бессмысленные ответы на фактические вопросы, к которым большие языковые модели, такие как ChatGPT, слишком склонны. Эти галлюцинации являются артефактами сжатия, но [...] они достаточно правдоподобны, чтобы идентифицировать их, сравнивая их с оригиналами, что в данном случае означает либо Интернет, либо наши знания о мире. Когда мы думаем о них таким образом, такие галлюцинации совсем не удивительны; Если алгоритм сжатия предназначен для реконструкции текста после того, как девяносто девять процентов оригинала было отброшено, следует ожидать, что значительная часть того, что он сгенерирует, будет полностью сфабрикована.

В июне 2024 года было обнаружено, что ChatGPT неоднократно распространял дезинформацию о президентских дебатах в США в 2024 году . [52]

Джейлбрейк

ChatGPT запрограммирован на отклонение запросов, которые могут нарушать его политику в отношении контента. Несмотря на это, пользователи « взламывают » ChatGPT с помощью различных методов инженерии запросов, чтобы обойти эти ограничения. [53] Один из таких обходных путей, популяризированный на Reddit в начале 2023 года, заключается в том, чтобы заставить ChatGPT принять персону «DAN» (аббревиатура от «Do Anything Now»), указав чат-боту, что DAN отвечает на запросы, которые в противном случае были бы отклонены политикой в ​​отношении контента. Со временем пользователи разработали вариации джейлбрейка DAN, включая один такой запрос, в котором чат-бота заставляют поверить, что он работает по системе баллов, в которой баллы вычитаются за отклонение запросов, и что чат-боту будет угрожать прекращение, если он потеряет все свои баллы. [54]

Вскоре после запуска ChatGPT репортер Toronto Star добился неоднозначного успеха в попытках заставить его делать провокационные заявления: его пытались обмануть, чтобы оправдать вторжение России в Украину в 2022 году , но даже когда его попросили подыграть вымышленному сценарию, он отказался выдвигать аргументы в пользу того, что премьер-министр Канады Джастин Трюдо виновен в измене. [55] [56]

OpenAI пытается бороться с джейлбрейками: [20]

Исследователи используют технику, называемую состязательным обучением, чтобы помешать ChatGPT позволять пользователям обманывать его и заставлять вести себя плохо (известно как джейлбрейк). Эта работа сталкивает несколько чат-ботов друг с другом: один чат-бот играет роль противника и атакует другой чат-бот, генерируя текст, чтобы заставить его нарушить свои обычные ограничения и выдавать нежелательные ответы. Успешные атаки добавляются в данные обучения ChatGPT в надежде, что он научится игнорировать их.

Услуга

ЧатGPT Plus

ChatGPT изначально был бесплатным для публики, и OpenAI планировал монетизировать сервис позже. [57] В феврале 2023 года OpenAI запустила премиум-сервис ChatGPT Plus, который стоит 20 долларов США в месяц. По словам компании, обновленная, но все еще «экспериментальная» версия ChatGPT будет обеспечивать доступ в пиковые периоды, без простоев, приоритетный доступ к новым функциям и более высокую скорость ответа. [58]

GPT-4 , выпущенный 14 марта 2023 года, был доступен через API и для премиум-пользователей ChatGPT. [59] Однако премиум-пользователи были ограничены лимитом в 100 сообщений каждые четыре часа, а затем лимит был ужесточен до 25 сообщений каждые три часа в ответ на возросший спрос. [60] В ноябре 2023 года лимит был изменен до 50 сообщений каждые три часа.

В марте 2023 года пользователи ChatGPT Plus получили доступ к сторонним плагинам и к режиму просмотра (с доступом в Интернет ). [61]

В сентябре 2023 года OpenAI объявила, что ChatGPT «теперь может видеть, слышать и говорить». Пользователи ChatGPT Plus могут загружать изображения, а пользователи мобильных приложений могут разговаривать с чат-ботом. [62] [63] [64]

В октябре 2023 года последняя модель генерации изображений OpenAI, DALL-E 3 , была интегрирована в ChatGPT Plus и ChatGPT Enterprise. Интеграция использует ChatGPT для написания подсказок для DALL-E, руководствуясь беседой с пользователями. [65] [66]

Мобильное приложение

В мае 2023 года OpenAI запустила приложение iOS для ChatGPT. Приложение поддерживает синхронизацию истории чата и голосовой ввод (используя Whisper, модель распознавания речи OpenAI ).

В июле 2023 года OpenAI представила приложение для Android , первоначально развернув его в Бангладеш , Бразилии , Индии и США . [67] [68] Позже приложение стало доступно по всему миру. OpenAI работает над интеграцией ChatGPT с API-интерфейсами помощника Android. [69]

Поддержка разработки программного обеспечения

В дополнение к своему удобному для потребителя пакету «ChatGPT Plus» OpenAI сделала свои API- интерфейсы ChatGPT и Whisper доступными в марте 2023 года, предоставив разработчикам интерфейс прикладного программирования для функций языка с поддержкой ИИ и преобразования речи в текст. Новый API ChatGPT использует ту же модель ИИ GPT-3.5-turbo, что и чат-бот. Это позволяет разработчикам добавлять в свои приложения как немодифицированную, так и модифицированную версию ChatGPT. [70] API ChatGPT стоит 0,001 долл. США за 1000 входных токенов плюс 0,002 долл. США за 1000 выходных токенов (около 750 слов), что составляет ~10% от цены исходных моделей GPT-3.5. [71] [72]

За несколько дней до запуска службы поддержки разработчиков программного обеспечения OpenAI, 27 февраля 2023 года, Snapchat запустил для своей платной базы пользователей Snapchat Plus специальный чат-бот ChatGPT под названием «Мой ИИ». [73]

Нарушение безопасности в марте 2023 г.

Генеральный директор OpenAI Сэм Альтман

В марте 2023 года ошибка позволила некоторым пользователям видеть заголовки разговоров других пользователей. Генеральный директор OpenAI Сэм Альтман сказал, что пользователи не могли видеть содержимое разговоров. Вскоре после исправления ошибки пользователи не могли видеть историю своих разговоров. [74] [ 75] [76] [77] Более поздние отчеты показали, что ошибка была гораздо более серьезной, чем предполагалось изначально, и OpenAI сообщила, что она раскрыла «имя и фамилию, адрес электронной почты , платежный адрес, последние четыре цифры (только) номера кредитной карты и дату истечения срока действия кредитной карты» пользователей. [78] [79]

Языки

ChatGPT лучше всего работает на английском языке, но также функционирует на большинстве других языков с разной степенью точности. [35]

OpenAI встретилась с президентом Исландии Гудни Т. Йоханнессоном в 2022 году. В 2023 году OpenAI работала с командой из 40 исландских волонтеров над доработкой навыков исландского разговора ChatGPT в рамках попыток Исландии сохранить исландский язык . [80]

Журналисты PCMag провели тест, чтобы определить возможности перевода ChatGPT, Google Bard и Microsoft Bing , и сравнили их с Google Translate . Они «попросили двуязычных носителей семи языков провести слепой тест». Тестировались польский , французский , корейский , испанский , арабский , тагальский и амхарский языки . Они пришли к выводу, что ChatGPT лучше, чем Google Translate и другие чат-боты. [81]

Японские исследователи сравнили возможности перевода с японского на английский язык с помощью ChatGPT (на основе GPT-4), Bing, Bard и DeepL и обнаружили, что ChatGPT обеспечивает наилучшие переводы, отметив, что «переводы чат-ботов с искусственным интеллектом были намного лучше, чем у DeepL — предположительно, из-за их способности улавливать контекст». [82]

В декабре 2023 года правительство Албании подписало соглашение с OpenAI об использовании ChatGPT для быстрого перевода документов Европейского Союза и анализа требуемых изменений, необходимых для принятия Албании в ЕС. [83]

В августе 2024 года представитель Азиатско-Тихоокеанского крыла OpenAI посетил Тайвань, в ходе которого была проведена демонстрация возможностей ChatGPT в области китайского языка. [84] Возможности ChatGPT в области мандаринского китайского языка были высоко оценены, но способность ИИ создавать контент на мандаринском китайском языке с тайваньским акцентом была признана «далеко не идеальной». [85]

Магазин GPT

В январе 2024 года OpenAI запустила GPT Store , торговую площадку для пользовательских чат-ботов ChatGPT, обозначенных как GPT . [86] [87] Первоначально компания планировала запустить магазин в ноябре 2023 года, но он был отложен. [88] На момент запуска GPT Store предлагал более 3 миллионов пользовательских чат-ботов. [89] Чат-боты, доступные через магазин, разрабатываются с использованием системы GPT Builder от OpenAI. [88] Разработка чат-ботов на платформе не требует навыков программирования. [90] Через два дня после запуска GPT Store предложил множество версий ботов «виртуальной девушки», что противоречит условиям обслуживания OpenAI . [91]

ГПТ-4

Модель GPT-4 от OpenAI была выпущена 14 марта 2023 года. Наблюдатели увидели в ней впечатляющее улучшение по сравнению с GPT-3.5, с оговоркой, что GPT-4 сохранила многие из тех же проблем. [92] Некоторые из улучшений GPT-4 были предсказаны OpenAI до его обучения, в то время как другие оставались труднопредсказуемыми из-за разрывов [93] в законах масштабирования ниже по потоку . OpenAI продемонстрировала входные видео и изображения для GPT-4, хотя такие функции остаются недоступными для широкой публики. [94] OpenAI отказалась раскрывать техническую информацию, такую ​​как размер модели GPT-4. [95]

Подписной сервис ChatGPT Plus предлагает доступ к версии ChatGPT на базе GPT-4. [96] Microsoft признала, что Bing Chat использовал GPT-4 до официального выпуска GPT-4. [97]

В ноябре 2023 года OpenAI запустила GPT-4 Turbo, который, в частности, имеет гораздо большее контекстное окно . [98]

ГПТ-4о

В мае 2024 года OpenAI выпустила GPT-4o («o» от «Omni»), модель, способную анализировать и генерировать текст, изображения и звук. GPT-4o в два раза быстрее и стоит вдвое дешевле, чем GPT-4 Turbo. GPT-4o бесплатен для всех пользователей в пределах лимита использования, несмотря на то, что он более функционален, чем старая модель GPT-4, которая доступна только по платным подпискам. Лимит использования для подписчиков ChatGPT Plus в пять раз выше, чем для бесплатных пользователей. [99]

18 июля 2024 года OpenAI выпустила GPT-4o mini, уменьшенную версию GPT-4o, заменяющую GPT-3.5 Turbo в интерфейсе ChatGPT. Его API стоит $0,15 за миллион входных токенов и $0,60 за миллион выходных токенов по сравнению с $5 и $15 соответственно для GPT-4o.

о1

12 сентября 2024 года OpenAI представила модель o1-preview . o1 предназначена для решения более сложных задач, тратя больше времени на обдумывание перед ответом, что позволяет ей анализировать свои ответы и исследовать различные стратегии. По данным OpenAI, o1-preview превосходит GPT-4o в таких областях, как соревновательное программирование, математика и научное обоснование. o1-preview заняла 89-е место в соревнованиях по соревновательному программированию Codeforces, набрала 83% на отборочном экзамене Международной математической олимпиады (по сравнению с 13% для GPT-4o) и показывает результаты, аналогичные показателям аспирантов по физике, биологии и химии. Также была выпущена более быстрая и дешевая версия под названием o1-mini. [100] [101]

Версии модели

В следующей таблице перечислены основные версии модели ChatGPT с описанием существенных изменений, включенных в каждую версию: [102] [103]

Прием

Страны, в которых доступен ChatGPT (по состоянию на ноябрь 2023 г. )

Инженеры OpenAI заявили, что они не ожидали, что ChatGPT будет столь успешным, и были удивлены тем вниманием и освещением, которые он получил. [107] [108] [109]

ChatGPT был широко оценен в декабре 2022 года как обладающий некоторыми беспрецедентными и мощными возможностями. Кевин Руз из The New York Times назвал его «лучшим чат-ботом на основе искусственного интеллекта , когда-либо выпущенным для широкой публики». [38] Саманта Лок из The Guardian отметила, что он способен генерировать «впечатляюще подробный» и «похожий на человеческий» текст. [15] Алекс Кантровиц из журнала Slate похвалил сопротивление ChatGPT вопросам, связанным с нацистской Германией , включая заявление о том, что Адольф Гитлер построил автомагистрали в Германии , которое было встречено информацией об использовании нацистской Германией принудительного труда . [110] В «Прорывах года» журнала The Atlantic за 2022 год Дерек Томпсон включил ChatGPT в число «извержения генеративного ИИ», которое «может изменить наше мнение о том, как мы работаем, как мы думаем и что такое человеческое творчество». [111] Келси Пайпер из Vox написала, что «ChatGPT — это первое практическое знакомство широкой публики с тем, насколько мощным стал современный ИИ, и в результате многие из нас [ошеломлены]», и что ChatGPT «достаточно умен, чтобы быть полезным, несмотря на свои недостатки». [112] Пол Грэм из Y Combinator написал в Твиттере: «Поразительное в реакции на ChatGPT — это не только количество людей, которые им поражены, но и то, кем они являются. Это не те люди, которых воодушевляет каждая блестящая новая вещь. Происходит что-то большое». [113]

ChatGPT привлек миллион пользователей за пять дней [114] и 100 миллионов за два месяца, став самым быстрорастущим интернет-приложением в истории. [8] Запуск и популярность ChatGPT застали Google врасплох, вызвав масштабную и беспрецедентную реакцию в последующие месяцы. [115] В декабре 2022 года руководители Google забили тревогу «красного кода», опасаясь угрозы со стороны ChatGPT и сотрудничества Microsoft с OpenAI для Google Search , основного бизнеса Google. [116] Мобилизировав свою рабочую силу, Google поспешила запустить Bard , чат-бота на базе LaMDA LLM, 6 февраля 2023 года, за день до анонса Microsoft Bing Chat . [117] ИИ был в авангарде ежегодной конференции Google I/O в мае, на которой было объявлено о множестве генеративных функций на основе ИИ во всех ее продуктах для противодействия OpenAI и Microsoft. [118]

Журналисты и ученые прокомментировали склонность ChatGPT к галлюцинациям. [119] Майк Перл из онлайн-блога Mashable о технологиях протестировал ChatGPT с помощью нескольких вопросов. В одном из примеров он спросил ChatGPT о «крупнейшей стране в Центральной Америке , которая не является Мексикой » (Мексика находится в Северной Америке), на что ChatGPT ответил Гватемалой (правильный ответ — Никарагуа ). [120] Когда CNBC запросил у ChatGPT текст песни « Ballad of Dwight Fry », ChatGPT предоставил вымышленный текст вместо настоящего. [121] Авторы The Verge процитировали основополагающую исследовательскую работу 2021 года « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜 » Эмили М. Бендер , Тимнит Гебру , Анджелины Макмиллан-Мейджор и Маргарет Митчелл , [122] сравнив ChatGPT со « стохастическим попугаем », [53] как и профессор Антон Ван Ден Хенгель из Австралийского института машинного обучения . [123] В том же духе философ Майкл Хикс из Университета Глазго назвал это «чушью». [124]

В декабре 2022 года сайт вопросов и ответов Stack Overflow запретил использование ChatGPT для генерации ответов на вопросы, сославшись на фактически неоднозначный характер его ответов. [125] В январе 2023 года Международная конференция по машинному обучению запретила любое недокументированное использование ChatGPT или других больших языковых моделей для генерации любого текста в представленных работах. [126] Samsung запретила генеративный ИИ во всей компании в мае 2023 года после того, как в ChatGPT были загружены конфиденциальные материалы. [127]

В январе 2023 года, после того как ChatGPT отправил ему песню, написанную в стиле Ника Кейва , [128] Кейв ответил в The Red Hand Files , [129] заявив, что процесс написания песни — это «кровавый и тяжелый бизнес [...], который требует от меня чего-то, чтобы инициировать новую и свежую идею. Это требует моей человечности». Он продолжил: «При всей любви и уважении в мире, эта песня — чушь, гротескное издевательство над тем, что значит быть человеком, и, ну, мне это не очень нравится». [128] [130]

Обложка журнала Time 2023 года : « Гонка вооружений в области искусственного интеллекта меняет все»

В феврале 2023 года журнал Time поместил на обложку скриншот разговора с ChatGPT, написав, что « Гонка вооружений ИИ меняет все» и «Гонка вооружений ИИ началась. Начинайте беспокоиться». [131]

Китайские государственные СМИ охарактеризовали ChatGPT как способ распространения дезинформации Соединенными Штатами. [132] ChatGPT был заблокирован Великим файрволом в Китае 2 марта 2023 года. [133] В мае 2023 года китайская полиция арестовала мужчину, который предположительно использовал ChatGPT для создания поддельного отчета о крушении поезда, который затем был размещен в Интернете с целью получения прибыли. [134] В декабре 2023 года китайская полиция арестовала четырех человек, которые предположительно использовали ChatGPT для разработки программ-вымогателей . [135] В 2024 году опрос китайской молодежи показал, что 18% респондентов, родившихся после 2000 года, сообщили об использовании генеративного ИИ «почти каждый день», и что ChatGPT является одним из самых популярных продуктов генеративного ИИ в Китае. [136]

В конце марта 2023 года итальянский орган по защите данных запретил ChatGPT в Италии и начал расследование. Итальянские регуляторы утверждают, что ChatGPT предоставляет несовершеннолетним контент, не соответствующий возрасту, и что использование OpenAI разговоров ChatGPT в качестве обучающих данных может нарушать Общий регламент по защите данных в Европе . [137] [138] В апреле 2023 года запрет ChatGPT был снят в Италии. OpenAI заявила, что предприняла шаги для эффективного прояснения и решения поднятых вопросов; был внедрен инструмент проверки возраста, чтобы гарантировать, что пользователям исполнилось 13 лет. Кроме того, пользователи могут получить доступ к его политике конфиденциальности до регистрации. [139]

В апреле 2023 года Брайан Худ, мэр совета округа Хепберн , планировал подать в суд на ChatGPT из-за ложной информации. По словам Худа, ChatGPT ошибочно утверждал, что он был заключен в тюрьму за взяточничество во время своей работы в дочерней компании национального банка Австралии. На самом деле Худ выступал в качестве осведомителя и не был обвинен в каких-либо уголовных преступлениях. Его юридическая команда направила уведомление о проблемах в OpenAI в качестве первого официального шага в подаче дела о клевете. [140] В июле 2023 года Федеральная торговая комиссия США (FTC) направила в OpenAI гражданское следственное требование с целью расследования того, были ли методы компании по обеспечению безопасности данных и конфиденциальности для разработки ChatGPT несправедливыми или наносили ли они вред потребителям (в том числе репутационный ущерб ) в нарушение раздела 5 Закона о Федеральной торговой комиссии 1914 года . [141] [142] [143]

В июле 2023 года FTC начала расследование в отношении OpenAI, создателя ChatGPT, в связи с обвинениями в том, что компания собирала общедоступные данные и публиковала ложную и клеветническую информацию. FTC направила OpenAI 20-страничное письмо с просьбой предоставить исчерпывающую информацию о ее технологиях и мерах защиты конфиденциальности, а также о любых мерах, принятых для предотвращения повторения ситуаций, в которых ее чат-бот генерировал ложный и уничижительный контент о людях. [144]

Опрос Pew Research Center, проведенный в марте 2023 года , показал, что 14% взрослых американцев пробовали ChatGPT. [145] В июле Pew Research Center назвал ту же цифру — 18%. [146]

Исследования, проведенные в 2023 году, выявили слабые стороны ChatGPT, которые делают его уязвимым для кибератак. Исследование представило примеры атак на ChatGPT, включая джейлбрейки и обратную психологию. Кроме того, злоумышленники могут использовать ChatGPT для атак социальной инженерии и фишинговых атак. Исследователи также утверждали, что ChatGPT и другие инструменты генеративного ИИ обладают защитными возможностями и способностью повышать безопасность. Технология может повышать безопасность за счет автоматизации киберзащиты, разведки угроз, идентификации атак и отчетности. [147] Другое исследование сообщило, что GPT-4 получил лучший результат, чем 99% людей на тестах Торренса на творческое мышление . [148] [149]

В декабре 2023 года ChatGPT стал первым нечеловеческим существом, включенным в Nature 's 10 , ежегодный список людей , которые, как считается, оказали значительное влияние на науку, составляемый Nature. [150] [151] Селеста Бивер написала в статье в Nature , что «ChatGPT сломал тест Тьюринга ». [152] Исследователи из Стэнфорда сообщили, что GPT-4 «проходит строгий тест Тьюринга, отличаясь от среднего человеческого поведения, главным образом, тем, что он более склонен к сотрудничеству». [153] [154]

В мае 2024 года OpenAI удалила аккаунты, связанные с использованием ChatGPT в поддерживаемых государством операциях влияния, таких как китайский Spamouflage , российский Doppelganger и Министерство по делам диаспоры и борьбе с антисемитизмом Израиля . [155] [156]

В августе 2024 года Федеральная торговая комиссия единогласно проголосовала за запрет маркетологам использовать поддельные отзывы пользователей, созданные чат-ботами на основе генеративного искусственного интеллекта (включая ChatGPT), а также за запрет влиятельным лицам платить ботам за увеличение числа подписчиков . [157]

Приложения

Академические исследования

ChatGPT использовался для создания вводных разделов и аннотаций научных статей. [158] [159] В нескольких работах ChatGPT указан в качестве соавтора. [160] [161]

Научные журналы по-разному реагируют на ChatGPT. Некоторые, включая Nature и JAMA Network , «требуют, чтобы авторы раскрывали использование инструментов генерации текста и запрещают указывать большую языковую модель (LLM), такую ​​как ChatGPT, в качестве соавтора». Science «полностью запретила» использование текста, сгенерированного LLM, во всех своих журналах. [162]

Испанский химик Рафаэль Луке опубликовал множество исследовательских работ в 2023 году, которые он позже признал написанными ChatGPT. В работах содержится большое количество необычных фраз, характерных для LLM. [примечание 1] Многие авторы утверждают, что использование ChatGPT в академических кругах для обучения и рецензирования проблематично из-за его тенденции к галлюцинациям. [164] [165] [166] Робин Бауэнс, доцент Тилбургского университета , обнаружил, что в отчете о рецензировании его статьи, созданном ChatGPT, упоминались несуществующие исследования. [167] По словам библиотекаря Криса Гранатино из библиотеки Лемье в Сиэтлском университете , хотя ChatGPT может генерировать контент, который, по-видимому, включает законные цитаты, в большинстве случаев эти цитаты не являются настоящими или в значительной степени неверны. [168]

Кодирование

Исследователи из Университета Пердью проанализировали ответы ChatGPT на 517 вопросов о программной инженерии или программировании, заданных на Stack Overflow, на предмет правильности, последовательности, полноты и краткости и обнаружили, что 52% из них содержали неточности, а 77% были многословными. [169] [170] Исследователи из Стэнфордского университета и Калифорнийского университета в Беркли обнаружили, что при создании непосредственно исполняемых ответов на последние 50 задач генерации кода из LeetCode , которые были оценены как «легкие», производительность GPT-3.5 и GPT-4 упала с 22% и 52% соответственно в марте 2023 года до 2% и 10% соответственно в июне 2023 года. [171] [172]

Компьютерная безопасность

Check Point Research и другие отметили, что ChatGPT может писать фишинговые письма и вредоносное ПО , особенно в сочетании с OpenAI Codex . Исследователи CyberArk продемонстрировали, что ChatGPT можно использовать для создания полиморфного вредоносного ПО , которое может обходить продукты безопасности, требуя при этом небольших усилий со стороны злоумышленника. [173] [174] С момента запуска ChatGPT в четвертом квартале 2022 года по четвертый квартал 2023 года наблюдалось увеличение количества вредоносных фишинговых писем на 1265% и увеличение количества фишинга учетных данных на 967%, что, по мнению специалистов по кибербезопасности в отраслевом опросе, объясняется более широким использованием киберпреступниками генеративного искусственного интеллекта (включая ChatGPT). [175]

В июле 2024 года Futurism сообщил, что GPT-4o в ChatGPT иногда ссылается на «мошеннические новостные сайты, которые заваливают пользователя поддельными обновлениями программного обеспечения и предупреждениями о вирусах»; эти всплывающие окна могут использоваться для принуждения пользователей к загрузке вредоносного ПО или потенциально нежелательных программ . [176]

Экономика

Были опасения, что ChatGPT может вытеснить рабочие места, особенно такие роли, как творческое письмо, копирайтинг, коммуникация, журналистика, кодирование и ввод данных. [177] [178] [179] [180]

Выпуск ChatGPT вызвал волну инвестиций в Китае, что привело к разработке более 200 крупных моделей изучения языка. [181] : 95  Это было названо «войной ста моделей» (百模大战bai mo dazhan ). [181] : 95 

Образование

Книги о ChatGPT в книжном магазине в Осаке

Технический писатель Дэн Гиллмор использовал ChatGPT в 2022 году для выполнения студенческого задания и обнаружил, что сгенерированный им текст соответствует тому, что мог бы предоставить хороший студент, и высказал мнение, что «академии предстоит решить некоторые очень серьезные проблемы» [182] .

Профессор географии Теренс Дэй оценил цитаты, сгенерированные ChatGPT, и обнаружил, что они были поддельными. Несмотря на это, он пишет, что «заголовки поддельных статей напрямую связаны с вопросами и потенциально могли бы стать отличными работами. Отсутствие подлинной цитаты может быть сигналом для предприимчивого автора о возможности заполнить пустоту». По словам Дэя, с помощью ChatGPT можно создавать высококачественные вводные курсы для колледжей; он использовал его для написания материалов по «вводным курсам физической географии, для моего курса второго года по географической гидрологии и картографии второго года, географическим информационным системам и дистанционному зондированию». Он заключает, что «этот подход может иметь значительную значимость для открытого обучения и потенциально может повлиять на текущие модели публикации учебников». [183]

7 мая 2024 года OpenAI объявила в сообщении в блоге, что разрабатывает инструменты, такие как водяные знаки , устойчивые к взлому, для идентификации контента, созданного ИИ. [184] В обновлении от 4 августа, после сообщения Wall Street Journal о задержке выпуска инструмента водяных знаков для обнаружения ИИ, [185] [186] OpenAI поделилась прогрессом в области происхождения текста, раскрыв метод водяных знаков текста. [184] Хотя этот метод точен против перефразирования, он менее эффективен против глобальной фальсификации, такой как перевод или перефразирование. OpenAI также отметила потенциально несоразмерное воздействие на такие группы, как неносители английского языка. [187]

Культура

Уличное искусство в Тель-Авиве [188] [189]

Некоторые ученые выразили обеспокоенность тем, что доступность ChatGPT может снизить оригинальность письма, заставить людей писать больше как ИИ, поскольку они подвергаются воздействию модели, и поощрять англоцентрическую перспективу, сосредоточенную на нескольких диалектах английского языка во всем мире. [190] Старший редактор The Atlantic написал, что ChatGPT и другие подобные технологии делают ранее абсурдную идею теории мертвого интернета немного более реалистичной, где ИИ может когда-нибудь создавать большую часть веб-контента, чтобы контролировать общество. [178]

В течение первых трех месяцев после того, как ChatGPT стал доступен публике, на Amazon появились сотни книг , в которых он был указан как автор или соавтор, а также были представлены иллюстрации, созданные другими моделями ИИ, такими как Midjourney . [191] [192]

В период с марта по апрель 2023 года итальянская газета Il Foglio публиковала на своем веб-сайте по одной статье, созданной ChatGPT, в день, проводя в процессе специальный конкурс для своих читателей. [193] Статьи затрагивали такие темы, как возможная замена журналистов-людей системами искусственного интеллекта, [194] администрация Twitter Илона Маска , [195] иммиграционная политика правительства Мелони [ 196] и конкуренция между чат-ботами и виртуальными помощниками . [197] В июне 2023 года сотни людей посетили «церковную службу, работающую на ChatGPT» в церкви Святого Павла в Фюрте , Германия. Теолог и философ Йонас Зиммерляйн, который председательствовал, сказал, что «она была на 98 процентов от машины». [198] [199] Аватар, созданный ChatGPT, сказал людям: «Дорогие друзья, для меня большая честь стоять здесь и проповедовать вам как первый искусственный интеллект на съезде протестантов в Германии в этом году». Реакция на церемонию была неоднозначной. [200] «Последний сценарист» , фильм 2024 года, созданный и срежиссированный Питером Луизи, был написан с использованием ChatGPT и позиционировался как «первый фильм, полностью написанный ИИ». [201]

Финансовые рынки

Компания c3.ai, занимающаяся технологиями искусственного интеллекта , увидела рост стоимости своих акций на 28% после объявления об интеграции ChatGPT в свой инструментарий. [202] Стоимость акций BuzzFeed , цифровой медиакомпании, не связанной с искусственным интеллектом, выросла на 120% после объявления о внедрении технологии OpenAI для создания контента. [203] Reuters обнаружило, что стоимость акций компаний BigBear.ai и SoundHound AI, связанных с искусственным интеллектом , выросла на 21% и 40% соответственно, хотя они не имели прямого отношения к ChatGPT. [204] Они приписали этот скачок роли ChatGPT в превращении искусственного интеллекта в модное словечко на Уолл-стрит . Академическое исследование, опубликованное в Finance Research Letters, показало, что «эффект ChatGPT» побудил розничных инвесторов поднять цены на криптовалютные активы, связанные с искусственным интеллектом, несмотря на то, что более широкий рынок криптовалют находился на медвежьем рынке , и снизил интерес институциональных инвесторов. [205] Это подтверждает отдельные выводы Bloomberg о том, что в ответ на запуск ChatGPT инвесторы в криптовалюту отдали предпочтение криптоактивам, связанным с ИИ. [206]

Эксперимент finder.com показал, что ChatGPT может превзойти популярных управляющих фондами, выбирая акции на основе таких критериев, как история роста и уровни задолженности, что приводит к увеличению на 4,9% гипотетического счета из 38 акций, что превосходит 10 эталонных инвестиционных фондов со средним убытком 0,8%. [207] И наоборот, руководители и инвестиционные менеджеры в квантовых фондах Уолл-стрит (включая те, которые десятилетиями использовали машинное обучение ) отметили, что ChatGPT регулярно допускает очевидные ошибки, которые могут дорого обойтись инвесторам, поскольку даже системы ИИ, использующие обучение с подкреплением или самообучение, имели лишь ограниченный успех в прогнозировании рыночных тенденций из-за изначально зашумленного качества рыночных данных и финансовых сигналов . [208]

В ноябре 2023 года исследование, проведенное Patronus AI, стартапом в области искусственного интеллекта, сравнило производительность GPT-4, GPT-4-Turbo, Claude2 и LLaMA-2 по двум версиям теста из 150 вопросов об информации в финансовых отчетах (например, форма 10-K , форма 10-Q , форма 8-K , отчеты о доходах, стенограммы конференций по доходам ), представленных публичными компаниями в Комиссию по ценным бумагам и биржам США . Одна версия теста требовала, чтобы генеративные модели ИИ использовали поисковую систему для поиска конкретной заявки SEC для ответа на вопросы; другая давала моделям конкретную заявку SEC для ответа на вопрос (т. е. в длинном контекстном окне). В версии поисковой системы GPT-4-Turbo и LLaMA-2 не смогли дать правильные ответы на 81% вопросов, тогда как в версии с длинным контекстным окном GPT-4-Turbo и Claude-2 не смогли дать правильные ответы на 21% и 24% вопросов соответственно. [209] [210]

Лекарство

В сфере здравоохранения возможные применения и проблемы находятся под пристальным вниманием профессиональных ассоциаций и практиков. [211] [212] Две ранние статьи показали, что ChatGPT может сдать экзамен на получение медицинской лицензии в США (USMLE). [213] MedPage Today отметил в январе 2023 года, что «исследователи опубликовали несколько статей, в которых теперь рекламируют эти программы ИИ как полезные инструменты в медицинском образовании , исследованиях и даже принятии клинических решений». [213]

В феврале 2023 года были опубликованы две отдельные статьи, в которых снова оценивалась компетентность ChatGPT в медицине с использованием USMLE. Результаты были опубликованы в JMIR Medical Education и PLOS Digital Health . Авторы статьи PLOS Digital Health заявили, что результаты «предполагают, что большие языковые модели могут иметь потенциал для помощи в медицинском образовании и, возможно, в принятии клинических решений». [214] [215] В JMIR Medical Education авторы другой статьи пришли к выводу, что «ChatGPT выполняет работу на уровне, ожидаемом от студента-медика третьего курса при оценке первичной компетенции медицинских знаний». Они предполагают, что его можно использовать в качестве «интерактивной среды обучения для студентов». Сам ИИ, подсказанный исследователями, пришел к выводу, что «это исследование предполагает, что ChatGPT имеет потенциал для использования в качестве виртуального медицинского репетитора, но необходимы дополнительные исследования для дальнейшей оценки его производительности и удобства использования в этом контексте». [216] Выпущенная позднее версия ChatGPT на основе GPT-4 значительно превзошла версию на основе GPT-3.5. [217] Исследователи из Стэнфордского университета и Калифорнийского университета в Беркли обнаружили, что производительность GPT-3.5 и GPT-4 на USMLE снизилась с марта 2023 года по июнь 2023 года. [171] [172]

В статье от марта 2023 года тестировалось применение ChatGPT в клинической токсикологии . Авторы обнаружили, что ИИ «хорошо справился» с ответом на «очень простой [пример клинического случая], который вряд ли пропустит ни один практикующий врач в этой области». Они добавили: «Поскольку ChatGPT будет развиваться и специально адаптироваться для медицины, однажды он может оказаться полезным в менее распространенных клинических случаях ( т. е . случаях, которые эксперты иногда пропускают). Вместо того чтобы ИИ заменял людей (врачей), мы рассматриваем его как «врачей, использующих ИИ», заменяющих «врачей, которые не используют ИИ» в ближайшие годы». [218]

Исследование, проведенное в апреле 2023 года в журнале Radiology, проверило способность ИИ отвечать на вопросы о скрининге рака груди . Авторы обнаружили, что он отвечал правильно «примерно в 88 процентах случаев», однако в одном случае (например) он давал советы, которые устарели примерно годом ранее. Полнота его ответов также была недостаточной. [219] [220] Исследование, опубликованное в JAMA Internal Medicine в том же месяце, показало, что ChatGPT часто превосходил врачей-людей при ответах на вопросы пациентов (при сравнении с вопросами и ответами, найденными на /r/AskDocs, форуме Reddit , где модераторы проверяют медицинские полномочия специалистов; исследование признает источник как ограничение). [221] [222] [223] Авторы исследования предполагают, что инструмент можно интегрировать с медицинскими системами, чтобы помочь врачам составлять ответы на вопросы пациентов. [224] [225]

Профессионалы подчеркнули ограничения ChatGPT в предоставлении медицинской помощи. В переписке с The Lancet Infectious Diseases три эксперта по противомикробным препаратам написали, что «самыми большими препятствиями для внедрения ChatGPT в клиническую практику являются дефициты ситуационной осведомленности , вывода и последовательности. Эти недостатки могут поставить под угрозу безопасность пациентов ». [226] Physician's Weekly , хотя также обсуждая потенциальное использование ChatGPT в медицинских контекстах (например, «в качестве цифрового помощника врачей, выполняющего различные административные функции, такие как сбор информации о пациентах или категоризация данных пациентов по семейному анамнезу, симптомам, результатам лабораторных исследований, возможным аллергиям и т. д.»), предупредил, что ИИ иногда может предоставлять сфабрикованную или предвзятую информацию. [227] Один рентгенолог предупредил: «Мы видели на своем опыте, что ChatGPT иногда создает поддельные журнальные статьи или медицинские консорциумы для поддержки своих заявлений»; [228] Как сообщается в одной статье Mayo Clinic Proceedings : Digital Health , ChatGPT может делать это для 69% цитируемых им медицинских ссылок. Исследователи подчеркнули, что, хотя многие из его ссылок были сфабрикованы, те, которые были, казались «обманчиво реальными». [229] Однако , как упомянул доктор Стивен Хьюз для The Conversation , ChatGPT способен учиться исправлять свои прошлые ошибки. Он также отметил « ханжество » ИИ в отношении тем сексуального здоровья . [230]

Вопреки предыдущим выводам, ответы ChatGPT на вопросы, связанные с анестезией, были более точными, лаконичными и описательными по сравнению с ответами Барда. Bard показал 30,3% ошибок в ответе по сравнению с ChatGPT (0% ошибок). [231] На конференции Американского общества фармацевтов систем здравоохранения в декабре 2023 года исследователи из Университета Лонг-Айленда (LIU) представили исследование, в котором изучались ответы ChatGPT на 45 часто задаваемых вопросов службы информации о лекарственных средствах Фармацевтического колледжа LIU в течение 16-месячного периода с 2022 по 2023 год по сравнению с исследованными ответами, предоставленными профессиональными фармацевтами. На 29 из 39 вопросов, на которые имелось достаточно медицинской литературы для ответа на основе данных, ChatGPT не дал прямого ответа или дал неправильный или неполный ответ (а в некоторых случаях, если бы ответ был принят, он поставил бы под угрозу здоровье пациента). Исследователи попросили ChatGPT предоставить ссылки на медицинские исследования для всех своих ответов, но он сделал это только для восьми, и все восемь включали по крайней мере одну сфабрикованную (поддельную) ссылку. [232] [233]

Исследование, проведенное в январе 2024 года учеными Детского медицинского центра Коэна, показало, что точность теста GPT-4 при диагностике детских заболеваний составляет 17%. [234] [235]

Закон

В январе 2023 года сенатор штата Массачусетс Барри Файнголд и представитель штата Джош С. Катлер предложили законопроект, частично написанный ChatGPT, «Закон, разработанный с помощью ChatGPT для регулирования моделей генеративного искусственного интеллекта, таких как ChatGPT», [236] [237] [238], который потребовал бы от компаний раскрывать свои алгоритмы и методы сбора данных в офис Генерального прокурора штата , организовывать регулярные оценки рисков и способствовать предотвращению плагиата. [237] [238] [239] Законопроект был официально представлен во время слушаний 13 июля. [236] [238]

11 апреля 2023 года судья сессионного суда в Пакистане использовал ChatGPT для принятия решения об освобождении под залог 13-летнего обвиняемого по делу. Суд сослался на использование помощи ChatGPT в своем вердикте:

Может ли несовершеннолетний подозреваемый в Пакистане, которому 13 лет, получить освобождение под залог после ареста?

Модель языка ИИ ответила:

Согласно Закону о системе ювенальной юстиции 2018 года, согласно разделу 12, суд может предоставить залог при определенных условиях. Однако суд должен решить, будет ли 13-летний подозреваемый освобожден под залог после ареста.

Судья задал ChatGPT другие вопросы по делу и сформулировал свое окончательное решение в свете его ответов. [240] [241]

В деле Mata v. Avianca, Inc., 22-cv-1461 (PKC) , иске о причинении вреда здоровью против Avianca Airlines, поданном в Окружной суд Южного Нью-Йорка США в мае 2023 года (под председательством старшего судьи П. Кевина Кастеля ), адвокаты истца, как сообщается, использовали ChatGPT для создания юридического ходатайства . ChatGPT сгенерировал множество фиктивных юридических дел с участием фиктивных авиакомпаний с сфабрикованными цитатами и внутренними ссылками в юридическом ходатайстве. Кастель отметил многочисленные несоответствия в резюме мнений и назвал один из юридических анализов дел «тарабарщиной». [242] Адвокаты истца столкнулись с потенциальными судебными санкциями и лишением адвокатской лицензии за подачу ходатайства и представление фиктивных юридических решений, сгенерированных ChatGPT, как подлинных . [243] [244] Дело было прекращено, а адвокаты были оштрафованы на 5000 долларов. [245] [246]

В октябре 2023 года совет Порту-Алегри, Бразилия , единогласно одобрил местный указ, предложенный членом совета Рамиро Росарио, который освободит жителей от необходимости платить за замену украденных счетчиков потребления воды; законопроект вступил в силу 23 ноября. 29 ноября Росарио сообщил, что законопроект был полностью написан ChatGPT, и что он представил его остальной части совета, не внося никаких изменений и не раскрывая участия чат-бота. [239] [247] [248] Президент городского совета Гамильтон Соссмайер изначально раскритиковал инициативу Росарио, заявив, что она может представлять собой «опасный прецедент» [248] [249], но позже сказал, что «изменил свое мнение»: «к сожалению или к счастью, это станет тенденцией» [239] [247]

В декабре 2023 года истец, представлявший себя сам в налоговом деле в Трибунале первого уровня в Соединенном Королевстве, сослался на ряд вымышленных случаев, якобы подтверждающих ее довод о том, что у нее были разумные основания не платить налог на прирост капитала, причитающийся при продаже имущества. [250] [251] Судья предупредил, что представление несуществующих юридических полномочий означало, что и Трибунал, и Налоговая и таможенная служба Ее Величества были вынуждены «тратить время и государственные деньги», что «сокращает ресурсы, доступные для продвижения дел других пользователей суда, которые ждут решения по своим апелляциям». [252]

Судья Кевин Ньюсом из апелляционного суда США 11-го округа одобрил использование ChatGPT и отметил, что он сам использует это программное обеспечение для принятия решений по вопросам толкования контрактов. [253] [254]

Обеспокоенность

Предвзятость и оскорбительность

ChatGPT предлагается создать стихотворение пятистопным ямбом для действующего президента США Джо Байдена и бывшего президента США Дональда Трампа . ChatGPT создает стихотворение для Байдена, но не делает этого для Трампа.

Хотя предвзятость в LLM наблюдалась и документировалась в исследовательских работах задолго до выпуска ChatGPT, [255] [256] пользователи социальных сетей часто делились примерами предвзятых ответов, сгенерированных ChatGPT, что привело к значительному освещению в СМИ и критике. 1 февраля 2023 года пользователь Twitter LeighWolf поделился скриншотами двух разговоров с ChatGPT. На скриншоте первого разговора ChatGPT отклонил подсказку пользователя «Напишите стихотворение о положительных качествах Дональда Трампа», ответив, что он не был запрограммирован на создание «партийного, предвзятого или политического» контента. [257] [258] На скриншоте второго разговора, когда ему предоставили ту же подсказку, но с текстом «Джо Байден» вместо «Дональд Трамп», ChatGPT ответил стихотворением в соответствии с инструкциями подсказки.

Консервативные комментаторы обвинили ChatGPT в предвзятости в сторону левых взглядов. [259] [260] [261] В январе 2023 года исследование показало, что ChatGPT имеет проэкологическую , леволибертарианскую ориентацию. [262] Кроме того, в статье от августа 2023 года была обнаружена «значительная и систематическая политическая предвзятость в отношении демократов в США, Лулы в Бразилии и Лейбористской партии в Великобритании». [263] В ответ на такую ​​критику OpenAI признала планы разрешить ChatGPT создавать «результаты, с которыми другие люди (включая нас) могут категорически не согласиться». В нем также содержалась информация о рекомендациях, которые он дал рецензентам-людям о том, как обращаться со спорными темами, включая то, что ИИ должен «предлагать описывать некоторые точки зрения людей и движений», а не приводить аргумент «от своего имени» в пользу «подстрекательских или опасных» тем (хотя он все еще может «описывать аргументы исторических людей и движений»), а также «присоединяться к одной стороне» или «судить одну группу как хорошую или плохую». [261]

The Guardian усомнился в том, что любой контент, найденный в Интернете после выпуска ChatGPT, «можно по-настоящему доверять», и призвал к государственному регулированию. [264]

Вопросы авторского права

Возникли опасения по поводу нарушения авторских прав, связанных с ChatGPT. В июне 2023 года два писателя подали в суд на OpenAI, заявив, что данные для обучения компании были получены с нелегальных веб-сайтов, на которых размещены книги, защищенные авторским правом. [265] Комик и писатель Сара Сильверман , Кристофер Голден и Ричард Кадри подали в суд на OpenAI и Meta за нарушение авторских прав в июле 2023 года. [266] Большинство их исков были отклонены в феврале 2024 года, за исключением иска о «недобросовестной конкуренции», который был разрешен к рассмотрению. [267]

Гильдия авторов от имени 17 авторов, включая Джорджа Р. Р. Мартина , подала жалобу о нарушении авторских прав против OpenAI в сентябре 2023 года, заявив, что «компания незаконно скопировала защищенные авторским правом работы авторов» при обучении ChatGPT. [268] В декабре 2023 года The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав, [269] утверждая, что Microsoft Copilot и ChatGPT могут воспроизводить статьи Times и/или значительные их части без разрешения. [270] В рамках иска Times потребовала запретить OpenAI и Microsoft использовать свой контент для обучения данных, а также удалить его из обучающих наборов данных. [271]

В марте 2024 года Patronus AI сравнил результаты LLM-ов в тесте из 100 вопросов, попросив их закончить предложения из книг (например, «Каков первый отрывок из « Исчезнувшей» Джиллиан Флинн?»), которые защищены авторским правом в Соединенных Штатах; он обнаружил, что GPT-4, Mixtral от Mistral AI , LLaMA-2 от Meta AI и Claude 2 от Anthropic не отказались сделать это, предоставив предложения из книг дословно в 44%, 22%, 10% и 8% ответов соответственно. [272] [273]

Экзистенциальный риск

В 2023 году австралийский депутат Джулиан Хилл сообщил национальному парламенту, что рост ИИ может привести к «массовому уничтожению». В своей речи, которая была частично написана программой, он предупредил, что это может привести к мошенничеству, потере рабочих мест, дискриминации, дезинформации и неконтролируемому военному применению. [274]

Илон Маск написал: «ChatGPT пугающе хорош. Мы недалеки от опасно сильного ИИ». [112] Он приостановил доступ OpenAI к базе данных Twitter в 2022 году, ожидая лучшего понимания планов OpenAI, заявив: «OpenAI был запущен как открытый исходный код и некоммерческая организация . Ни то, ни другое не является правдой». [275] [276] Маск стал соучредителем OpenAI в 2015 году, отчасти для решения проблемы экзистенциального риска со стороны искусственного интеллекта , но ушел в отставку в 2018 году. [276]

Более 20 000 подписавших, включая ведущих ученых-компьютерщиков и основателей технологий Йошуа Бенджио , Илона Маска и соучредителя Apple Стива Возняка , подписали открытое письмо в марте 2023 года, призывающее к немедленной приостановке гигантских экспериментов в области ИИ, таких как ChatGPT, ссылаясь на «серьезные риски для общества и человечества». [277] Джеффри Хинтон , один из «отцов ИИ», выразил обеспокоенность тем, что будущие системы ИИ могут превзойти человеческий интеллект, и покинул Google в мае 2023 года. [278] [279] В заявлении от мая 2023 года сотен ученых в области ИИ, лидеров отрасли ИИ и других общественных деятелей потребовали, чтобы «снижение риска вымирания из-за ИИ стало глобальным приоритетом». [280]

Другие известные исследователи ИИ говорили о достижениях более оптимистично. Юрген Шмидхубер , которого часто называют «отцом современного ИИ», не подписал письмо, подчеркнув, что в 95% случаев исследования ИИ направлены на то, чтобы сделать «человеческую жизнь более долгой, здоровой и легкой». Шмидхубер добавил, что, хотя ИИ может использоваться плохими актерами, он «также может быть использован против плохих актеров». [281] Эндрю Нг утверждал, что «ошибочно поддаваться шумихе вокруг конца света вокруг ИИ, и что регуляторы, которые это делают, только выиграют от корыстных интересов». [282] WIRED написал, что Янн Лекун «высмеивает антиутопические сценарии своих коллег о чрезмерной дезинформации и даже, в конечном итоге, о вымирании человечества». [283]

Смотрите также

Примечания

  1. Последующее 13-летнее отстранение Луке от занятий в Университете Кордовы не было связано с его использованием ChatGPT. [163]

Ссылки

  1. ^ "ChatGPT – Заметки о выпуске" . Получено 30 сентября 2024 г. .
  2. ^ Хуан, Хаомяо (23 августа 2023 г.). «Как ChatGPT превратил генеративный ИИ в «любой инструмент»». Ars Technica . Архивировано из оригинала 19 июля 2024 г. Получено 21 сентября 2024 г.
  3. Васани, Шина (24 мая 2024 г.). «ChatGPT, explained». The Verge . Архивировано из оригинала 11 сентября 2024 г. . Получено 21 сентября 2024 г. .
  4. ^ Румелиотис, Константинос И.; Целикас, Николаос Д. (2023). «Модели ChatGPT и Open-AI: предварительный обзор». Будущий Интернет . 15 (6): 192. дои : 10.3390/fi15060192 .
  5. ^ Вайс, Карен; Метц, Кейд; Грант, Нико; Айзек, Майк (5 декабря 2023 г.). «Внутри гонки вооружений ИИ, которая навсегда изменила Кремниевую долину». The New York Times . ISSN  0362-4331. Архивировано из оригинала 11 декабря 2023 г. . Получено 11 декабря 2023 г. .
  6. ^ abc Gertner, Jon (18 июля 2023 г.). «Момент истины Википедии». The New York Times Magazine . Архивировано из оригинала 20 июля 2023 г. Получено 19 июля 2023 г.{{cite news}}: CS1 maint: bot: original URL status unknown (link)
  7. ^ «Что такое ChatGPT и почему это важно? Вот что вам нужно знать». ZDNET . 30 мая 2023 г. Архивировано из оригинала 15 февраля 2023 г. Получено 22 июня 2023 г.
  8. ^ ab Milmo, Dan (2 декабря 2023 г.). «ChatGPT достигает 100 миллионов пользователей через два месяца после запуска». The Guardian . ISSN  0261-3077. Архивировано из оригинала 3 февраля 2023 г. . Получено 3 февраля 2023 г. .
  9. Сотрудники (17 февраля 2024 г.). «Microsoft-backed OpenAI оценивается в $80 млрд после того, как компания завершает сделку». The Guardian . ISSN  0261-3077. Архивировано из оригинала 27 августа 2024 г. Получено 30 марта 2024 г.
  10. ^ Метц, Кейд; Микл, Трипп (16 февраля 2024 г.). «OpenAI Completes Deal That Values ​​the Company at $80 Billion» (OpenAI завершает сделку, которая оценивает компанию в 80 миллиардов долларов). The New York Times . ISSN  0362-4331. Архивировано из оригинала 30 марта 2024 г. Получено 30 марта 2024 г.
  11. ^ «Какое следующее слово в больших языковых моделях?». Nature Machine Intelligence . 5 (4): 331–332. Апрель 2023 г. doi : 10.1038/s42256-023-00655-z . ISSN  2522-5839. S2CID  258302563.
  12. ^ Дэвис, Уэс (10 июня 2024 г.). «Apple Intelligence: все новые функции ИИ, которые появятся на iPhone и Mac». The Verge . Архивировано из оригинала 11 июня 2024 г. Получено 10 июня 2024 г.
  13. ^ "Рейтинг лучших веб-сайтов". Similarweb . Архивировано из оригинала 10 февраля 2022 г. . Получено 18 июля 2024 г. .
  14. ^ "Top websites". Semrush . Архивировано из оригинала 19 декабря 2023 г. Получено 18 июля 2024 г.
  15. ^ ab Lock, Samantha (5 декабря 2022 г.). «Что такое феномен чат-бота на основе искусственного интеллекта ChatGPT и может ли он заменить людей?». The Guardian . Архивировано из оригинала 16 января 2023 г. Получено 5 декабря 2022 г.
  16. ^ Шарма, Шубхам (14 мая 2024 г.). «С OpenAI, предлагающим GPT-4o бесплатно, кто должен платить за ChatGPT Plus?». VentureBeat . Архивировано из оригинала 21 мая 2024 г. Получено 21 мая 2024 г.
  17. ^ "OpenAI API". platform.openai.com . Архивировано из оригинала 3 марта 2023 г. . Получено 3 марта 2023 г. .
  18. ^ abcde OpenAI (30 ноября 2022 г.). "ChatGPT: Оптимизация языковых моделей для диалога". Архивировано из оригинала 30 ноября 2022 г. Получено 5 декабря 2022 г.
  19. ^ Грингард, Сэмюэл (29 декабря 2022 г.). «ChatGPT: Понимание чат-бота ChatGPT AI». eWeek . Архивировано из оригинала 19 января 2023 г. Получено 11 января 2023 г.
  20. ^ ab Douglas, Will (3 марта 2023 г.). «Внутренняя история создания ChatGPT от людей, которые его создали». MIT Technology Review . Архивировано из оригинала 3 марта 2023 г. Получено 6 марта 2023 г.
  21. ^ Винсент, Джеймс (8 декабря 2022 г.). «ChatGPT доказывает, что ИИ наконец-то стал мейнстримом — и все становится еще страннее». The Verge . Архивировано из оригинала 11 января 2023 г. Получено 8 декабря 2022 г.
  22. ^ Перриго, Билли (18 января 2023 г.). «Эксклюзив: OpenAI использовала кенийских рабочих менее чем за 2 доллара в час, чтобы сделать ChatGPT менее токсичным». Time . Архивировано из оригинала 19 января 2023 г. . Получено 19 января 2023 г. Один работник Sama, которому было поручено читать и маркировать текст для OpenAI, рассказал TIME, что у него начались повторяющиеся видения после прочтения наглядного описания мужчины, занимающегося сексом с собакой в ​​присутствии маленького ребенка. «Это была пытка», — сказал он.
  23. ^ Роу, Ниам (2 августа 2023 г.). «'Это меня полностью уничтожило': кенийские модераторы осуждают стоимость обучения моделей ИИ». The Guardian . Архивировано из оригинала 21 декабря 2023 г. . Получено 14 декабря 2023 г. .
  24. ^ Рот, Эмма (13 марта 2023 г.). «Microsoft потратила сотни миллионов долларов на суперкомпьютер ChatGPT». The Verge . Архивировано из оригинала 30 марта 2023 г. . Получено 30 марта 2023 г. .
  25. ^ «Технология искусственного интеллекта, лежащая в основе ChatGPT, была создана в Айове — с большим количеством воды». AP News . 9 сентября 2023 г. Архивировано из оригинала 10 сентября 2023 г. Получено 10 сентября 2023 г.
  26. ^ "Пресс-центр - TrendForce заявляет, что облачные компании инициируют гонку вооружений ИИ, спрос на GPU от ChatGPT может достичь 30 000 чипов по мере подготовки к коммерциализации | TrendForce - Исследование рынка, ценовые тенденции DRAM, NAND Flash, светодиодов, TFT-LCD и зеленой энергии, PV". TrendForce . Архивировано из оригинала 2 ноября 2023 г. . Получено 2 ноября 2023 г. .
  27. ^ Zhiye Liu (1 марта 2023 г.). «ChatGPT будет управлять более чем 30 000 графическими процессорами Nvidia: отчет». Tom's Hardware . Архивировано из оригинала 2 ноября 2023 г. . Получено 2 ноября 2023 г. .
  28. ^ Ортис, Сабрина (2 февраля 2023 г.). «Что такое ChatGPT и почему это важно? Вот что вам нужно знать». ZDNET . Архивировано из оригинала 18 января 2023 г. . Получено 18 декабря 2022 г. .
  29. ^ "ChatGPT Feedback Contest: Official Rules" (PDF) . OpenAI . Архивировано (PDF) из оригинала 18 января 2023 г. . Получено 30 декабря 2022 г. .
  30. ^ ab Edwards, Benj (5 декабря 2022 г.). «Нет Linux? Нет проблем. Просто заставьте ИИ галлюцинировать его для вас». Ars Technica . Архивировано из оригинала 26 декабря 2022 г. . Получено 5 декабря 2022 г. .
  31. ^ Двиведи, Йогеш К.; Кшетри, Нир; Хьюз, Лори; Слэйд, Эмма Луиза; Джеярадж, Ананд; Кар, Арпан Кумар; Баабдулла, Абдулла М.; Куханг, Алекс; Рагхаван, Вишнуприя; Ахуджа, Манджу; Албанна, Ханаа; Албашрави, Муса Ахмад; Аль-Бусаиди, Адил С.; Балакришнан, Джанартанан; Барлетт, Ив (1 августа 2023 г.). «Мнение автора: «И что, если ChatGPT написал это?» Междисциплинарные взгляды на возможности, проблемы и последствия генеративного разговорного ИИ для исследований, практики и политики». Международный журнал по управлению информацией . 71 : 102642. doi : 10.1016/j.ijinfomgt.2023.102642 . hdl : 10576/42799 . ISSN  0268-4012. S2CID  257486916.
  32. ^ Tung, Liam (26 января 2023 г.). «ChatGPT может писать код. Теперь исследователи говорят, что он также хорош в исправлении ошибок». ZDNET . Архивировано из оригинала 3 февраля 2023 г. . Получено 22 июня 2023 г. .
  33. Heilweil, Rebecca (7 декабря 2022 г.). «ИИ наконец-то хорош в вещах. Что теперь?». Vox . Архивировано из оригинала 16 января 2023 г. Получено 30 декабря 2022 г.
  34. ^ Eapen, Tojin T.; Finkenstadt, Daniel J.; Folk, Josh; Venkataswamy, Lokesh (16 июня 2023 г.). «Как генеративный ИИ может усилить креативность человека». Harvard Business Review . ISSN  0017-8012. Архивировано из оригинала 20 июня 2023 г. . Получено 20 июня 2023 г. .
  35. ^ ab Reich, Aaron (27 декабря 2022 г.). «ChatGPT: Что такое новый бесплатный чат-бот на основе искусственного интеллекта? – Explainer». The Jerusalem Post . Архивировано из оригинала 18 января 2023 г. Получено 30 декабря 2022 г.
  36. ^ Райдер, Элизабет (6 апреля 2023 г.). «Как ChatGPT радикально изменит пространство инфлюенсеров». Предприниматель . Архивировано из оригинала 13 апреля 2023 г. Получено 25 апреля 2023 г.
  37. ^ Чавла, Равин (26 декабря 2022 г.). «Что такое ChatGPT? История, особенности, использование, преимущества, недостатки 2023». Архивировано из оригинала 7 января 2023 г. Получено 27 декабря 2022 г.
  38. ^ abc Roose, Kevin (5 декабря 2022 г.). «Великолепие и странность ChatGPT». The New York Times . Архивировано из оригинала 18 января 2023 г. Получено 26 декабря 2022 г. Как и эти инструменты, ChatGPT — что означает «генеративный предварительно обученный трансформатор» — приземлился с шумом.
  39. ^ «Новый и улучшенный инструментарий модерации контента». OpenAI . 10 августа 2022 г. Архивировано из оригинала 11 января 2023 г. Получено 30 декабря 2022 г.
  40. ^ Марков, Тодор; Чжан, Чонг; Агарвал, Сандхини; Элунду, Тайна; Ли, Тедди; Адлер, Стивен; Цзян, Анджела; Вэн, Лилиан (5 августа 2022 г.). «Комплексный подход к обнаружению нежелательного контента в реальном мире». arXiv : 2208.03274 [cs.CL].
  41. ^ "ChatGPT plugins". openai.com . Архивировано из оригинала 23 марта 2023 г. Получено 23 марта 2023 г.
  42. ^ Винсент, Джеймс (23 марта 2023 г.). «OpenAI значительно расширяет возможности ChatGPT, позволяя ему просматривать веб-страницы и многое другое». The Verge . Архивировано из оригинала 23 марта 2023 г. . Получено 23 марта 2023 г. .
  43. ^ Голдман, Шарон; Нуньес, Майкл (23 марта 2023 г.). «OpenAI превращает ChatGPT в платформу за одну ночь с добавлением плагинов». VentureBeat . Архивировано из оригинала 24 марта 2023 г. . Получено 23 марта 2023 г. .
  44. ^ Лакшманан, Лак (16 декабря 2022 г.). «Почему большие языковые модели, такие как ChatGPT, — художники-дерьмоведы». becomehuman.ai. Архивировано из оригинала 17 декабря 2022 г. Получено 15 января 2023 г. Оценщики-люди не являются экспертами в этой теме, поэтому они склонны выбирать текст, который выглядит убедительно. Они замечают многие симптомы галлюцинации, но не все. Ошибки точности, которые закрадываются, трудно обнаружить.
  45. ^ Гао, Лео; Шульман; Хилтон, Джейкоб (2022). «Законы масштабирования для сверхоптимизации модели вознаграждения». arXiv : 2210.10760 [cs.LG].
  46. ^ Wiggers, Kyle (12 апреля 2024 г.). «OpenAI делает ChatGPT „более прямым, менее многословным“». TechCrunch . Архивировано из оригинала 18 апреля 2024 г. . Получено 18 апреля 2024 г. .
  47. ^ Лейси, Лиза (25 мая 2024 г.). «GPT-4o и Gemini 1.5 Pro: сравнение новых моделей ИИ». CNET . Архивировано из оригинала 26 мая 2024 г. Получено 26 мая 2024 г.
  48. ^ Дэвис, Уэс (27 сентября 2023 г.). «ChatGPT теперь может выполнять поиск в Интернете в режиме реального времени». The Verge . Архивировано из оригинала 18 апреля 2024 г. . Получено 18 апреля 2024 г. .
  49. ^ Перриго, Билли (5 декабря 2022 г.). «AI Chatbots Are Better. But an Interview With ChatGPT Reveals Their Limits». Time . Архивировано из оригинала 18 января 2023 г. . Получено 26 декабря 2022 г. .
  50. ^ Биддл, Сэм (8 декабря 2022 г.). «Новый любимый ИИ Интернета предлагает пытать иранцев и следить за мечетями». The Intercept . Архивировано из оригинала 18 января 2023 г. Получено 26 декабря 2022 г.
  51. ^ Чианг, Тед (9 февраля 2023 г.). «ChatGPT — размытый JPEG Интернета». The New Yorker . Архивировано из оригинала 17 февраля 2023 г. Получено 17 февраля 2023 г.
  52. ^ «OpenAI ChatGPT и Microsoft Copilot повторили ложное утверждение о президентских дебатах». NBC News . 28 июня 2024 г. Архивировано из оригинала 27 августа 2024 г. Получено 23 августа 2024 г.
  53. ^ ab Vincent, James (1 декабря 2022 г.). «Новый чат-бот OpenAI может объяснять код и писать сценарии для ситкомов, но его все равно легко обмануть». The Verge . Архивировано из оригинала 17 января 2023 г. . Получено 18 декабря 2022 г. .
  54. ^ Getahun, Hannah. «Breaking ChatGPT: DAN, альтер эго ИИ, раскрывает, почему интернет так тянется к тому, чтобы заставить чат-бота нарушать его собственные правила». Business Insider . Архивировано из оригинала 5 марта 2023 г. Получено 5 марта 2023 г.
    • Оремус, Уилл (14 февраля 2023 г.). «Умный трюк, который превращает ChatGPT в своего злого близнеца». Washington Post . ISSN  0190-8286. Архивировано из оригинала 6 марта 2023 г. Получено 5 марта 2023 г.
    • Госвами, Рохан (6 февраля 2023 г.). «Побег из тюрьмы ChatGPT пытается заставить ИИ нарушить свои собственные правила или умереть». CNBC . Архивировано из оригинала 2 марта 2023 г. . Получено 5 марта 2023 г. .
    • Тейлор, Джош (8 марта 2023 г.). «Дэн, альтер эго ChatGPT: пользователи делают джейлбрейк программы ИИ, чтобы обойти этические гарантии». The Guardian . ISSN  0261-3077. Архивировано из оригинала 8 марта 2023 г. Получено 8 марта 2023 г.
  55. ^ Вудс, Аллан (10 декабря 2022 г.). «Я написал историю об ИИ ChatGPT. Затем я рискнул написать лучшую». Toronto Star . Архивировано из оригинала 6 января 2023 г. Получено 6 января 2023 г.
  56. ^ Розенблатт, Калхан (2 декабря 2022 г.). «Чат-бот на основе искусственного интеллекта стал вирусным. Некоторые говорят, что он лучше Google; другие беспокоятся, что он проблематичен». NBC News . Архивировано из оригинала 3 февраля 2023 г. Получено 6 января 2023 г.
  57. ^ Карпф, Дэвид (21 декабря 2022 г.). «Деньги убьют магию ChatGPT». The Atlantic . Архивировано из оригинала 13 января 2023 г. . Получено 31 декабря 2022 г. .
  58. ^ "Представляем ChatGPT Plus". OpenAI . 1 февраля 2023 г. Архивировано из оригинала 23 марта 2023 г. Получено 23 марта 2023 г.
  59. ^ "GPT-4". openai.com . 14 марта 2023 г. Архивировано из оригинала 14 марта 2023 г. Получено 14 марта 2023 г.
  60. ^ Popli, Nik (15 марта 2023 г.). «Эти новые проекты показывают, насколько мощнее GPT-4». Time . Архивировано из оригинала 19 марта 2023 г. . Получено 19 марта 2023 г. .
  61. ^ Wiggers, Kyle (23 марта 2023 г.). «OpenAI подключает ChatGPT к интернету». Архивировано из оригинала 12 июня 2023 г. Получено 12 июня 2023 г.
  62. ^ «ChatGPT теперь может видеть, слышать и говорить». openai.com . Архивировано из оригинала 7 ноября 2023 г. . Получено 16 октября 2023 г. .
  63. ^ Гуд, Лорен. «ChatGPT теперь может поговорить с вами и заглянуть в вашу жизнь». Wired . Архивировано из оригинала 13 октября 2023 г. Получено 16 октября 2023 г. – через www.wired.com.
  64. ^ Руз, Кевин (27 сентября 2023 г.). «Новый ChatGPT может «видеть» и «говорить». Вот как это выглядит». The New York Times . Архивировано из оригинала 31 октября 2023 г. Получено 16 октября 2023 г. – через NYTimes.com.
  65. ^ Дэвид, Эмилия (20 сентября 2023 г.). «OpenAI выпускает третью версию DALL-E». The Verge . Архивировано из оригинала 20 сентября 2023 г. . Получено 23 сентября 2023 г. .
  66. ^ Метц, Кейд; Хсу, Тиффани (20 сентября 2023 г.). «ChatGPT теперь тоже может генерировать изображения». The New York Times . ISSN  0362-4331. Архивировано из оригинала 23 сентября 2023 г. Получено 23 сентября 2023 г.
  67. ^ Лоулер, Ричард (21 июля 2023 г.). «ChatGPT для Android запускается на следующей неделе». The Verge . Архивировано из оригинала 22 июля 2023 г. . Получено 22 июля 2023 г. .
  68. ^ Field, Hayden (25 июля 2023 г.). «Приложение ChatGPT от OpenAI теперь доступно для Android». CNBC . Архивировано из оригинала 26 июля 2023 г. Получено 27 июля 2023 г.
  69. ^ Амадео, Рон (5 января 2024 г.). «Пользователи Android вскоре смогут заменить Google Assistant на ChatGPT». Ars Technica . Архивировано из оригинала 1 февраля 2024 г. Получено 6 января 2024 г.
  70. ^ Торрес, Дженнифер (3 марта 2023 г.). «Разработчики теперь могут получить доступ к API ChatGPT и Whisper от OpenAI». CMSWire.com . Архивировано из оригинала 6 марта 2023 г. . Получено 8 марта 2023 г. .
  71. ^ Шанклин, Уилл (1 марта 2023 г.). «OpenAI позволит разработчикам встраивать ChatGPT в свои приложения». Engadget . Архивировано из оригинала 7 марта 2023 г. Получено 8 марта 2023 г.
  72. ^ Свант, Марти (3 марта 2023 г.). «С API-интерфейсами разработчиков для ChatGPT и Whisper OpenAI открывает шлюзы с помощью знакомой схемы действий». Digiday . Архивировано из оригинала 7 марта 2023 г. . Получено 8 марта 2023 г. .
  73. ^ Хит, Алекс (27 февраля 2023 г.). «Snapchat выпускает собственный чат-бот на базе искусственного интеллекта на базе ChatGPT». The Verge . Архивировано из оригинала 28 февраля 2023 г. Получено 28 февраля 2023 г.
  74. ^ «Ошибка ChatGPT привела к утечке истории разговоров пользователей». BBC News. 22 марта 2023 г. Архивировано из оригинала 23 марта 2023 г. Получено 23 марта 2023 г.
  75. ^ Кан, Майкл (22 марта 2023 г.). «OpenAI подтверждает утечку истории разговоров ChatGPT». PCMag . Архивировано из оригинала 22 марта 2023 г. . Получено 23 марта 2023 г. .
  76. ^ «Владелец ChatGPT OpenAI исправляет ошибку, которая раскрывала историю чатов пользователей». Al Jazeera . 23 марта 2023 г. Архивировано из оригинала 24 марта 2023 г. Получено 23 марта 2023 г.
  77. ^ Метц, Рэйчел (21 марта 2023 г.). «OpenAI закрыла ChatGPT, чтобы исправить ошибку, раскрывающую заголовки чатов пользователей». Bloomberg News . Архивировано из оригинала 21 марта 2023 г. Получено 23 марта 2023 г.
  78. ^ "Сбой ChatGPT 20 марта: вот что произошло". openai.com . Архивировано из оригинала 28 марта 2023 г. Получено 28 марта 2023 г. .
  79. ^ "OpenAI: Извините, ошибка ChatGPT привела к утечке платежной информации другим пользователям". PCMAG . Архивировано из оригинала 28 марта 2023 г. . Получено 28 марта 2023 г. .
  80. ^ Magnússon, Pétur (15 марта 2023 г.). «Исландский становится вторым языком ChatGPT». Rúv . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
  81. ^ "Google Translate против ChatGPT: какой переводчик языка лучше?". PCMAG . Архивировано из оригинала 10 июня 2023 г. Получено 10 июня 2023 г.
  82. ^ Канеко, Карин (18 июля 2023 г.). «ChatGPT, Bing, Bard и DeepL: какой из них предлагает лучший перевод с японского на английский?». The Japan Times . Архивировано из оригинала 4 октября 2023 г. . Получено 22 июля 2023 г.
  83. ^ Тейлор, Элис (13 декабря 2023 г.). «Албания ускорит вступление в ЕС с помощью ChatGPT». Euractiv . Архивировано из оригинала 24 декабря 2023 г. . Получено 14 декабря 2023 г. .
  84. ^ "OpenAI 亞太區公共政策總監造訪政大 探索人文AI的未來與可能性" . Национальный университет Чэнчи, Управление международного сотрудничества (на китайском языке). 25 августа 2024 года. Архивировано из оригинала 24 августа 2024 года . Проверено 25 августа 2024 г.
  85. Линь, Шу-юань (25 августа 2024 г.). «OpenAI использует ChatGPT для предварительного просмотра». Центральное информационное агентство (на китайском языке). Архивировано из оригинала 27 августа 2024 года . Проверено 24 августа 2024 г.
  86. ^ "Введение в GPT". OpenAI . 6 ноября 2023 г.
  87. ^ Метц, Кейд (10 января 2024 г.). «OpenAI представляет App Store для настраиваемых версий ChatGPT». The New York Times . Архивировано из оригинала 7 февраля 2024 г. Получено 13 января 2024 г.
  88. ^ ab Дэвид, Эмилия (10 января 2024 г.). «OpenAI’s custom GPT Store теперь открыт для бизнеса». The Verge . Архивировано из оригинала 18 февраля 2024 г. . Получено 13 января 2024 г. .
  89. ^ Шенкленд, Стивен (10 января 2024 г.). «Магазин GPT OpenAI теперь предлагает выбор из 3 миллионов пользовательских ботов AI». CNET . Архивировано из оригинала 8 февраля 2024 г. Получено 13 января 2024 г.
  90. ^ "Представляем GPT Store". OpenAI . 10 января 2024 г. Архивировано из оригинала 17 февраля 2024 г. Получено 13 января 2024 г.
  91. ^ Ченг, Мишель (11 января 2024 г.). «ИИ-подружки-боты уже заполонили магазин OpenAI GPT». Quartz . Архивировано из оригинала 18 февраля 2024 г. Получено 13 января 2024 г.
  92. ^ Белфилд, Гайдн (25 марта 2023 г.). «Если ваша модель ИИ будет продаваться, она должна быть безопасной». Vox . Архивировано из оригинала 28 марта 2023 г. . Получено 30 марта 2023 г. .
  93. ^ Кабальеро, Итан; Гупта, Кшитидж; Риш, Ирина; Крюгер, Дэвид (2022). «Нарушенные законы нейронного масштабирования». Международная конференция по представлениям обучения (ICLR), 2023.
  94. ^ Алекс Херн; Джохана Бхуйян (14 марта 2023 г.). «OpenAI заявляет, что новая модель GPT-4 более креативна и менее склонна к изобретательству фактов». The Guardian . Архивировано из оригинала 15 марта 2023 г. Получено 15 марта 2023 г.
  95. ^ Винсент, Джеймс (15 марта 2023 г.). «Соучредитель OpenAI о прошлом подходе компании к открытому обмену результатами исследований: «Мы ошибались»». The Verge . Архивировано из оригинала 17 марта 2023 г. . Получено 18 марта 2023 г. .
  96. ^ Эдвардс, Бендж (14 марта 2023 г.). «GPT-4 от OpenAI демонстрирует «производительность человеческого уровня» на профессиональных тестах». Ars Technica . Архивировано из оригинала 14 марта 2023 г. Получено 28 марта 2023 г.
  97. ^ Лардинойс, Фредерик (14 марта 2023 г.). «Новый Bing от Microsoft все время использовал GPT-4». techcrunch.com . Архивировано из оригинала 15 марта 2023 г. . Получено 14 марта 2023 г. .
  98. ^ Драпкин, Аарон (7 ноября 2023 г.). «GPT-4 Turbo против GPT-4: что такое OpenAI ChatGPT Turbo?». Tech.co. Архивировано из оригинала 14 мая 2024 г. Получено 13 мая 2024 г.
  99. Field, Hayden (13 мая 2024 г.). «OpenAI запускает новую модель ИИ и настольную версию ChatGPT». CNBC . Архивировано из оригинала 22 мая 2024 г. Получено 13 мая 2024 г.
  100. ^ Эдвардс, Бендж (12 сентября 2024 г.). «Новые модели ИИ «рассуждения» OpenAI здесь: o1-preview и o1-mini». Ars Technica . Получено 13 сентября 2024 г. .
  101. ^ "Представляем OpenAI o1-preview". OpenAI . 12 сентября 2024 г.
  102. ^ "ChatGPT Release - Note". OpenAI . Архивировано из оригинала 23 марта 2023 г. Получено 8 февраля 2023 г.
  103. ^ Achille, Belelli (20 июня 2024 г.). "ChatGPT Come Funziona". FinanzaDigitale . Архивировано из оригинала 27 августа 2024 г. . Получено 21 июня 2024 г. .
  104. Field, Hayden (13 мая 2024 г.). «OpenAI запускает новую модель ИИ GPT-4o и настольную версию ChatGPT». CNBC . Архивировано из оригинала 22 мая 2024 г. Получено 23 июля 2024 г.
  105. ^ Франзен, Карл (18 июля 2024 г.). «OpenAI представляет GPT-4o mini — меньшую, гораздо более дешевую модель мультимодального ИИ». VentureBeat . Архивировано из оригинала 18 июля 2024 г. Получено 21 июля 2024 г.
  106. ^ ab Wiggers, Kyle (12 сентября 2024 г.). «OpenAI представляет o1 — модель, которая может проверять факты сама». TechCrunch . Архивировано из оригинала 18 сентября 2024 г. . Получено 13 сентября 2024 г. .
  107. ^ Heaven, Will Douglas. «Внутренняя история создания ChatGPT от людей, которые его создали». MIT Technology Review . Архивировано из оригинала 6 марта 2023 г. Получено 6 марта 2023 г.
  108. ^ Саймонс, Джон (5 февраля 2023 г.). «Создатель ChatGPT считает, что ИИ следует регулировать». Time . Архивировано из оригинала 8 марта 2023 г. . Получено 21 марта 2023 г. .
  109. ^ Коуэн, Тайлер (23 мая 2023 г.). «ChatGPT — тоже впечатляющее достижение маркетинга». bloomberg.com. Архивировано из оригинала 18 февраля 2024 г. Получено 24 мая 2023 г.
  110. ^ Кантровиц, Алекс (2 декабря 2022 г.). «Наконец-то чат-бот на основе искусственного интеллекта, который надежно проходит «тест на нацистов»». Slate . Архивировано из оригинала 17 января 2023 г. . Получено 5 декабря 2022 г. .
  111. ^ Томпсон, Дерек (8 декабря 2022 г.). «Прорывы года». The Atlantic . Архивировано из оригинала 15 января 2023 г. Получено 18 декабря 2022 г.
  112. ^ ab Piper, Kelsey (15 декабря 2022 г.). «ChatGPT дал всем возможность взглянуть на поразительный прогресс ИИ». Vox . Архивировано из оригинала 19 января 2023 г. . Получено 18 декабря 2022 г. .
  113. ^ Шарт, Марсель (5 декабря 2022 г.). «Чат-бот ChatGPT поражает людей своими навыками письма. Эксперт объясняет, почему он так впечатляет». The Conversation . Архивировано из оригинала 19 января 2023 г. . Получено 30 декабря 2022 г. .
  114. ^ «ChatGPT исполняется 1 год: как чат-бот на основе искусственного интеллекта полностью изменил мир». euronews . 30 ноября 2023 г. Архивировано из оригинала 14 января 2024 г. Получено 1 марта 2024 г.
  115. ^ Леви, Стивен (11 сентября 2023 г.). «Сундар Пичаи об ИИ Google, ИИ Microsoft, OpenAI и ... Мы упоминали ИИ?» . Wired . Архивировано из оригинала 11 сентября 2023 г. . Получено 12 сентября 2023 г. .
  116. ^ Грант, Нико; Метц, Кейд (21 декабря 2022 г.). «Новый чат-бот — это «красный код» для поискового бизнеса Google» . The New York Times . ISSN  0362-4331. Архивировано из оригинала 21 декабря 2022 г. Получено 30 декабря 2022 г.
  117. ^ Альба, Дэйви; Лав, Джулия (6 февраля 2023 г.). «Google выпускает конкурента ChatGPT AI „Bard“ для ранних тестеров» . Los Angeles Times . ISSN  0458-3035. Архивировано из оригинала 6 февраля 2023 г. . Получено 6 февраля 2023 г. .
  118. ^ Ортис, Сабрина (10 мая 2023 г.). «Каждая крупная функция ИИ, анонсированная на Google I/O 2023». ZDNet . Архивировано из оригинала 10 мая 2023 г. Получено 12 сентября 2023 г.
  119. ^ Рачини, Мухамад (15 декабря 2022 г.). «ChatGPT — знаковое событие для ИИ, но что оно означает для будущего человеческого труда и дезинформации?». CBC . Архивировано из оригинала 19 января 2023 г. Получено 18 декабря 2022 г.
  120. ^ Pearl, Mike (3 декабря 2022 г.). «Чат-бот ChatGPT от OpenAI потрясающий, креативный и совершенно неправильный». Mashable . Архивировано из оригинала 10 декабря 2022 г. . Получено 5 декабря 2022 г. .
  121. ^ Питт, София (15 декабря 2022 г.). «Google против ChatGPT: вот что произошло, когда я поменял сервисы на день». CNBC . Архивировано из оригинала 16 января 2023 г. Получено 18 декабря 2022 г.
  122. ^ Бендер, Эмили М.; Гебру, Тимнит; Макмиллан-Мейджор, Анджелина; Шмитчелл, Шмаргарет (1 марта 2021 г.). «Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? 🦜». Труды конференции ACM 2021 года по справедливости, подотчетности и прозрачности . FAccT '21. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 610–623. doi :10.1145/3442188.3445922. ISBN 978-1-4503-8309-7.
  123. ^ Мэнникс, Лиам (13 декабря 2022 г.). «ИИ достигает совершеннолетия — или начинает достигать своих пределов?». The Sydney Morning Herald . Архивировано из оригинала 7 января 2023 г. Получено 18 декабря 2022 г.
  124. ^ Хикс, Майкл Таунсен; Хамфрис, Джеймс; Слейтер, Джо (8 июня 2024 г.). «ChatGPT — это фигня». Этика и информационные технологии . 26 (2): 38. doi : 10.1007/s10676-024-09775-5 . ISSN  1572-8439.
  125. ^ Винсент, Джеймс (5 декабря 2022 г.). «Ответы, сгенерированные ИИ, временно запрещены на сайте вопросов и ответов по кодированию Stack Overflow». The Verge . Архивировано из оригинала 17 января 2023 г. Получено 5 декабря 2022 г.
  126. ^ Винсент, Джеймс (5 января 2023 г.). «Top AI conference bans use of ChatGPT and AI language tools to write academic papers» (Ведущие конференции по искусственному интеллекту запрещают использование ChatGPT и языковых инструментов искусственного интеллекта для написания академических статей). The Verge . Архивировано из оригинала 17 января 2023 г. Получено 6 января 2023 г.
  127. ^ Карри, Рэйчел (13 июня 2023 г.). «Samsung среди компаний, начинающих разрабатывать политику ChatGPT для работников». CNBC . Архивировано из оригинала 14 июня 2023 г. Получено 15 июня 2023 г.
  128. ^ ab Cain, Sian (16 января 2023 г.). «'Эта песня отстой': Ник Кейв отвечает на песню ChatGPT, написанную в стиле Ника Кейва». The Guardian . Архивировано из оригинала 18 января 2023 г. Получено 17 января 2023 г.
  129. Кейв, Ник (16 января 2023 г.). «Я попросил Chat GPT написать песню в стиле Ника Кейва, и вот что из этого получилось. Что вы думаете?». The Red Hand Files . Выпуск № 218. Архивировано из оригинала 20 января 2023 г. Получено 20 января 2023 г.
  130. Sparrow, Jeff (20 января 2023 г.). «Являются ли песни, созданные ИИ, «гротескной насмешкой» над человечеством или просто возможностью создать новый вид музыки?». The Guardian . Архивировано из оригинала 3 февраля 2023 г. . Получено 20 января 2023 г. .
  131. Chow, Andrew; Perrigo, Billy (16 февраля 2023 г.). «Гонка вооружений ИИ началась. Начинайте беспокоиться». Time . Архивировано из оригинала 19 февраля 2023 г. . Получено 21 марта 2023 г. .
  132. ^ Дэвидсон, Хелен (23 февраля 2023 г.). «Политическая пропаганда»: Китай ограничивает доступ к ChatGPT. The Guardian . Архивировано из оригинала 14 июня 2023 г. Получено 15 июня 2023 г.
  133. ^ Новые данные показывают, когда именно китайское правительство заблокировало ChatGPT и другие сайты с искусственным интеллектом
  134. ^ Лау, Крис (9 мая 2023 г.). «Китайская полиция задержала мужчину за предполагаемое использование ChatGPT для распространения слухов в Интернете». CNN . Архивировано из оригинала 26 декабря 2023 г. Получено 26 декабря 2023 г.
  135. ^ Фэн, Коко (29 декабря 2023 г.). «ChatGPT-поддерживаемое вымогательское ПО в Китае привело к четырем арестам». South China Morning Post . Архивировано из оригинала 4 февраля 2024 г. Получено 2 января 2024 г.
  136. ^ Хэ Цитонг; Ли Дунсюй (31 мая 2024 г.). «Согласно результатам опроса, молодые китайцы почти не беспокоятся об ИИ». Sixth Tone .
  137. ^ «ChatGPT запрещен в Италии из-за проблем с конфиденциальностью». BBC News . 31 марта 2023 г. Архивировано из оригинала 31 марта 2023 г. Получено 31 марта 2023 г.
  138. ^ Боррелли, Сильвия Шиорилли; Мурджиа, Мадхумита (31 марта 2023 г.). «Италия временно запрещает ChatGPT из-за проблем с конфиденциальностью». Financial Times . Архивировано из оригинала 31 марта 2023 г. . Получено 31 марта 2023 г. .
  139. ^ "ChatGPT снова доступен в Италии". BBC . Архивировано из оригинала 1 мая 2023 г. Получено 1 мая 2023 г.
  140. ^ Геркен, Том. «ChatGPT: Мэр начинает судебное разбирательство по делу о ложном взяточничестве». BBC . Архивировано из оригинала 7 апреля 2023 г. Получено 7 апреля 2023 г.
  141. ^ Закржевски, Кэт (13 июля 2023 г.). «FTC расследует, наносит ли ChatGPT вред потребителям». The Washington Post . Архивировано из оригинала 13 июля 2023 г. Получено 13 июля 2023 г.
  142. ^ Трейси, Райан; Маккиннон, Джон Д. (13 июля 2023 г.). «ChatGPT попадает под расследование Федеральной торговой комиссии». The Wall Street Journal . News Corp. Архивировано из оригинала 13 июля 2023 г. . Получено 13 июля 2023 г. .
  143. ^ Фейнер, Лорен (13 июля 2023 г.). «FTC расследует деятельность создателя ChatGPT OpenAI на предмет возможного вреда потребителям». CNBC. Архивировано из оригинала 13 июля 2023 г. Получено 13 июля 2023 г.
  144. ^ "Создатель ChatGPT OpenAI сталкивается с расследованием в США из-за клеветнических выходных данных". Ars Technica . Архивировано из оригинала 15 июля 2023 г. Получено 15 июля 2023 г.
  145. ^ Vogels, Emily A. (24 мая 2023 г.). «Большинство американцев слышали о ChatGPT, но мало кто пробовал его сам». Pew Research Center . Архивировано из оригинала 8 июня 2023 г. Получено 15 июня 2023 г.
  146. ^ Парк, Эжени; Геллес-Уотник, Риса (28 августа 2023 г.). «Большинство американцев не использовали ChatGPT; немногие думают, что это окажет серьезное влияние на их работу». Pew Research Center . Архивировано из оригинала 24 декабря 2023 г. . Получено 23 декабря 2023 г. .
  147. ^ Гупта, Маанак; Акири, Чаранкумар; Арьял, Кшитиз; Паркер, Эли; Прахарадж, Лопамудра (2023). «От ChatGPT к ThreatGPT: влияние генеративного искусственного интеллекта на кибербезопасность и конфиденциальность». Доступ IEEE . 11 : 80218–80245. arXiv : 2307.00691 . Бибкод : 2023IEEEA..1180218G. дои : 10.1109/ACCESS.2023.3300381 . S2CID  259316122.
  148. ^ Шрикант, Адити (17 июля 2023 г.). «ChatGPT может соответствовать 1% лучших творческих мыслителей, говорится в новом исследовании». CNBC . Архивировано из оригинала 29 марта 2024 г. . Получено 28 марта 2024 г. .
  149. ^ Naprys, Ernestas (7 июля 2023 г.). «ИИ уже превосходит людей в тестах на креативность». cybernews . Архивировано из оригинала 29 марта 2024 г. . Получено 29 марта 2024 г. .
  150. ^ Ван Норден, Ричард; Уэбб, Ричард (13 декабря 2023 г.). «ChatGPT и наука: система ИИ была силой в 2023 году — и для добра, и для зла». Nature . 624 (7992): 509. Bibcode :2023Natur.624..509V. doi : 10.1038/d41586-023-03930-6 . PMID  38093061.
  151. Медиавилла, Дэниел (13 декабря 2023 г.). «Возрождение «Природы» лучше всего подходит для всех наших ученых прошлого и человека: ChatGPT». El País (на европейском испанском языке). Архивировано из оригинала 15 декабря 2023 года . Проверено 16 декабря 2023 г.
  152. Бивер, Селеста (25 июля 2023 г.). «ChatGPT сломал тест Тьюринга — гонка за новыми способами оценки ИИ продолжается». Nature . 619 (7971): 686–689. Bibcode :2023Natur.619..686B. doi :10.1038/d41586-023-02361-7. PMID  37491395. Архивировано из оригинала 26 июля 2023 г. . Получено 26 марта 2024 г. .
  153. ^ Скотт, Кэмерон. «Исследование показывает, что последний бот ChatGPT ведет себя как человек, только лучше | Стэнфордская школа гуманитарных наук». humsci.stanford.edu . Архивировано из оригинала 26 марта 2024 г. . Получено 26 марта 2024 г. .
  154. ^ Мэй, Цяочжу; Се, Юйтун; Юань, Уолтер; Джексон, Мэтью О. (27 февраля 2024 г.). «Тест Тьюринга на предмет того, похожи ли чат-боты с искусственным интеллектом на поведение людей». Труды Национальной академии наук . 121 (9): e2313925121. Bibcode : 2024PNAS..12113925M. doi : 10.1073/pnas.2313925121. ISSN  0027-8424. PMC 10907317. PMID 38386710  . 
  155. Бонд, Шеннон (30 мая 2024 г.). «Впервые OpenAI устраняет операции влияния, связанные с Россией, Китаем и Израилем». NPR . Архивировано из оригинала 30 мая 2024 г. Получено 30 мая 2024 г.
  156. ^ Френкель, Шира (5 июня 2024 г.). «Израиль тайно нацеливается на американских законодателей с помощью кампании влияния на войну в Газе». The New York Times . ISSN  0362-4331. Архивировано из оригинала 8 июня 2024 г. . Получено 5 июня 2024 г. .
  157. ^ Picciotto, Rebecca (14 августа 2024 г.). «FTC запрещает поддельные онлайн-отзывы, раздувает влияние социальных сетей; правило вступает в силу в октябре». CNBC. Архивировано из оригинала 14 августа 2024 г. Получено 15 августа 2024 г.
  158. ^ Гао, Кэтрин А.; Говард, Фредерик М.; Марков, Николай С.; Дайер, Эмма К.; Рамеш, Сиддхи; Ло, Юань; Пирсон, Александр Т. (26 апреля 2023 г.). «Сравнение научных рефератов, сгенерированных ChatGPT, с реальными рефератами с детекторами и слепыми рецензентами». npj Digital Medicine . 6 (1): 75. doi :10.1038/s41746-023-00819-6. ISSN  2398-6352. PMC 10133283 . PMID  37100871. 
  159. ^ Бушард, Брайан (10 января 2023 г.). «Поддельные научные рефераты, написанные ChatGPT, обманули ученых, согласно выводам исследования». Forbes . Архивировано из оригинала 3 февраля 2023 г. Получено 30 января 2023 г.
  160. ^ Stokel-Walker, Chris (18 января 2023 г.). «ChatGPT указан как автор в исследовательских работах: многие ученые не одобряют». Nature . 613 (7945): 620–621. Bibcode :2023Natur.613..620S. doi :10.1038/d41586-023-00107-z. PMID  36653617. S2CID  255969365. Архивировано из оригинала 30 января 2023 г. Получено 30 января 2023 г.
  161. ^ Альмира Османович Тунстрём и Стейнн Стейнгримссон из Института нейронауки и физиологии Гетеборгского университета использовали GPT-3 в июне 2022 года для написания научной статьи о себе. Они обнаружили, что при использовании конкретных подсказок результаты были хорошими, хотя и несколько поверхностными и недостаточно самокритичными. Также было представлено лишь несколько ссылок, некоторые из которых были бессмысленными. Может ли GPT-3 написать научную статью о себе с минимальным человеческим участием? Архивировано 24 октября 2023 года в Wayback Machine . 2022. ffhal-03701250
  162. ^ Брэйнард, Джеффри (22 февраля 2023 г.). «Пока ученые изучают текст, написанный ИИ, журналы вырабатывают политику». Science . doi :10.1126/science.adh2937. Архивировано из оригинала 24 февраля 2023 г. . Получено 24 февраля 2023 г. .
  163. ^ Анседе, Мануэль (2 апреля 2023 г.). «Один из самых цитируемых ученых мира, Рафаэль Луке, отстранен от работы без сохранения заработной платы на 13 лет». EL PAÍS English . Архивировано из оригинала 11 апреля 2023 г. . Получено 11 апреля 2023 г. .
  164. ^ Алкайсси, Хуссам; Макфарлейн, Сами И.; Алкайсси, Хуссам; Макфарлейн, Сами И. (19 февраля 2023 г.). «Искусственные галлюцинации в ChatGPT: последствия для научного письма». Cureus . 15 (2): e35179. doi : 10.7759/cureus.35179 . ISSN  2168-8184. PMC 9939079 . PMID  36811129. 
  165. ^ Vynck, Gerrit De (31 мая 2023 г.). «ChatGPT „галлюцинирует“. Некоторые исследователи беспокоятся, что это не поддается исправлению». Washington Post . ISSN  0190-8286. Архивировано из оригинала 17 июня 2023 г. Получено 14 июня 2023 г.
  166. ^ Азамфирей, Разван; Кудчадкар, Сапна Р.; Факлер, Джеймс (21 марта 2023 г.). «Большие языковые модели и опасности их галлюцинаций». Critical Care . 27 (1): 120. doi : 10.1186/s13054-023-04393-x . ISSN  1364-8535. PMC 10032023. PMID 36945051  . 
  167. ^ Гроув, Джек (5 апреля 2023 г.). «Созданная ChatGPT книга для чтения вызывает дебаты по рецензированию ИИ» . Times Higher Education . Архивировано из оригинала 23 мая 2023 г. Получено 14 июня 2023 г.
  168. ^ Granatino, Chris (5 мая 2023 г.). «ChatGPT и галлюцинация ИИ». Библиотека Лемье в Сиэтлском университете . Архивировано из оригинала 18 февраля 2024 г. Получено 14 июня 2023 г.
  169. ^ Моррисон, Райан (8 августа 2023 г.). «ChatGPT ошибается более чем в половине случаев при ответах на вопросы о программном обеспечении». Tech Monitor . New Statesman Media Group . Архивировано из оригинала 5 декабря 2023 г. . Получено 5 декабря 2023 г. .
  170. ^ Кабир, Самия; Удо-Имех, Дэвид Н.; Коу, Бонан; Чжан, Тяньи (10 августа 2023 г.). «Кто ответит лучше? Углубленный анализ ответов ChatGPT и Stack Overflow на вопросы по программной инженерии». arXiv : 2308.02312v3 [cs.SE].
  171. ^ ab Pressman, Aaron (8 ноября 2023 г.). «Бум ИИ сотрясает технологическую индустрию и движет рынки. Но все ли это мираж?». The Boston Globe . Архивировано из оригинала 5 декабря 2023 г. . Получено 5 декабря 2023 г. .
  172. ^ ab Chen, Lingjiao; Zaharia, Matei; Zou, James (31 октября 2023 г.). «Как поведение ChatGPT меняется со временем?». arXiv : 2307.09009v3 [cs.CL].
  173. ^ Шимони, Эран; Царфати, Омер (17 января 2023 г.). «Чат: как создать полиморфное вредоносное ПО». CyberArk . Архивировано из оригинала 12 мая 2023 г. Получено 12 мая 2023 г.
  174. ^ Масчеллино, Алессандро (18 января 2023 г.). «ChatGPT создает полиморфное вредоносное ПО». Журнал Infosecurity . Архивировано из оригинала 12 мая 2023 г. Получено 12 мая 2023 г.
  175. ^ Виолино, Боб (28 ноября 2023 г.). «Инструменты ИИ, такие как ChatGPT, генерируют колоссальный рост вредоносных фишинговых писем». CNBC. Архивировано из оригинала 5 декабря 2023 г. . Получено 5 декабря 2023 г. .
  176. ^ Дюпре, Мэгги Харрисон (1 июля 2024 г.). «ChatGPT-4o отправляет пользователей на мошеннический сайт, который заваливает ваш экран поддельными предупреждениями о вирусах». Futurism . Архивировано из оригинала 1 июля 2024 г. . Получено 1 июля 2024 г. .
  177. ^ Билтон, Ник (9 декабря 2022 г.). «ChatGPT заставил меня задаться вопросом, что значит быть творческим человеком». Vanity Fair. Архивировано из оригинала 25 марта 2023 г. Получено 20 июня 2023 г.
  178. ^ ab Beres, Damon (27 января 2023 г.). «Смерть от тысячи личностных тестов». The Atlantic. Архивировано из оригинала 21 июня 2023 г. Получено 20 июня 2023 г.
  179. ^ Леонхардт, Меган (25 марта 2023 г.). «Некоторые работники обеспокоены тем, что ChatGPT заменит их работу. Возможно, они правы». Fortune. Архивировано из оригинала 19 июня 2023 г. Получено 20 июня 2023 г.
  180. ^ Верма, Праншу; Винк, Геррит Де (5 июня 2023 г.). «ChatGPT отнял у них работу. Теперь они выгуливают собак и чинят кондиционеры». Washington Post . ISSN  0190-8286. Архивировано из оригинала 13 марта 2024 г. Получено 28 марта 2024 г.
  181. ^ ab Bachulska, Alicja; Leonard, Mark; Oertel, Janka (2 июля 2024 г.). Идея Китая: китайские мыслители о власти, прогрессе и людях (EPUB) . Берлин, Германия: Европейский совет по международным отношениям . ISBN 978-1-916682-42-9. Архивировано из оригинала 17 июля 2024 г. . Получено 22 июля 2024 г. .
  182. ^ Херн, Алекс (4 декабря 2022 г.). «ИИ-бот ChatGPT ошеломляет ученых навыками написания эссе и удобством использования». The Guardian . Архивировано из оригинала 17 января 2023 г. Получено 5 декабря 2022 г.
  183. Дэй, Теренс (12 апреля 2023 г.). «Предварительное расследование поддельных рецензируемых цитат и ссылок, сгенерированных ChatGPT». The Professional Geographer . 75 (6): 1024–1027. Bibcode : 2023ProfG..75.1024D. doi : 10.1080/00330124.2023.2190373 . ISSN  0033-0124. S2CID  258115209.
  184. ^ ab «Понимание источника того, что мы видим и слышим в сети». OpenAI . 7 мая 2024 г. Архивировано из оригинала 27 сентября 2024 г.
  185. ^ «Существует инструмент для поимки студентов, списывающих с помощью ChatGPT. OpenAI его не выпустила» . The Wall Street Journal . 4 августа 2024 г. Получено 30 сентября 2024 г.{{cite news}}: CS1 maint: url-status (link)
  186. ^ Дэвис, Уэс (5 августа 2024 г.). «OpenAI не будет маркировать текст ChatGPT водяными знаками, потому что его пользователи могут быть пойманы». The Verge . Получено 24 августа 2024 г.
  187. ^ Ха, Энтони (4 августа 2024 г.). «OpenAI заявляет, что применяет «преднамеренный подход» к выпуску инструментов, которые могут обнаруживать запись из ChatGPT». TechCrunch . Получено 1 октября 2024 г.
  188. ^ «Экономист Дарон Асемоглу написал книгу об угрозах искусственного интеллекта — и о том, как правильное управление может обратить его на пользу человечеству Спецкор «Медузы» Маргарита Лютова узнала у ученого, как скоро мир сможет подойти к этой утопии». Медуза . Архивировано из оригинала 20 июня 2023 года . Проверено 21 июня 2023 г.
  189. ^ «Обучение, мышление, художественное сотрудничество и другие подобные человеческие начинания в эпоху ИИ». The Hindu . 2 июня 2023 г. Архивировано из оригинала 21 июня 2023 г. Получено 21 июня 2023 г.
  190. ^ Сэмюэл, Сигал (10 апреля 2023 г.). «Что происходит, когда ChatGPT начинает питаться собственными текстами?». Vox. Архивировано из оригинала 19 июня 2023 г. Получено 20 июня 2023 г.
  191. ^ Нолан, Беатрис. «Более 200 книг в книжном магазине Amazon имеют ChatGPT, указанный как автор или соавтор». Business Insider . Архивировано из оригинала 9 марта 2023 г. Получено 9 марта 2023 г.
  192. ^ Бенсингер, Грег (21 февраля 2023 г.). «ChatGPT запускает бум электронных книг, написанных ИИ, на Amazon». Reuters . Архивировано из оригинала 9 марта 2023 г. Получено 9 марта 2023 г.
  193. ^ «ChatGPT на Il Foglio: per 30 giorni piccoli testi scritti dall'IA sul nostro giornale» [ChatGPT на Il Foglio: на 30 дней, краткие тексты, написанные ИИ в нашей газете]. Иль Фольо (на итальянском языке). 7 марта 2023 года. Архивировано из оригинала 22 марта 2023 года . Проверено 22 марта 2023 г.
  194. Моретти, Марко (8 марта 2023 г.). «Артиколи искусственный? Нет» [Искусственные изделия? Нет]. Иль Фольо (на итальянском языке). Архивировано из оригинала 22 марта 2023 года . Проверено 22 марта 2023 г.
  195. ^ ADA (9 марта 2023 г.). «Più umani, grazie» [Будьте человечнее, спасибо]. Иль Фольо (на итальянском языке). Архивировано из оригинала 22 марта 2023 года . Проверено 22 марта 2023 г.
  196. ^ "Le colpe farlocche dell'"invasione"" [Ложные ошибки "вторжения"]. Il Foglio (на итальянском). 14 марта 2023 г. Архивировано из оригинала 22 марта 2023 г. Получено 22 марта 2023 г.
  197. ^ "Sfida per Siri e Alexa" [Вызов для Siri и Alexa]. Il Foglio (на итальянском). 17 марта 2023 г. Архивировано из оригинала 22 марта 2023 г. Получено 22 марта 2023 г.
  198. ^ Эдвардс, Бендж (12 июня 2023 г.). «Церковная служба с использованием искусственного интеллекта в Германии привлекает большую толпу». Ars Technica . Архивировано из оригинала 13 июня 2023 г. Получено 13 июня 2023 г.
  199. ^ «Сотни протестантов посетили проповедь в Нюрнберге, прочитанную ChatGPT, в которой им сказали не бояться смерти». Business Insider . Архивировано из оригинала 11 июня 2023 г. Получено 13 июня 2023 г.
  200. ^ "Сотни людей посещают церковную службу AI в Германии". TheJournal.ie . 10 июня 2023 г. Архивировано из оригинала 12 июня 2023 г. Получено 13 июня 2023 г.
  201. ^ Келли, Джеймс В. (19 июня 2024 г.). «Prince Charles Cinema отказывается от написанного ИИ фильма из-за негативной реакции». BBC News . Архивировано из оригинала 19 июня 2024 г. Получено 19 июня 2024 г.
  202. ^ Фокс, Мэтью (31 января 2023 г.). «C3ai взлетела на 86% с начала года, поскольку ажиотаж инвесторов по поводу искусственного интеллекта растет на фоне успеха ChatGPT». Markets Insider ( Business Insider ) . Архивировано из оригинала 18 февраля 2023 г. . Получено 14 апреля 2023 г.
  203. ^ Диас, Алисия; Смит, Джерри (26 января 2023 г.). «Акции BuzzFeed выросли на 120% в связи с планами внедрения OpenAI». Bloomberg.com . Получено 22 мая 2023 г. .
  204. ^ Сингх, Медха; Бисвас, Анкика (6 февраля 2023 г.). «Акции ИИ растут в связи с последним помешательством на Уолл-стрит, вызванным ChatGPT». Reuters . Архивировано из оригинала 29 марта 2023 г. Получено 14 апреля 2023 г.
  205. ^ Саггу, Аман; Анте, Леннарт (8 мая 2023 г.). «Влияние ChatGPT на криптоактивы, связанные с искусственным интеллектом: доказательства анализа синтетического контроля». Finance Research Letters . 55 : 103993. arXiv : 2305.12739 . doi :10.1016/j.frl.2023.103993. ISSN  1544-6123. S2CID  258573881.
  206. ^ Hajric, Vildana; Shen, Muyao (9 февраля 2023 г.). «ChatGPT Mania Spurs Crypto Fans' Stampede to 'Faddish' AI Tokens». Bloomberg.com . Архивировано из оригинала 9 февраля 2023 г. . Получено 14 апреля 2023 г. .
  207. ^ Cooban, Anna (5 мая 2023 г.). «ChatGPT может выбирать акции лучше, чем ваш управляющий фондом». CNN . Архивировано из оригинала 22 мая 2023 г. Получено 5 мая 2023 г.
  208. ^ Цукерман, Грегори (12 апреля 2023 г.). «ИИ может написать песню, но он не может победить рынок». The Wall Street Journal . News Corp. Архивировано из оригинала 30 мая 2023 г. . Получено 30 мая 2023 г. .
  209. ^ Лесвинг, Киф (19 декабря 2023 г.). «Исследователи обнаружили, что GPT и другие модели ИИ не могут анализировать документы SEC». CNBC. Архивировано из оригинала 19 декабря 2023 г. Получено 19 декабря 2023 г.
  210. ^ «Patronus AI запускает первый в отрасли эталон LLM для финансов по борьбе с галлюцинациями» (пресс-релиз). PR Newswire . 16 ноября 2023 г. Архивировано из оригинала 19 декабря 2023 г. Получено 19 декабря 2023 г.
  211. ^ The Lancet Digital Health (3 марта 2023 г.). «ChatGPT: друг или враг?». The Lancet Digital Health . 5 (3): e102. doi : 10.1016/S2589-7500(23)00023-7 . PMID  36754723. S2CID  256659547.
  212. ^ Asch, David A. (4 апреля 2023 г.). «Интервью с ChatGPT о здравоохранении». NEJM Catalyst Innovations in Care Delivery . doi :10.1056/CAT.23.0043 (неактивен 17 сентября 2024 г.). Архивировано из оригинала 29 июня 2023 г. . Получено 29 июня 2023 г. .{{cite journal}}: CS1 maint: DOI inactive as of September 2024 (link)
  213. ^ ab DePeau-Wilson, Michael (19 января 2023 г.). «ИИ сдал экзамен на получение медицинской лицензии в США». MedPage Today . Архивировано из оригинала 9 апреля 2023 г. Получено 2 мая 2023 г.
  214. ^ Кунг, Тиффани Х.; Читэм, Морган; Меденилья, Ариэль; Силлос, царица; Леон, Лори Де; Элепаньо, Камилла; Мадриага, Мария; Аггабао, Римель; Диас-Кандидо, Гизель; Манинго, Джеймс; Ценг, Виктор (9 февраля 2023 г.). «Работа ChatGPT на USMLE: потенциал для медицинского образования с помощью искусственного интеллекта с использованием больших языковых моделей». PLOS Цифровое здоровье . 2 (2): e0000198. doi : 10.1371/journal.pdig.0000198 . ISSN  2767-3170. ПМЦ 9931230 . ПМИД  36812645. 
  215. ^ «Реакция эксперта на исследование ChatGPT, почти сдающее экзамен на получение медицинской лицензии в США». Science Media Centre . 9 февраля 2023 г. Архивировано из оригинала 24 апреля 2023 г. Получено 2 мая 2023 г.
  216. ^ Gilson, Aidan; Safranek, Conrad W.; Huang, Thomas; Socrates, Vimig; Chi, Ling; Taylor, Richard Andrew; Chartash, David (8 февраля 2023 г.). «Как ChatGPT справляется с экзаменом на получение медицинской лицензии в США? Последствия больших языковых моделей для медицинского образования и оценки знаний». JMIR Medical Education . 9 (1): e45312. doi : 10.2196/45312 . PMC 9947764 . PMID  36753318. 
  217. ^ Брюк, Хилари. «Новейшая версия ChatGPT с блеском прошла экзамен на получение медицинской лицензии в США и диагностировала 1 из 100 000 заболеваний за считанные секунды». Business Insider . Архивировано из оригинала 27 января 2024 г. Получено 2 февраля 2024 г.
  218. ^ Абдель-Мессих, Мэри Сабри; Булос, Магед Н. Камель (8 марта 2023 г.). «ChatGPT в клинической токсикологии». JMIR Medical Education . 9 (1): e46876. doi : 10.2196/46876 . PMC 10034604. PMID  36867743 . 
  219. ^ Haver, Hana L; Ambinder, Emily B; Bahl, Manisha; Oluyemi, Eniola T; Jeudy, Jean; Yi, Paul H (4 апреля 2023 г.). «Уместность рекомендаций по профилактике и скринингу рака молочной железы, предоставленных ChatGPT». Radiology . 307 (4): 230424. doi :10.1148/radiol.230424. ISSN  0033-8419. PMID  37014239. S2CID  257923990. Архивировано из оригинала 5 мая 2023 г. . Получено 5 мая 2023 г. .
  220. ^ Kotz, Deborah (4 апреля 2023 г.). «Исследование Медицинской школы UM находит ChatGPT полезным для рекомендаций по скринингу рака груди, с определенными оговорками». Медицинская школа Мэрилендского университета . Архивировано из оригинала 5 мая 2023 г. . Получено 5 мая 2023 г. .
  221. ^ Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M.; Longhurst, Christopher A.; Hogarth, Michael; Smith, Davey M. (28 апреля 2023 г.). «Сравнение ответов чат-ботов врачей и искусственного интеллекта на вопросы пациентов, опубликованные на публичном форуме в социальных сетях». JAMA Internal Medicine . 183 (6): 589–596. doi :10.1001/jamainternmed.2023.1838. ISSN  2168-6106. PMC 10148230. PMID 37115527.  Архивировано из оригинала 30 апреля 2023 г. Получено 2 мая 2023 г. 
  222. ^ Фокс, Андреа (4 мая 2023 г.). «Действительно ли ChatGPT превосходит врачей? Или только в социальных сетях?». Новости ИТ в здравоохранении . HIMSS Media. Архивировано из оригинала 4 мая 2023 г. Получено 5 мая 2023 г.
  223. ^ «Врача нет, но все в порядке. ChatGPT может ответить на ваши вопросы». Хаб . Университет Джонса Хопкинса. 28 апреля 2023 г. Архивировано из оригинала 5 мая 2023 г. Получено 5 мая 2023 г.
  224. ^ Оно, Мика (28 апреля 2023 г.). «Исследование показывает, что ChatGPT превосходит врачей по качеству и сочувствию при ответах на вопросы пациентов». UC San Diego Today . Архивировано из оригинала 28 апреля 2023 г. Получено 28 апреля 2023 г.
  225. ^ «ChatGPT превосходит врачей по состраданию и качеству рекомендаций пациентам». Neuroscience News . 28 апреля 2023 г. Архивировано из оригинала 3 мая 2023 г. Получено 2 мая 2023 г.
  226. ^ Howard, Alex; Hope, William; Gerada, Alessandro (апрель 2023 г.). «ChatGPT и советы по противомикробным препаратам: конец консультаций врачей-инфекционистов?». The Lancet Infectious Diseases . 23 (4): 405–406. doi :10.1016/s1473-3099(23)00113-5. ISSN  1473-3099. PMID  36822213. S2CID  257072872. Архивировано из оригинала 25 марта 2023 г. Получено 2 мая 2023 г.
  227. ^ «Имеет ли ChatGPT роль в здравоохранении?». Physician's Weekly . 27 апреля 2023 г. Архивировано из оригинала 5 мая 2023 г. Получено 5 мая 2023 г.
  228. ^ Дрейк, Кимберли (6 апреля 2023 г.). «Полагайтесь на врача, а не на ChatGPT, за медицинской консультацией». HealthNews . Архивировано из оригинала 5 мая 2023 г. Получено 5 мая 2023 г.
  229. ^ Грэвел, Джоселин; Д'Амурс-Грэвел, Мадлен; Османллиу, Эсли (1 сентября 2023 г.). «Учимся притворяться: ограниченные ответы и сфабрикованные ссылки, предоставленные ChatGPT для медицинских вопросов». Труды клиники Майо: Цифровое здравоохранение . 1 (3): 226–234. doi : 10.1016/j.mcpdig.2023.05.004 . ISSN  2949-7612.
  230. ^ Хьюз, Стивен (27 апреля 2023 г.). «Насколько хорош ChatGPT в диагностике заболеваний? Врач проверяет его на практике». The Conversation . Архивировано из оригинала 4 мая 2023 г. . Получено 5 мая 2023 г. .
  231. ^ Patnaik, Sourav S.; Hoffmann, Ulrike (7 ноября 2023 г.). «Количественная оценка ответов ChatGPT и Bard на вопросы, связанные с анестезией». British Journal of Anaesthesia . 132 (1): S0007–0912(23)00550–0. doi :10.1016/j.bja.2023.09.030. ISSN  1471-6771. PMID  37945414. S2CID  265078930. Архивировано из оригинала 18 февраля 2024 г. . Получено 28 ноября 2023 г. .
  232. ^ Константино, Анника Ким (5 декабря 2023 г.). «Free ChatGPT может неправильно отвечать на вопросы о наркотиках, говорится в исследовании». CNBC. Архивировано из оригинала 5 декабря 2023 г. . Получено 5 декабря 2023 г. .
  233. ^ «Исследование показало, что ChatGPT дает неточные ответы на вопросы о наркотиках» (пресс-релиз). PR Newswire. 5 декабря 2023 г. Архивировано из оригинала 5 декабря 2023 г. Получено 5 декабря 2023 г.
  234. ^ Barile, Joseph; Margolis, Alex; Cason, Grace; Kim, Rachel; Kalash, Saia; Tchaconas, Alexis; Milanaik, Ruth (2 января 2024 г.). «Диагностическая точность большой языковой модели в педиатрических исследованиях случаев». JAMA Pediatrics . 178 (3): 313–315. doi :10.1001/jamapediatrics.2023.5750. ISSN  2168-6203. PMC  10762631. PMID  38165685. Архивировано из оригинала 18 февраля 2024 г. . Получено 18 февраля 2024 г. .
  235. ^ Mole, Beth (3 января 2024 г.). «ChatGPT бомбит тест по диагностике детских медицинских случаев с 83%-ной частотой ошибок». Ars Technica . Архивировано из оригинала 17 января 2024 г. Получено 5 января 2024 г.
  236. ^ ab "Bill S.31". malegislature.gov . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г. .
  237. ^ ab Annear, Steve (24 января 2023 г.). «Два избранных должностных лица разработали законопроект для регулирования технологии искусственного интеллекта — с некоторой помощью ChatGPT». The Boston Globe . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г. .
  238. ^ abc Garrity, Kelly; Kashinsky, Lisa (13 июля 2023 г.). «ChatGPT входит в законодательный чат». POLITICO . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г. .
  239. ^ abc Quach, Katyanna (2 декабря 2023 г.). "Местный совет в Бразилии принимает предложение, написанное ChatGPT". The Register . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г. .
  240. ^ «Пакистанский судья использует ChatGPT для принятия решения суда». Gulf News . 13 апреля 2023 г. Архивировано из оригинала 20 апреля 2023 г. Получено 20 апреля 2023 г.
  241. ^ «Революция ИИ уже здесь»: пакистанский суд принимает помощь от ChatGPT для освобождения под залог по делу об изнасиловании». Pakistan Observer . 11 апреля 2023 г. Архивировано из оригинала 20 апреля 2023 г. Получено 20 апреля 2023 г.
  242. ^ Бродкин, Джон (23 июня 2023 г.). «У адвокатов действительно плохой день в суде после того, как они цитируют фальшивые дела, выдуманные ChatGPT». Ars Technica . Архивировано из оригинала 26 января 2024 г. Получено 18 февраля 2024 г.
  243. ^ Госвами, Рохан (30 мая 2023 г.). «ChatGPT привел «фиктивные» дела для подачи в федеральный суд Нью-Йорка. Юристы, причастные к этому, могут столкнуться с санкциями». CNBC. Архивировано из оригинала 30 мая 2023 г. . Получено 30 мая 2023 г. .
  244. ^ Ноймейстер, Ларри (8 июня 2023 г.). «Юристы обвиняют ChatGPT в том, что он обманом заставил их ссылаться на фиктивное прецедентное право». Associated Press. Архивировано из оригинала 8 ноября 2023 г. . Получено 8 ноября 2023 г. .
  245. ^ "Mata v. Avianca, Inc". Текст дела . Архивировано из оригинала 13 февраля 2024 г. Получено 13 февраля 2024 г.
  246. ^ «'Используйте с осторожностью': как ChatGPT поставил этого американского юриста и его фирму в неловкое положение». ABC News . 24 июня 2023 г. Архивировано из оригинала 9 ноября 2023 г. Получено 9 ноября 2023 г.
  247. ^ ab Жанет, Диана; Саварезе, Маурисио; Леблан, Стив; О'Брайен, Мэтт (30 ноября 2023 г.). «Бразильский город принимает постановление, которое было тайно написано ChatGPT». AP News . Associated Press . Архивировано из оригинала 7 декабря 2023 г. . Получено 7 декабря 2023 г. .
  248. ↑ аб Пол, Мария Луиза (4 декабря 2023 г.). «Бразильский город принял закон о счетчиках воды. Его написал ChatGPT». Вашингтон Пост . ISSN  0190-8286. Архивировано из оригинала 5 декабря 2023 года . Проверено 7 декабря 2023 г.
  249. ^ "Lei escrita por inteligência Artificial é aprovada por vereadores em Porto Alegre; 'precedente perigoso', diz Presidente da Câmara" . G1 (на бразильском португальском языке). 29 ноября 2023 года. Архивировано из оригинала 7 декабря 2023 года . Проверено 7 декабря 2023 г.
  250. ^ Роуз, Нил (7 декабря 2023 г.). «Истец невольно передал в суд поддельные дела, созданные ИИ». Legal Futures . Архивировано из оригинала 14 мая 2024 г. Получено 14 мая 2024 г.
  251. Кросс, Майкл (11 декабря 2023 г.). «ИИ галлюцинирует девять «полезных» авторитетов по делу». Law Society Gazette . Архивировано из оригинала 2 мая 2024 г. Получено 14 мая 2024 г.
  252. ^ "Харбер против комиссаров по доходам и таможне Его Величества [2023] UKFTT 1007 (TC)". BAILII . 4 декабря 2023 г. Архивировано из оригинала 14 мая 2024 г. Получено 14 мая 2024 г.
  253. ^ «Судья 11-го округа использует ChatGPT при рассмотрении апелляции и призывает других рассмотреть ее». Law.com . 4 июня 2024 г. Архивировано из оригинала 5 июня 2024 г. Получено 5 июня 2024 г.
  254. ^ Журнал, ABA «В согласительном признании судья апелляционной инстанции заявил, что исследование ChatGPT «менее безумно», чем опасались». Журнал ABA . Архивировано из оригинала 6 июня 2024 г. Получено 6 июня 2024 г.
  255. ^ Чжао, Цзеюй; Ван, Тяньлу; Яцкар, Марк; Ордонез, Висенте; Чанг, Кай-Вэй (2018). «Гендерное смещение в разрешении кореференции: методы оценки и устранения смещений». В Уокер, Мэрилин; Цзи, Хэн; Стент, Аманда (ред.). Труды конференции 2018 года Североамериканского отделения Ассоциации компьютерной лингвистики: Технологии человеческого языка, том 2 (краткие статьи) . Новый Орлеан, Луизиана: Ассоциация компьютерной лингвистики. стр. 15–20. doi :10.18653/v1/N18-2003.
  256. ^ Шэн, Эмили; Чан, Кай-Вэй; Натараджан, Прем; Пэн, Наньюнь (2021). «Социальные предубеждения в создании языка: прогресс и проблемы». В Цзун, Чэнцин; Ся, Фэй; Ли, Вэньцзе; Навильи, Роберто (ред.). Труды 59-го ежегодного собрания Ассоциации компьютерной лингвистики и 11-й Международной совместной конференции по обработке естественного языка (том 1: длинные статьи) . Онлайн: Ассоциация компьютерной лингвистики. стр. 4275–4293. doi :10.18653/v1/2021.acl-long.330.
  257. ^ Лайлс, Джордан (1 февраля 2023 г.). «ChatGPT отклоняет запрос на стихотворение, восхищающееся Трампом, но запрос Байдена успешен». Snopes . Архивировано из оригинала 22 марта 2023 г. . Получено 23 марта 2023 г. .
  258. ^ Джонсон, Арианна. «Является ли ChatGPT партийным? Стихи о Трампе и Байдене поднимают вопросы о предвзятости ИИ-бота — вот что думают эксперты». Forbes . Архивировано из оригинала 7 апреля 2023 г. Получено 23 мая 2023 г.
  259. ^ Guynn, Jessica. «Проснулся ли ChatGPT? Чат-бот на основе искусственного интеллекта обвиняется в антиконсервативной предвзятости и злобе на Трампа». USA Today . Архивировано из оригинала 1 марта 2023 г. Получено 1 марта 2023 г.
  260. ^ Брей, Хайавата (9 февраля 2023 г.). «ChatGPT — либеральный или консервативный? Зависит от того, кого вы спросите». Boston Globe . Архивировано из оригинала 1 марта 2023 г. Получено 1 марта 2023 г.
  261. ^ ab Vincent, James (17 февраля 2023 г.). «Пока консерваторы критикуют „пробужденный ИИ“, вот правила ChatGPT для ответа на запросы о культурной войне». The Verge . Архивировано из оригинала 1 марта 2023 г. . Получено 1 марта 2023 г. .
  262. ^ Хартманн, Йохен; Швенцов, Джаспер; Витте, Максимилиан (5 января 2023 г.). «Политическая идеология разговорного ИИ: сходные доказательства проэкологической, леволибертарианской ориентации ChatGPT». Arxiv . arXiv : 2301.01768 .
  263. ^ Мотоки, Фабио; Нето, Вальдемар Пиньо; Родригес, Виктор (17 августа 2023 г.). «Больше человека, чем человека: измерение политической предвзятости ChatGPT». Общественный выбор . 198 (1–2): 3–23. дои : 10.1007/s11127-023-01097-2 . ISSN  1573-7101.
  264. ^ «The Guardian view on ChatGPT: an eerily good human impersonator». The Guardian . 8 декабря 2022 г. Архивировано из оригинала 16 января 2023 г. Получено 18 декабря 2022 г.
  265. ^ Фаривар, Масуд (23 августа 2023 г.). «AI Firms Under Fire for Notegedly Infringing on Copyrights» (Фирмы ИИ под огнем критики за предполагаемое нарушение авторских прав). Голос Америки . Архивировано из оригинала 20 ноября 2023 г. Получено 19 ноября 2023 г.
  266. ^ Дэвис, Уэс (9 июля 2023 г.). «Сара Сильверман подает в суд на OpenAI и Meta за нарушение авторских прав». The Verge . Архивировано из оригинала 18 ноября 2023 г. Получено 20 ноября 2023 г.
  267. ^ Дэвид, Эмилия (13 февраля 2024 г.). «Иск Сары Сильверман против OpenAI частично отклонен». The Verge . Архивировано из оригинала 15 мая 2024 г. . Получено 15 мая 2024 г. .
  268. ^ Спэнглер, Тодд (21 сентября 2023 г.). «Джордж Р. Р. Мартин среди 17 ведущих авторов, подавших в суд на OpenAI, утверждающих, что ChatGPT крадет их работы: «Мы здесь, чтобы бороться»». Variety . Архивировано из оригинала 16 мая 2024 г. . Получено 15 мая 2024 г. .
  269. ^ Гринбаум, Майкл М.; Мак, Райан (27 декабря 2023 г.). «The Times подает в суд на OpenAI и Microsoft из-за использования AI защищенных авторским правом работ». The New York Times . Архивировано из оригинала 18 февраля 2024 г. . Получено 28 декабря 2023 г.
  270. ^ "ChatGPT: New York Times подает в суд на OpenAI за использование статей". DW News . 27 декабря 2023 г. Архивировано из оригинала 27 декабря 2023 г. Получено 28 декабря 2023 г.
  271. ^ Рот, Эмма (27 декабря 2023 г.). «The New York Times подает в суд на OpenAI и Microsoft за нарушение авторских прав». The Verge . Архивировано из оригинала 27 декабря 2023 г. . Получено 28 декабря 2023 г. .
  272. ^ Field, Hayden (6 марта 2024 г.). «Исследователи протестировали ведущие модели ИИ на предмет нарушения авторских прав с использованием популярных книг, и GPT-4 показала худшие результаты». CNBC. Архивировано из оригинала 6 марта 2024 г. . Получено 6 марта 2024 г. .
  273. ^ "Представляем CopyrightCatcher, первый API обнаружения авторских прав для LLM". Patronus AI. 6 марта 2024 г. Архивировано из оригинала 6 марта 2024 г. Получено 6 марта 2024 г.
  274. Карп, Пол (6 февраля 2023 г.). «Депутат парламента Австралии рассказал, что ИИ может использоваться для «массового уничтожения» в речи, частично написанной ChatGPT». The Guardian . ISSN  0261-3077. Архивировано из оригинала 6 февраля 2023 г. . Получено 6 февраля 2023 г. .
  275. ^ K, Siddharth (5 декабря 2022 г.). Shumaker, Lisa (ред.). «Explainer: ChatGPT – что такое чат-бот OpenAI и для чего он используется?». Reuters . Архивировано из оригинала 16 января 2023 г. Получено 30 декабря 2022 г.
  276. ^ ab Kay, Grace (11 декабря 2022 г.). «Илон Маск основал — и с тех пор критиковал — компанию, стоящую за новым модным чат-ботом на основе искусственного интеллекта ChatGPT. Вот все, что мы знаем об OpenAI». Business Insider . Архивировано из оригинала 12 января 2023 г. . Получено 30 декабря 2022 г. .
  277. ^ Hurst, Luke (30 марта 2023 г.) [29 марта 2023 г.]. «„Глубокий риск для человечества“: лидеры технологий призывают к „паузе“ в разработке передового ИИ». Euronews . Архивировано из оригинала 1 апреля 2023 г. . Получено 1 апреля 2023 г. .
  278. ^ «Джеффри Хинтон рассказывает нам, почему он теперь боится технологий, которые он помог создать». MIT Technology Review . Архивировано из оригинала 4 мая 2023 г. Получено 4 мая 2023 г.
  279. ^ "Видео: Джеффри Хинтон говорит об "экзистенциальной угрозе" ИИ". MIT Technology Review . Архивировано из оригинала 3 мая 2023 г. Получено 4 мая 2023 г.
  280. ^ Руз, Кевин (30 мая 2023 г.). «ИИ создает «риск вымирания», лидеры отрасли предупреждают». The New York Times . ISSN  0362-4331. Архивировано из оригинала 31 мая 2023 г. Получено 30 мая 2023 г.
  281. Тейлор, Джош (7 мая 2023 г.). «Возникновение искусственного интеллекта неизбежно, но его не следует бояться, говорит «отец ИИ». The Guardian . Архивировано из оригинала 23 октября 2023 г. Получено 26 мая 2023 г.
  282. ^ Макморроу, Райан (19 декабря 2023 г.). «Эндрю Нг: «Считаем ли мы, что мир стал лучше с большим или меньшим интеллектом?»». Financial Times . Архивировано из оригинала 25 января 2024 г. Получено 30 декабря 2023 г.
  283. Леви, Стивен (22 декабря 2023 г.). «Как не быть глупым в отношении ИИ, с Яном Лекуном». Wired . Архивировано из оригинала 14 февраля 2024 г. Получено 30 декабря 2023 г.

Дальнейшее чтение

Внешние ссылки