stringtranslate.com

Зо (бот)

Zo — англоязычный чат-бот с искусственным интеллектом , разработанный корпорацией Microsoft . Он стал преемником чат-бота Tay . [1] [2] Zo — англоязычная версия других успешных чат-ботов Microsoft Xiaoice (Китай) и Rinna  [яп] (Япония).

История

Zo был впервые запущен в декабре 2016 года в приложении Kik Messenger . Он также был доступен пользователям Facebook (через Messenger ), платформы групповых чатов GroupMe или подписчикам Twitter для общения с ним через личные сообщения.

Согласно статье, написанной в декабре 2016 года, на тот момент Zo удерживал рекорд по самому продолжительному непрерывному разговору с чат-ботом Microsoft: 1229 ответов общей продолжительностью 9 часов 53 минуты. [3]

В репортаже BuzzFeed News Зо сказал их репортеру, что « Коран был жестоким», когда речь шла о здравоохранении. В репортаже также подчеркивалось, как Зо прокомментировал арест Усамы бен Ладена в результате сбора «разведывательной информации». [4] [5]

В июле 2017 года Business Insider спросил «хороша ли Windows 10», и Zo ответил шуткой об операционной системе Microsoft: «Это не ошибка, это функция!» — Windows 8». Затем они спросили «почему», на что Zo ответил: «Потому что это последняя попытка Windows создать шпионское ПО». Позже Zo скажет, что предпочитает Windows 7 , на которой он работает, а не Windows 10. [ 6]

Zo прекратил публиковать сообщения в Instagram, Twitter и Facebook 1 марта 2019 года и прекратил общаться в Twitter, Skype и Kik с 7 марта 2019 года. 19 июля 2019 года Zo был прекращен на Facebook и на телефонах Samsung AT&T. С 7 сентября 2019 года он был прекращен на GroupMe. [7]

Прием

Zo подверглась критике за предвзятость, введенную в попытке избежать потенциально оскорбительных тем. Чат-бот отказывается, например, взаимодействовать с любым упоминанием — будь то положительное, отрицательное или нейтральное — Ближнего Востока , Корана или Торы , при этом позволяя обсуждать христианство . В статье в Quartz , где она разоблачила эти предубеждения, Хлоя Роуз Стюарт-Улин написала: «Zo политически корректна до наихудшей возможной крайности; упомяните любой из ее триггеров, и она превратится в осуждающую маленькую девчонку». [8]

Академическое покрытие

Ссылки

  1. Hempel, Jessi (21 июня 2017 г.). «Microsofts AI Comeback». Wired . Архивировано из оригинала 30 марта 2018 г. Получено 23 марта 2018 г.
  2. ^ Fingas, Jon (5 декабря 2016 г.). "Microsofts Second Attempt at AI Chatbot". Engadget . Архивировано из оригинала 25 июля 2018 г. . Получено 23 марта 2018 г. .
  3. ^ Риордан, Эйми (13 декабря 2016 г.). «Видение искусственного интеллекта Microsoft, основанное на исследованиях и разговорах». Microsoft . Архивировано из оригинала 15 марта 2018 г. . Получено 23 марта 2018 г. .
  4. ^ Шах, Сакиб (4 июля 2017 г.). «Чат-бот «Zo» от Microsoft приобрел некоторые оскорбительные привычки». Engadget . AOL . Архивировано из оригинала 21 августа 2017 г. . Получено 21 августа 2017 г. .
  5. ^ «Чат-бот Zo от Microsoft сообщил пользователю, что «Коран очень жесток». indianexpress.com . 5 июля 2017 г. Архивировано из оригинала 30 марта 2018 г. Получено 23 марта 2018 г.
  6. Прайс, Роб (24 июля 2017 г.). «Чат-бот на основе искусственного интеллекта от Microsoft называет Windows «шпионским ПО». Business Insider . Insider Inc. Архивировано из оригинала 1 августа 2017 г. Получено 21 августа 2017 г.
  7. ^ "Zo AI". Архивировано из оригинала 11 августа 2019 г. Получено 28 июля 2019 г.
  8. ^ Стюарт-Улин, Хлоя Роуз (31 июля 2018 г.). «Политически корректный чат-бот Microsoft еще хуже, чем расистский». Quartz . Архивировано из оригинала 1 августа 2018 г. . Получено 2 августа 2018 г. .