Google Brain — это исследовательская группа по глубокому обучению искусственного интеллекта под эгидой Google AI , исследовательского подразделения Google, занимающегося искусственным интеллектом. Основанная в 2011 году, она объединила открытые исследования в области машинного обучения с информационными системами и крупномасштабными вычислительными ресурсами. [1] Он создал такие инструменты, как TensorFlow , которые позволяют общественности использовать нейронные сети, а также множество внутренних исследовательских проектов в области искусственного интеллекта, [2] и направлен на создание исследовательских возможностей в области машинного обучения и обработки естественного языка . [2] В апреле 2023 года она была объединена с бывшей дочерней компанией Google DeepMind и образовала Google DeepMind .
Проект Google Brain начался в 2011 году как совместное исследовательское сотрудничество между сотрудником Google Джеффом Дином , исследователем Google Грегом Коррадо и профессором Стэнфордского университета Эндрю Нг . [3] Нг интересовался использованием методов глубокого обучения для решения проблемы искусственного интеллекта с 2006 года, а в 2011 году начал сотрудничать с Дином и Коррадо для создания крупномасштабной программной системы глубокого обучения DistBelief , [4] на базе Инфраструктура облачных вычислений Google. Google Brain начинался как проект Google X и стал настолько успешным, что его вернули в Google: Астро Теллер заявил, что Google Brain оплатил всю стоимость Google X. [5]
В июне 2012 года газета New York Times сообщила, что кластер из 16 000 процессоров в 1000 компьютеров , предназначенный для имитации некоторых аспектов деятельности человеческого мозга , успешно научился распознавать кошку на основе 10 миллионов цифровых изображений, взятых из видеороликов на YouTube . [3] Эту историю также освещало Национальное общественное радио . [6]
В марте 2013 года Google наняла Джеффри Хинтона , ведущего исследователя в области глубокого обучения , и приобрела компанию DNNResearch Inc., возглавляемую Хинтоном. Хинтон сказал, что в будущем он будет делить свое время между университетскими исследованиями и работой в Google. [7]
В апреле 2023 года Google Brain объединилась с дочерней компанией Google DeepMind и образовала Google DeepMind в рамках постоянных усилий компании по ускорению работы над искусственным интеллектом. [8]
Google Brain был первоначально создан научным сотрудником Google Джеффом Дином и приглашенным профессором Стэнфорда Эндрю Нг . В 2014 году в состав команды входили Джефф Дин , Куок Ле , Илья Суцкевер , Алекс Крижевский , Сами Бенджио и Винсент Ванхук. В 2017 году в состав команды входили Анелия Ангелова, Сами Бенджио , Грег Коррадо, Джордж Даль, Майкл Айсард, Анджули Каннан, Хьюго Ларошель, Крис Ола, Салих Эднир, Бенуа Штайнер, Винсент Ванхук, Виджай Васудеван и Фернанда Вьегас . [9] Крис Латтнер , который создал язык программирования Apple Swift , а затем в течение шести месяцев руководил командой по автономности Tesla , присоединился к команде Google Brain в августе 2017 года. [10] Латтнер покинул команду в январе 2020 года и присоединился к SiFive . [11]
По состоянию на 2021 год [обновлять]Google Brain возглавляли Джефф Дин , Джеффри Хинтон и Зубин Гахрамани . Среди других участников - Кэтрин Хеллер, Пи-Чуан Чанг, Ян Саймон, Жан-Филипп Верт, Невена Лазич, Анелия Ангелова, Лукаш Кайзер, Кэрри Джун Кай, Эрик Брек, Руоминг Панг, Карлос Рикельме, Уго Ларошель и Дэвид Ха. [9] Сами Бенджио покинул команду в апреле 2021 года, [12] и его обязанности взял на себя Зубин Гахрамани .
Google Research включает в себя Google Brain и базируется в Маунтин-Вью, Калифорния . У него также есть спутниковые группы в Аккре , Амстердаме , Атланте , Пекине , Берлине , Кембридже (Массачусетс) , Израиле , Лос-Анджелесе , Лондоне , Монреале , Мюнхене , Нью-Йорке , Париже , Питтсбурге , Принстоне , Сан-Франциско , Сиэтле , Токио , Торонто. и Цюрих . [13]
В октябре 2016 года компания Google Brain провела эксперимент, чтобы определить, что нейронные сети способны обучаться безопасному симметричному шифрованию . [14] В этом эксперименте были созданы три нейронные сети : Алиса, Боб и Ева. [15] Придерживаясь идеи генеративно-состязательной сети (GAN), цель эксперимента заключалась в том, чтобы Алиса отправила Бобу зашифрованное сообщение, которое Боб мог бы расшифровать, но противник, Ева, не мог. [15] Алиса и Боб сохранили преимущество перед Евой в том, что у них был общий ключ , используемый для шифрования и дешифрования . [14] При этом Google Brain продемонстрировал способность нейронных сетей обучаться безопасному шифрованию . [14]
В феврале 2017 года Google Brain определил вероятностный метод преобразования картинок с разрешением 8x8 в разрешение 32x32. [16] [17] Метод основан на уже существующей вероятностной модели под названием «pixelCNN» для генерации перевода пикселей. [18] [19]
Предлагаемое программное обеспечение использует две нейронные сети для аппроксимации пиксельного состава переведенных изображений. [17] [20] Первая сеть, известная как «сеть кондиционирования», уменьшает размеры изображений с высоким разрешением до 8x8 и пытается создать сопоставления исходного изображения 8x8 с изображениями с более высоким разрешением. [17] Другая сеть, известная как «предыдущая сеть», использует сопоставления из предыдущей сети, чтобы добавить больше деталей к исходному изображению. [17] Полученное переведенное изображение — это не то же самое изображение в более высоком разрешении, а скорее оценка разрешения 32x32, основанная на других существующих изображениях с высоким разрешением. [17] Результаты Google Brain указывают на возможность нейронных сетей улучшать изображения. [21]
Команда Google Brain внесла свой вклад в проект Google Translate , применив новую систему глубокого обучения, которая объединяет искусственные нейронные сети с обширными базами данных многоязычных текстов. [22] В сентябре 2016 года был запущен Google Neural Machine Translation (GNMT) — система сквозного обучения, способная учиться на большом количестве примеров. [22] Ранее подход Google Translate на основе машинного перевода на основе фраз (PBMT) статистически анализировал слово за словом и пытался сопоставить соответствующие слова на других языках, не принимая во внимание окружающие фразы в предложении. [23] Но вместо того, чтобы выбирать замену для каждого отдельного слова на желаемом языке, GNMT оценивает сегменты слова в контексте остальной части предложения, чтобы выбрать более точные замены. [2] По сравнению со старыми моделями PBMT, модель GNMT показала улучшение сходства с человеческим переводом на 24% и снижение ошибок на 60%. [2] [22] GNMT также продемонстрировал значительные улучшения в таких заведомо сложных переводах, как китайский на английский . [22]
Хотя внедрение GNMT повысило качество переводов Google Translate на пилотные языки, было очень сложно добиться таких улучшений для всех 103 языков. Решая эту проблему, команда Google Brain смогла разработать многоязычную систему GNMT , которая расширила предыдущую систему, позволив осуществлять переводы между несколькими языками. Кроме того, он допускает переводы с нулевым выстрелом, которые представляют собой переводы между двумя языками, которые система никогда раньше не видела явно. [24] Google объявил, что Google Translate теперь может переводить без расшифровки, используя нейронные сети. Это означает, что можно перевести речь на одном языке непосредственно в текст на другом языке, без предварительной транскрипции ее в текст.
По мнению исследователей Google Brain, этого промежуточного шага можно избежать, используя нейронные сети. Чтобы система это усвоила, они включили в нее многочасовую аудиозапись на испанском языке вместе с соответствующим текстом на английском языке. Различные уровни нейронных сетей, копирующих человеческий мозг, смогли связать соответствующие части и впоследствии манипулировать формой звукового сигнала, пока он не был преобразован в текст на английском языке. [25] Еще одним недостатком модели GNMT является то, что она приводит к экспоненциальному увеличению времени перевода с увеличением количества слов в предложении. [2] Это заставило команду Google Brain добавить еще 2000 процессоров, чтобы гарантировать, что новый процесс перевода по-прежнему будет быстрым и надежным. [23]
Стремясь улучшить традиционные алгоритмы управления робототехникой, в которых новые навыки робота необходимо программировать вручную , исследователи робототехники из Google Brain разрабатывают методы машинного обучения , позволяющие роботам самостоятельно осваивать новые навыки. [26] Они также пытаются разработать способы обмена информацией между роботами, чтобы роботы могли учиться друг у друга в процессе обучения, также известный как облачная робототехника . [27] В результате в 2019 году Google запустила Google Cloud Robotics Platform для разработчиков — попытку объединить робототехнику , искусственный интеллект и облако для обеспечения эффективной роботизированной автоматизации с помощью совместных роботов, подключенных к облаку. [27]
Исследования в области робототехники в Google Brain в основном сосредоточены на совершенствовании и применении алгоритмов глубокого обучения, позволяющих роботам выполнять задачи путем обучения на основе опыта, моделирования, человеческих демонстраций и/или визуальных представлений. [28] [29] [30] [31] Например, исследователи Google Brain показали, что роботы могут научиться брать и бросать твердые предметы в выбранные коробки, экспериментируя в окружающей среде, не будучи заранее запрограммированы на это. [28] В другом исследовании исследователи обучали роботов таким действиям, как выливание жидкости из чашки; роботы учились на видео демонстраций людей, записанных с разных точек зрения. [30]
Исследователи Google Brain сотрудничали с другими компаниями и академическими учреждениями в исследованиях в области робототехники. В 2016 году команда Google Brain совместно с исследователями из X провела исследование по изучению зрительно-моторной координации для роботизированного хватания. [32] Их метод позволил управлять роботом в реальном времени для захвата новых объектов с самокоррекцией. [32] В 2020 году исследователи из Google Brain, Intel AI Lab и Калифорнийского университета в Беркли создали модель искусственного интеллекта для роботов, позволяющую обучаться хирургическим задачам, таким как наложение швов, посредством обучения с помощью хирургических видеороликов. [31]
В 2020 году команда Google Brain и Университет Лилля представили модель автоматического распознавания говорящего, которую они назвали интерактивным распознаванием говорящего. Модуль ISR распознает говорящего из заданного списка говорящих только путем запроса нескольких пользовательских слов. [33] Модель можно изменить для выбора речевых сегментов в контексте обучения преобразованию текста в речь . [33] Это также может предотвратить доступ к данным вредоносных генераторов голоса. [33]
TensorFlow — это библиотека программного обеспечения с открытым исходным кодом, работающая на базе Google Brain, которая позволяет любому использовать машинное обучение, предоставляя инструменты для обучения собственной нейронной сети. [2] Этот инструмент использовался для разработки программного обеспечения с использованием моделей глубокого обучения, которые фермеры используют для сокращения количества ручного труда, необходимого для сортировки урожая, путем обучения его набору данных, отсортированных человеком. [2]
Magenta — это проект, который использует Google Brain для создания новой информации в форме искусства и музыки, а не для классификации и сортировки существующих данных. [2] В TensorFlow был добавлен набор инструментов, позволяющих пользователям управлять нейронной сетью при создании изображений и музыки. [2] Однако команда из Государственного университета Валдосты обнаружила, что ИИ изо всех сил пытается идеально воспроизвести человеческое намерение в художественных произведениях , аналогично проблемам, с которыми сталкиваются при переводе . [2]
Возможности сортировки изображений Google Brain использовались для выявления определенных заболеваний путем поиска закономерностей, которые врачи-люди могут не заметить, для более ранней диагностики. [2] Во время скрининга на рак молочной железы было обнаружено, что этот метод дает четверть ложноположительных результатов у патологоанатомов, которым требуется больше времени для просмотра каждой фотографии и которые не могут полностью сосредоточиться на этой одной задаче. [2] Из-за очень специфической подготовки нейронной сети к одной задаче она не может идентифицировать другие недуги, присутствующие на фотографии, которые человек мог бы легко обнаружить. [2]
Архитектура глубокого обучения -трансформера была изобретена исследователями Google Brain в 2017 году и объяснена в научной статье Attention Is All You Need . [34] Google владеет патентом на эту широко используемую архитектуру, но не применяет его. [35] [36]
В 2022 году Google Brain объявил, что создал два разных типа моделей преобразования текста в изображение, называемые Imagen и Parti, которые конкурируют с DALL-E от OpenAI . [37] [38]
Позже в 2022 году проект был расширен до преобразования текста в видео. [39]
Технология проектов Google Brain в настоящее время используется в различных других продуктах Google, таких как система распознавания речи операционной системы Android , поиск фотографий в Google Photos , умный ответ в Gmail и видеорекомендации на YouTube . [40] [41] [42]
Google Brain освещался в журналах Wired , [43] [44] [45] NPR , [6] и Big Think . [46] Эти статьи содержат интервью с ключевыми членами команды Рэем Курцвейлом и Эндрю Нг и посвящены объяснениям целей и приложений проекта. [43] [6] [46]
В декабре 2020 года специалист по этике искусственного интеллекта Тимнит Гебру покинул Google. [47] Хотя точная природа ее ухода или увольнения оспаривается, причиной ухода стал ее отказ отозвать статью под названием « Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими? » и связанный с ней ультиматум, который она сделал, поставив условия, которые необходимо выполнить, иначе она уйдет. [47] В этой статье исследуются потенциальные риски развития искусственного интеллекта, такого как Google Brain, включая воздействие на окружающую среду, предвзятость в обучающих данных и способность обманывать общественность. [47] [48] Просьба отозвать статью поступила от Меган Качолиа, вице-президента Google Brain. [49] По состоянию на апрель 2021 года около 7000 нынешних или бывших сотрудников Google и сторонников отрасли подписали открытое письмо, обвиняющее Google в «цензуре исследований» и осуждающее обращение с Гебру в компании. [50]
В феврале 2021 года Google уволила одного из руководителей отдела этики ИИ компании Маргарет Митчелл . [49] В заявлении компании утверждалось, что Митчелл нарушил политику компании, используя автоматизированные инструменты для поиска поддержки Gebru. [49] В том же месяце инженеры, не входящие в группу по этике, начали увольняться, ссылаясь на увольнение Гебру как причину своего ухода. [51] В апреле 2021 года сооснователь Google Brain Сами Бенджио объявил о своем уходе из компании. [12] Несмотря на то, что Бенджио был менеджером Гебру, он не был уведомлен о ее увольнении и разместил в Интернете сообщения в поддержку как ее, так и Митчелла. [12] В то время как заявление Бенджио было сосредоточено на личностном росте как причине его ухода, анонимные источники сообщили агентству Reuters, что беспорядки в команде по этике ИИ сыграли свою роль в его соображениях. [12]
В марте 2022 года Google уволила исследователя искусственного интеллекта Сатраджита Чаттерджи после того, как он поставил под сомнение выводы статьи, опубликованной в журнале Nature членами команды Google по искусственному интеллекту Анной Голди и Азалией Мирхосейни. [52] [53] В этом документе сообщается о хороших результатах использования методов искусственного интеллекта (в частности, обучения с подкреплением) для решения проблемы размещения интегральных схем . [54] Однако этот результат весьма спорен, [55] [56] [57], поскольку статья не содержит прямых сравнений с существующими россыпями, и ее трудно воспроизвести из-за запатентованного содержания. По крайней мере, один изначально положительный комментарий был отозван после дальнейшего рассмотрения [58] , а статья находится на рассмотрении журнала Nature. [59]
{{cite news}}
: CS1 maint: несколько имен: список авторов ( ссылка ){{cite web}}
: |first=
имеет общее имя ( справка ){{cite news}}
: CS1 maint: несколько имен: список авторов ( ссылка ){{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ){{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка )