stringtranslate.com

TensorFlow

TensorFlow — это программная библиотека для машинного обучения и искусственного интеллекта . Она может использоваться для решения различных задач, но в основном используется для обучения и вывода нейронных сетей . [3] [4] Это одна из самых популярных платформ глубокого обучения , наряду с другими, такими как PyTorch и PaddlePaddle. [5] [6] Это бесплатное программное обеспечение с открытым исходным кодом , выпущенное под лицензией Apache License 2.0 .

Он был разработан командой Google Brain для внутреннего использования Google в исследованиях и производстве. [7] [8] [9] Первоначальная версия была выпущена под лицензией Apache License 2.0 в 2015 году. [1] [10] Google выпустила обновленную версию TensorFlow 2.0 в сентябре 2019 года. [11]

TensorFlow можно использовать в самых разных языках программирования, включая Python , JavaScript , C++ и Java , [12], что облегчает его использование в различных приложениях во многих секторах.

История

DistBelief

Начиная с 2011 года, Google Brain создал DistBelief как собственную систему машинного обучения , основанную на нейронных сетях глубокого обучения . Ее использование быстро росло в различных компаниях Alphabet как в исследовательских, так и в коммерческих приложениях. [13] [14] Google поручил нескольким ученым-компьютерщикам, включая Джеффа Дина , упростить и реорганизовать кодовую базу DistBelief в более быструю и надежную библиотеку прикладного уровня, которая стала TensorFlow. [15] В 2009 году команда под руководством Джеффри Хинтона реализовала обобщенное обратное распространение и другие улучшения, которые позволили генерировать нейронные сети с существенно более высокой точностью, например, на 25% сократив количество ошибок при распознавании речи . [16]

TensorFlow

TensorFlow — это система второго поколения Google Brain. Версия 1.0.0 была выпущена 11 февраля 2017 года. [17] В то время как эталонная реализация работает на отдельных устройствах, TensorFlow может работать на нескольких CPU и GPU (с дополнительными расширениями CUDA и SYCL для вычислений общего назначения на графических процессорах ). [18] TensorFlow доступен на 64-битных Linux , macOS , Windows и мобильных вычислительных платформах, включая Android и iOS . [ требуется ссылка ]

Его гибкая архитектура позволяет легко развертывать вычисления на различных платформах (ЦП, ГП, ТП ), от настольных компьютеров до кластеров серверов, мобильных и периферийных устройств .

Вычисления TensorFlow выражаются в виде графиков потоков данных с сохранением состояния . Название TensorFlow происходит от операций, которые такие нейронные сети выполняют над многомерными массивами данных, которые называются тензорами . [19] Во время конференции Google I/O в июне 2016 года Джефф Дин заявил, что TensorFlow упоминается в 1500 репозиториях на GitHub , из которых только 5 были от Google. [20]

В марте 2018 года Google анонсировала TensorFlow.js версии 1.0 для машинного обучения на JavaScript . [21]

В январе 2019 года Google анонсировала TensorFlow 2.0. [22] Он стал официально доступен в сентябре 2019 года. [11]

В мае 2019 года Google анонсировала TensorFlow Graphics для глубокого обучения в компьютерной графике. [23]

Блок тензорной обработки (TPU)

В мае 2016 года Google анонсировала свой процессор Tensor (TPU), специализированную интегральную схему ( ASIC , аппаратный чип), созданную специально для машинного обучения и адаптированную для TensorFlow. TPU — это программируемый ускоритель искусственного интеллекта, разработанный для обеспечения высокой пропускной способности арифметики низкой точности (например, 8-битной ) и ориентированный на использование или запуск моделей, а не на их обучение . Google объявила, что они запускают TPU в своих центрах обработки данных более года и обнаружили, что они обеспечивают на порядок лучшую оптимизированную производительность на ватт для машинного обучения. [24]

В мае 2017 года Google анонсировала второе поколение, а также доступность TPU в Google Compute Engine . [25] TPU второго поколения обеспечивают производительность до 180 терафлопс , а при организации в кластеры по 64 TPU обеспечивают производительность до 11,5 петафлопс . [ необходима цитата ]

В мае 2018 года Google анонсировала TPU третьего поколения, обеспечивающие производительность до 420 терафлопс и 128 ГБ памяти с высокой пропускной способностью (HBM). Cloud TPU v3 Pods предлагают производительность более 100 петафлопс и 32 ТБ HBM. [26]

В феврале 2018 года Google объявила, что они сделают TPU доступными в бета-версии на Google Cloud Platform . [27]

Край ТПУ

В июле 2018 года был анонсирован Edge TPU. Edge TPU — это специально разработанный чип ASIC от Google , предназначенный для запуска моделей машинного обучения (ML) TensorFlow Lite на небольших клиентских вычислительных устройствах, таких как смартфоны [28], известных как периферийные вычисления .

TensorFlow Lite

В мае 2017 года Google анонсировала программный стек, специально предназначенный для мобильной разработки, TensorFlow Lite. [29] В январе 2019 года команда TensorFlow выпустила предварительную версию для разработчиков мобильного движка вывода GPU с OpenGL ES 3.1 Compute Shaders на устройствах Android и Metal Compute Shaders на устройствах iOS. [30] В мае 2019 года Google объявила, что их TensorFlow Lite Micro (также известный как TensorFlow Lite для микроконтроллеров) и uTensor от ARM будут объединены. [31]

TensorFlow 2.0

Поскольку доля рынка TensorFlow среди исследовательских работ снижалась в пользу PyTorch , [32] команда TensorFlow объявила о выпуске новой основной версии библиотеки в сентябре 2019 года. TensorFlow 2.0 внесла много изменений, наиболее значительным из которых был TensorFlow Eagrent, который изменил схему автоматической дифференциации со статического вычислительного графа на схему «Define-by-Run», первоначально ставшую популярной благодаря Chainer , а затем PyTorch . [32] Другие важные изменения включали удаление старых библиотек, кросс-совместимость между обученными моделями в разных версиях TensorFlow и значительные улучшения производительности на GPU. [33]

Функции

Автодифференциация

AutoDifferentiation — это процесс автоматического вычисления вектора градиента модели относительно каждого из ее параметров. С помощью этой функции TensorFlow может автоматически вычислять градиенты для параметров в модели, что полезно для таких алгоритмов, как обратное распространение , которым требуются градиенты для оптимизации производительности. [34] Для этого фреймворк должен отслеживать порядок операций, выполняемых над входными тензорами в модели, а затем вычислять градиенты относительно соответствующих параметров. [34]

Жадное исполнение

TensorFlow включает режим «жадного выполнения», который означает, что операции оцениваются немедленно, а не добавляются в вычислительный граф, который выполняется позже. [35] Код, выполняемый с нетерпением, может быть проверен пошагово с помощью отладчика, поскольку данные дополняются в каждой строке кода, а не позже в вычислительном графе. [35] Эта парадигма выполнения считается более простой для отладки из-за ее пошаговой прозрачности. [35]

Распространять

Как в активном, так и в графовом исполнении TensorFlow предоставляет API для распределения вычислений по нескольким устройствам с различными стратегиями распределения. [36] Эти распределенные вычисления часто могут ускорить выполнение обучения и оценки моделей TensorFlow и являются обычной практикой в ​​области ИИ. [36] [37]

Потери

Для обучения и оценки моделей TensorFlow предоставляет набор функций потерь (также известных как функции стоимости ). [38] Некоторые популярные примеры включают среднеквадратичную ошибку (MSE) и двоичную перекрестную энтропию (BCE). [38]

Метрики

Для оценки производительности моделей машинного обучения TensorFlow предоставляет API-доступ к часто используемым метрикам. Примерами служат различные метрики точности (бинарные, категориальные, разреженные категориальные) наряду с другими метриками, такими как Precision, Recall и Intersection-over-Union (IoU). [39]

ТФ.нн

TensorFlow.nn — это модуль для выполнения примитивных операций нейронной сети над моделями. [40] Некоторые из этих операций включают вариации сверток (1/2/3D, Atrous, depthwise), функции активации ( Softmax , RELU , GELU, Sigmoid и т. д.) и их вариации, а также другие операции ( max-pooling , bias-add и т. д.). [40]

Оптимизаторы

TensorFlow предлагает набор оптимизаторов для обучения нейронных сетей, включая ADAM , ADAGRAD и Stochastic Gradient Descent (SGD). [41] При обучении модели разные оптимизаторы предлагают разные режимы настройки параметров, что часто влияет на сходимость и производительность модели. [42]

Использование и расширения

TensorFlow

TensorFlow служит основной платформой и библиотекой для машинного обучения. API TensorFlow используют Keras , чтобы позволить пользователям создавать собственные модели машинного обучения. [33] [43] Помимо построения и обучения модели, TensorFlow также может помочь загрузить данные для обучения модели и развернуть ее с помощью TensorFlow Serving. [44]

TensorFlow предоставляет стабильный интерфейс прикладных программ Python ( API ), [45] , а также API без гарантии обратной совместимости для Javascript , [46] C++ , [47] и Java . [48] [12] Пакеты привязки сторонних языков также доступны для C# , [49] [50] Haskell , [51] Julia , [52] MATLAB , [53] Object Pascal , [54] R , [55] Scala , [56] Rust , [57] OCaml , [58] и Crystal . [59] Привязки, которые сейчас заархивированы и не поддерживаются, включают Go [60] и Swift . [61]

TensorFlow.js

TensorFlow также имеет библиотеку для машинного обучения в JavaScript. Используя предоставленные API JavaScript , TensorFlow.js позволяет пользователям использовать либо модели Tensorflow.js, либо преобразованные модели из TensorFlow или TFLite, переобучать заданные модели и запускать их в сети. [44] [62]

TFLite

TensorFlow Lite имеет API для мобильных приложений или встроенных устройств для создания и развертывания моделей TensorFlow. [63] Эти модели сжимаются и оптимизируются для большей эффективности и более высокой производительности на устройствах с меньшей емкостью. [64]

TensorFlow Lite использует FlatBuffers в качестве формата сериализации данных для сетевых моделей, избегая формата Protocol Buffers , используемого стандартными моделями TensorFlow. [64]

ТФХ

TensorFlow Extended (сокращенно TFX) предоставляет многочисленные компоненты для выполнения всех операций, необходимых для сквозного производства. [65] Компоненты включают загрузку, проверку и преобразование данных, настройку, обучение и оценку модели машинного обучения, а также запуск самой модели в производство. [44] [65]

Интеграции

Нампи

Numpy — одна из самых популярных библиотек данных Python , а TensorFlow предлагает интеграцию и совместимость с ее структурами данных. [66] Numpy NDarrays, собственный тип данных библиотеки, автоматически преобразуется в TensorFlow Tensor в операциях TF; то же самое верно и в обратном направлении. [66] Это позволяет двум библиотекам работать в унисон, не требуя от пользователя написания явных преобразований данных. Более того, интеграция распространяется на оптимизацию памяти, поскольку TF Tensors разделяют базовые представления памяти Numpy NDarrays, когда это возможно. [66]

Расширения

TensorFlow также предлагает множество библиотек и расширений для продвижения и расширения используемых моделей и методов. [67] Например, TensorFlow Recommenders и TensorFlow Graphics — это библиотеки для соответствующих им функций в системах рекомендаций и графике, TensorFlow Federated предоставляет фреймворк для децентрализованных данных, а TensorFlow Cloud позволяет пользователям напрямую взаимодействовать с Google Cloud для интеграции своего локального кода в Google Cloud. [68] Другие дополнения, библиотеки и фреймворки включают TensorFlow Model Optimization, TensorFlow Probability, TensorFlow Quantum и TensorFlow Decision Forests. [67] [68]

Google Коллаб

Google также выпустила Colaboratory, среду блокнотов TensorFlow Jupyter, которая не требует никакой настройки. [69] Она работает в облаке Google и предоставляет пользователям бесплатный доступ к графическим процессорам, а также возможность хранить и делиться блокнотами на Google Drive . [70]

GoogleJAX-

Google JAX — это фреймворк машинного обучения для преобразования числовых функций. [71] [72] [73] Он описывается как объединение модифицированной версии autograd (автоматическое получение функции градиента путем дифференцирования функции) и XLA (ускоренная линейная алгебра) TensorFlow. Он разработан для максимально точного соответствия структуре и рабочему процессу NumPy и работает с TensorFlow, а также с другими фреймворками, такими как PyTorch . Основные функции JAX: [71]

  1. град: автоматическая дифференциация
  2. jit: компиляция
  3. vmap: автоматическая векторизация
  4. pmap: программирование SPMD

Приложения

Медицинский

GE Healthcare использовала TensorFlow для повышения скорости и точности МРТ при идентификации определенных частей тела. [74] Google использовала TensorFlow для создания DermAssist, бесплатного мобильного приложения, которое позволяет пользователям делать снимки своей кожи и определять потенциальные осложнения со здоровьем. [75] Sinovation Ventures использовала TensorFlow для выявления и классификации заболеваний глаз с помощью сканирования с помощью оптической когерентной томографии (ОКТ). [75]

Социальные сети

Twitter внедрил TensorFlow для ранжирования твитов по важности для данного пользователя и изменил свою платформу, чтобы показывать твиты в порядке этого ранжирования. [76] Ранее твиты просто показывались в обратном хронологическом порядке. [76] Приложение для обмена фотографиями VSCO использовало TensorFlow, чтобы предлагать пользовательские фильтры для фотографий. [75]

Поисковая система

Google официально выпустила RankBrain 26 октября 2015 года при поддержке TensorFlow. [77]

Образование

InSpace, виртуальная обучающая платформа, использовала TensorFlow для фильтрации токсичных сообщений чата в классах. [78] Liulishuo, онлайн-платформа для изучения английского языка, использовала TensorFlow для создания адаптивной учебной программы для каждого ученика. [79] TensorFlow использовался для точной оценки текущих способностей ученика, а также помогал выбирать лучший будущий контент для показа на основе этих способностей. [79]

Розничная торговля

Платформа электронной коммерции Carousell использовала TensorFlow для предоставления персонализированных рекомендаций клиентам. [75] Косметическая компания ModiFace использовала TensorFlow для создания дополненной реальности, позволяющей клиентам тестировать различные оттенки макияжа на своем лице. [80]

Сравнение оригинальной фотографии 2016 года (слева) и фотографии с примененным нейронным стилем TensorFlow (справа)

Исследовать

TensorFlow является основой для программного обеспечения DeepDream для автоматизированного создания подписей к изображениям . [81]

Смотрите также

Ссылки

  1. ^ ab "Credits". TensorFlow.org . Архивировано из оригинала 17 ноября 2015 г. Получено 10 ноября 2015 г.
  2. ^ "TensorFlow.js". Архивировано из оригинала 6 мая 2018 г. Получено 28 июня 2018 г.
  3. ^ Абади, Мартин; Бархам, Пол; Чэнь, Цзяньминь; Чэнь, Чжифэн; Дэвис, Энди; Дин, Джеффри; Девин, Матье; Гемават, Санджай; Ирвинг, Джеффри; Айсард, Майкл; Кудлур, Манджунат; Левенберг, Джош; Монга, Раджат; Мур, Шерри; Мюррей, Дерек Г.; Штайнер, Бенуа; Такер, Пол; Васудеван, Виджай; Уорден, Пит; Вике, Мартин; Ю, Юань; Чжэн, Сяоцян (2016). TensorFlow: система для крупномасштабного машинного обучения (PDF) . Труды 12-го симпозиума USENIX по проектированию и внедрению операционных систем (OSDI '16). arXiv : 1605.08695 . Архивировано (PDF) из оригинала 12 декабря 2020 г. Получено 26 октября 2020 г.
  4. ^ TensorFlow: Машинное обучение с открытым исходным кодом. Google. 2015. Архивировано из оригинала 11 ноября 2021 г.«Это программное обеспечение для машинного обучения, используемое для различных видов задач восприятия и понимания языка» – Джеффри Дин, минута 0:47 / 2:17 из клипа на YouTube
  5. ^ "30 лучших проектов с открытым исходным кодом". Скорость проектов с открытым исходным кодом от CNCF . Получено 12 октября 2023 г.
  6. ^ «Добро пожаловать в PaddlePaddle GitHub». Официальный репозиторий PaddlePaddle на Github . Получено 28 октября 2024 г.
  7. Видеоклип от Google о TensorFlow 2015 на 0:15/2:17 минуте
  8. Видеоклип от Google о TensorFlow 2015 на минуте 0:26/2:17
  9. ^ Дин и др. 2015, стр. 2
  10. ^ Metz, Cade (9 ноября 2015 г.). «Google только что открыл исходный код TensorFlow, своего движка искусственного интеллекта». Wired . Архивировано из оригинала 9 ноября 2015 г. Получено 10 ноября 2015 г.
  11. ^ ab TensorFlow (30 сентября 2019 г.). "TensorFlow 2.0 теперь доступен!". Medium . Архивировано из оригинала 7 октября 2019 г. . Получено 24 ноября 2019 г. .
  12. ^ ab "API Documentation". Архивировано из оригинала 16 ноября 2015 г. Получено 27 июня 2018 г.,
  13. ^ Дин, Джефф ; Монга, Раджат; и др. (9 ноября 2015 г.). "TensorFlow: крупномасштабное машинное обучение в гетерогенных системах" (PDF) . TensorFlow.org . Google Research. Архивировано (PDF) из оригинала 20 ноября 2015 г. . Получено 10 ноября 2015 г. .
  14. ^ Перес, Сара (9 ноября 2015 г.). «Google открывает исходные коды технологии машинного обучения, лежащей в основе поиска Google Photos, умного ответа и многого другого». TechCrunch . Архивировано из оригинала 9 ноября 2015 г. Получено 11 ноября 2015 г.
  15. ^ Оремус, Уилл (9 ноября 2015 г.). «Что такое TensorFlow и почему Google так им восторгается?». Slate . Архивировано из оригинала 10 ноября 2015 г. Получено 11 ноября 2015 г.
  16. ^ Уорд-Бейли, Джефф (25 ноября 2015 г.). «Председатель Google: Мы добиваемся «реального прогресса» в области искусственного интеллекта». CSMonitor . Архивировано из оригинала 16 сентября 2015 г. . Получено 25 ноября 2015 г. .
  17. ^ TensorFlow Developers (2022). "Tensorflow Release 1.0.0". GitHub . doi :10.5281/zenodo.4724125. Архивировано из оригинала 27 февраля 2021 г. Получено 24 июля 2017 г.
  18. ^ Метц, Кейд (10 ноября 2015 г.). «TensorFlow, Google's Open Source AI, Points to a Fast-Changing Hardware World». Wired . Архивировано из оригинала 11 ноября 2015 г. Получено 11 ноября 2015 г.
  19. ^ "Введение в тензоры". tensorflow.org. Архивировано из оригинала 26 мая 2024 г. Получено 3 марта 2024 г.
  20. ^ Машинное обучение: Google I/O 2016 Minute 07:30/44:44 Архивировано 21 декабря 2016 г. на Wayback Machine accessdate=2016-06-05
  21. ^ TensorFlow (30 марта 2018 г.). «Введение в TensorFlow.js: машинное обучение на Javascript». Medium . Архивировано из оригинала 30 марта 2018 г. . Получено 24 мая 2019 г. .
  22. ^ TensorFlow (14 января 2019 г.). «Что будет в TensorFlow 2.0». Medium . Архивировано из оригинала 14 января 2019 г. . Получено 24 мая 2019 г. .
  23. ^ TensorFlow (9 мая 2019 г.). «Введение в TensorFlow Graphics: Computer Graphics Meets Deep Learning». Medium . Архивировано из оригинала 9 мая 2019 г. . Получено 24 мая 2019 г. .
  24. ^ Jouppi, Norm . "Google supercharges machine learning tasks with TPU custom chip". Блог Google Cloud Platform . Архивировано из оригинала 18 мая 2016 г. Получено 19 мая 2016 г.
  25. ^ "Создание и обучение моделей машинного обучения на наших новых Google Cloud TPU". Google . 17 мая 2017 г. Архивировано из оригинала 17 мая 2017 г. Получено 18 мая 2017 г.
  26. ^ "Cloud TPU". Google Cloud . Архивировано из оригинала 17 мая 2017 г. Получено 24 мая 2019 г.
  27. ^ "Ускорители машинного обучения Cloud TPU теперь доступны в бета-версии". Блог Google Cloud Platform . Архивировано из оригинала 12 февраля 2018 г. Получено 12 февраля 2018 г.
  28. ^ Kundu, Kishalaya (26 июля 2018 г.). "Google анонсирует Edge TPU, Cloud IoT Edge на Cloud Next 2018". Beebom . Архивировано из оригинала 26 мая 2024 г. . Получено 2 февраля 2019 г. .
  29. ^ «Новая платформа машинного обучения Google собирается добавить больше ИИ на ваш телефон». 17 мая 2017 г. Архивировано из оригинала 17 мая 2017 г. Получено 19 мая 2017 г.
  30. ^ TensorFlow (16 января 2019 г.). «TensorFlow Lite теперь быстрее с мобильными графическими процессорами (предварительная версия для разработчиков)». Medium . Архивировано из оригинала 16 января 2019 г. . Получено 24 мая 2019 г. .
  31. ^ "uTensor and Tensor Flow Announcement | Mbed". os.mbed.com . Архивировано из оригинала 9 мая 2019 г. . Получено 24 мая 2019 г. .
  32. ^ ab He, Horace (10 октября 2019 г.). «Состояние фреймворков машинного обучения в 2019 году». The Gradient. Архивировано из оригинала 10 октября 2019 г. Получено 22 мая 2020 г.
  33. ^ ab Ciaramella, Alberto ; Ciaramella, Marco (июль 2024 г.). Введение в искусственный интеллект: от анализа данных до генеративного ИИ . Издания Intellisemantic. ISBN 9788894787603.
  34. ^ ab "Введение в градиенты и автоматическое дифференцирование". TensorFlow . Архивировано из оригинала 28 октября 2021 г. Получено 4 ноября 2021 г.
  35. ^ abc "Eager execution | TensorFlow Core". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 4 ноября 2021 г. .
  36. ^ ab "Module: tf.distribute | TensorFlow Core v2.6.1". TensorFlow . Архивировано из оригинала 26 мая 2024 г. Получено 4 ноября 2021 г.
  37. ^ Sigeru., Omatu (2014). Распределенные вычисления и искусственный интеллект, 11-я международная конференция. Springer International Publishing. ISBN 978-3-319-07593-8. OCLC  980886715. Архивировано из оригинала 26 мая 2024 г. Получено 4 ноября 2021 г.
  38. ^ ab "Module: tf.losses | TensorFlow Core v2.6.1". TensorFlow . Архивировано из оригинала 27 октября 2021 г. Получено 4 ноября 2021 г.
  39. ^ "Module: tf.metrics | TensorFlow Core v2.6.1". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 4 ноября 2021 г. .
  40. ^ ab "Module: tf.nn | TensorFlow Core v2.7.0". TensorFlow . Архивировано из оригинала 26 мая 2024 г. Получено 6 ноября 2021 г.
  41. ^ "Module: tf.optimizers | TensorFlow Core v2.7.0". TensorFlow . Архивировано из оригинала 30 октября 2021 г. Получено 6 ноября 2021 г.
  42. ^ Dogo, EM; Afolabi, OJ; Nwulu, NI; Twala, B.; Aigbavboa, CO (декабрь 2018 г.). «Сравнительный анализ алгоритмов оптимизации на основе градиентного спуска в сверточных нейронных сетях». Международная конференция по вычислительным технологиям, электронике и механическим системам (CTEMS) 2018 г. стр. 92–99. doi :10.1109/CTEMS.2018.8769211. ISBN 978-1-5386-7709-4. S2CID  198931032. Архивировано из оригинала 26 мая 2024 г. . Получено 25 июля 2023 г. .
  43. ^ "TensorFlow Core | Машинное обучение для начинающих и экспертов". TensorFlow . Архивировано из оригинала 20 января 2023 г. . Получено 4 ноября 2021 г. .
  44. ^ abc "Введение в TensorFlow". TensorFlow . Архивировано из оригинала 20 января 2023 г. Получено 28 октября 2021 г.
  45. ^ "Все символы в TensorFlow 2 | TensorFlow Core v2.7.0". TensorFlow . Архивировано из оригинала 6 ноября 2021 г. . Получено 6 ноября 2021 г. .
  46. ^ "TensorFlow.js". js.tensorflow.org . Архивировано из оригинала 26 мая 2024 г. Получено 6 ноября 2021 г.
  47. ^ "TensorFlow C++ API Reference | TensorFlow Core v2.7.0". TensorFlow . Архивировано из оригинала 20 января 2023 г. Получено 6 ноября 2021 г.
  48. ^ "org.tensorflow | Java". TensorFlow . Архивировано из оригинала 6 ноября 2021 г. . Получено 6 ноября 2021 г. .
  49. ^ Icaza, Miguel de (17 февраля 2018 г.). "TensorFlowSharp: TensorFlow API для языков .NET". GitHub . Архивировано из оригинала 24 июля 2017 г. . Получено 18 февраля 2018 г. .
  50. ^ Чэнь, Хайпин (11 декабря 2018 г.). "TensorFlow.NET: .NET Standard bindings for TensorFlow". GitHub . Архивировано из оригинала 12 июля 2019 г. Получено 11 декабря 2018 г.
  51. ^ "haskell: Привязки Haskell для TensorFlow". tensorflow. 17 февраля 2018 г. Архивировано из оригинала 24 июля 2017 г. Получено 18 февраля 2018 г.
  52. ^ Malmaud, Jon (12 августа 2019 г.). "A Julia wrapper for TensorFlow". GitHub . Архивировано из оригинала 24 июля 2017 г. Получено 14 августа 2019 г. . такие операции, как sin, * (умножение матриц), .* (поэлементное умножение) и т. д. [..]. Сравните с Python, который требует изучения специализированных функций с пространством имен, таких как tf.matmul.
  53. ^ "A MATLAB wrapper for TensorFlow Core". GitHub . 3 ноября 2019 г. Архивировано из оригинала 14 сентября 2020 г. Получено 13 февраля 2020 г.
  54. ^ "Использование TensorFlow из Pascal (FreePascal, Lazarus и т. д.)". GitHub . 19 января 2023 г. Архивировано из оригинала 20 января 2023 г. Получено 20 января 2023 г.
  55. ^ "tensorflow: TensorFlow для R". RStudio. 17 февраля 2018 г. Архивировано из оригинала 4 января 2017 г. Получено 18 февраля 2018 г.
  56. ^ Платаниос, Энтони (17 февраля 2018 г.). "tensorflow_scala: TensorFlow API для языка программирования Scala". GitHub . Архивировано из оригинала 18 февраля 2019 г. . Получено 18 февраля 2018 г. .
  57. ^ "rust: Привязки языка Rust для TensorFlow". tensorflow. 17 февраля 2018 г. Архивировано из оригинала 24 июля 2017 г. Получено 18 февраля 2018 г.
  58. ^ Mazare, Laurent (16 февраля 2018 г.). "tensorflow-ocaml: привязки OCaml для TensorFlow". GitHub . Архивировано из оригинала 11 июня 2018 г. . Получено 18 февраля 2018 г. .
  59. ^ "fazibear/tensorflow.cr". GitHub . Архивировано из оригинала 27 июня 2018 г. Получено 10 октября 2018 г.
  60. ^ "tensorflow package - github.com/tensorflow/tensorflow/tensorflow/go - pkg.go.dev". pkg.go.dev . Архивировано из оригинала 6 ноября 2021 г. . Получено 6 ноября 2021 г. .
  61. ^ "Swift для TensorFlow (в архивном режиме)". TensorFlow . Архивировано из оригинала 6 ноября 2021 г. . Получено 6 ноября 2021 г. .
  62. ^ "TensorFlow.js | Машинное обучение для разработчиков JavaScript". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 28 октября 2021 г. .
  63. ^ "TensorFlow Lite | ML для мобильных и периферийных устройств". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 1 ноября 2021 г. .
  64. ^ ab "TensorFlow Lite". TensorFlow . Архивировано из оригинала 2 ноября 2021 г. Получено 1 ноября 2021 г.
  65. ^ ab "TensorFlow Extended (TFX) | ML Production Pipelines". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 2 ноября 2021 г. .
  66. ^ abc "Основы настройки: тензоры и операции | TensorFlow Core". TensorFlow . Архивировано из оригинала 6 ноября 2021 г. . Получено 6 ноября 2021 г. .
  67. ^ ab "Guide | TensorFlow Core". TensorFlow . Архивировано из оригинала 17 июля 2019 г. Получено 4 ноября 2021 г.
  68. ^ ab "Библиотеки и расширения". TensorFlow . Архивировано из оригинала 4 ноября 2021 г. . Получено 4 ноября 2021 г. .
  69. ^ "Colaboratory – Google". research.google.com . Архивировано из оригинала 24 октября 2017 г. Получено 10 ноября 2018 г.
  70. ^ "Google Colaboratory". colab.research.google.com . Архивировано из оригинала 3 февраля 2021 г. . Получено 6 ноября 2021 г. .
  71. ^ ab Брэдбери, Джеймс; Фростиг, Рой; Хокинс, Питер; Джонсон, Мэтью Джеймс; Лири, Крис; МакЛорин, Дугал; Некула, Джордж; Пашке, Адам; Вандерплас, Джейк; Вандерман-Милн, Скай; Чжан, Цяо (18 июня 2022 г.), "JAX: Autograd and XLA", Библиотека исходного кода астрофизики , Google, Bibcode : 2021ascl.soft11002B, заархивировано из оригинала 18 июня 2022 г. , извлечено 18 июня 2022 г.
  72. ^ «Использование JAX для ускорения наших исследований». www.deepmind.com . Архивировано из оригинала 18 июня 2022 г. . Получено 18 июня 2022 г. .
  73. ^ «Почему JAX от Google так популярен?». Analytics India Magazine . 25 апреля 2022 г. Архивировано из оригинала 18 июня 2022 г. Получено 18 июня 2022 г.
  74. ^ "Интеллектуальное сканирование с использованием глубокого обучения для МРТ". Архивировано из оригинала 4 ноября 2021 г. Получено 4 ноября 2021 г.
  75. ^ abcd "Case Studies and Mentions". TensorFlow . Архивировано из оригинала 26 октября 2021 г. Получено 4 ноября 2021 г.
  76. ^ ab "Ранжирование твитов с помощью TensorFlow". Архивировано из оригинала 4 ноября 2021 г. Получено 4 ноября 2021 г.
  77. ^ Дэвис, Дэйв (2 сентября 2020 г.). «Полное руководство по алгоритму Google RankBrain». Search Engine Journal . Архивировано из оригинала 6 ноября 2021 г. Получено 15 октября 2024 г.
  78. ^ "InSpace: новая платформа видеоконференций, использующая TensorFlow.js для фильтров токсичности в чате". Архивировано из оригинала 4 ноября 2021 г. Получено 4 ноября 2021 г.
  79. ^ Аб Хулин. «Подробнее о TensorFlow 的自适应系统实践». Официальная платформа аккаунтов Weixin . Архивировано из оригинала 6 ноября 2021 года . Проверено 4 ноября 2021 г.
  80. ^ "Как Modiface использовала TensorFlow.js в производстве для примерки AR-макияжа в браузере". Архивировано из оригинала 4 ноября 2021 г. Получено 4 ноября 2021 г.
  81. ^ Бирн, Майкл (11 ноября 2015 г.). «Google предлагает всю свою библиотеку машинного обучения как программное обеспечение с открытым исходным кодом». Vice . Архивировано из оригинала 25 января 2021 г. . Получено 11 ноября 2015 г. .

Дальнейшее чтение

Внешние ссылки