stringtranslate.com

Искусственный нейрон

Искусственный нейрон — это математическая функция , задуманная как модель биологических нейронов в нейронной сети . Искусственные нейроны — это элементарные единицы искусственных нейронных сетей . [1] Искусственный нейрон — это функция, которая получает один или несколько входных данных, присваивает этим входным весам веса и суммирует их для получения выходных данных.

Дизайн искусственного нейрона был вдохновлен нейронной схемой . Его входы аналогичны возбуждающим постсинаптическим потенциалам и тормозным постсинаптическим потенциалам нервных дендритов , илиактивации , его веса аналогичны синаптическому весу , а его выходной сигнал аналогичен потенциалу действия нейрона,который передается по его аксону .

Обычно каждый вход взвешивается отдельно , и сумма часто добавляется к термину, известному как смещение (в общих чертах соответствующее пороговому потенциалу ), прежде чем пройти через нелинейную функцию , известную как функция активации или передаточная функция [ необходимы пояснения ] . Передаточные функции обычно имеют сигмовидную форму , но могут также принимать форму других нелинейных функций, кусочно -линейных функций или ступенчатых функций. Они также часто монотонно возрастают , непрерывны , дифференцируемы и ограничены . Недавно также были исследованы немонотонные, неограниченные и осциллирующие функции активации с несколькими нулями, которые превосходят сигмоидальные и ReLU-подобные функции активации во многих задачах. Функция определения порога вдохновила на создание логических элементов , называемых пороговой логикой; применимо для построения логических схем , напоминающих обработку мозга. Например, в последнее время для разработки такой логики широко используются новые устройства, такие как мемристоры . [2]

Передаточную функцию искусственного нейрона не следует путать с передаточной функцией линейной системы .

Простые искусственные нейроны, такие как модель Маккаллоха-Питтса, иногда называют «карикатурными моделями», поскольку они предназначены для отражения одного или нескольких нейрофизиологических наблюдений, но без учета реализма. [3] Искусственные нейроны также могут относиться к искусственным клеткам в нейроморфной инженерии (см. ниже) , которые похожи на естественные физические нейроны.

Базовая структура

Для данного искусственного нейрона k пусть имеется m  + 1 вход с сигналами от x 0 до x m и весами от w k 0 до w k m . Обычно входу x 0 присваивается значение +1, что делает его входом смещения с w k 0  =  b k . Это оставляет только m фактических входов для нейрона: от x 1 до x m .

Выходной сигнал k -го нейрона:

Где (phi) — передаточная функция (обычно пороговая функция).

Выходной сигнал аналогичен аксону биологического нейрона, и его значение распространяется на вход следующего слоя через синапс. Он также может выйти из системы, возможно, как часть выходного вектора .

У него нет процесса обучения как такового. Рассчитываются веса его передаточной функции и заранее определяется пороговое значение.

Нейрон Маккаллоха – Питтса (MCP)

В зависимости от конкретной используемой модели их можно назвать полулинейной единицей , Nv-нейроном , бинарным нейроном , линейной пороговой функцией или нейроном Мак-Каллоха-Питтса ( MCP ) . Оригинальная нейронная сеть MCP подробно описана в главе 3. [4]

Короче говоря, нейрон MCP — это ограниченный вид искусственного нейрона, работающий с дискретными временными интервалами. Каждый из них имеет ноль или более входов, и пусть они будут записаны как . Выход у него один, пусть он будет записан как . Каждый вход может быть либо возбуждающим , либо тормозящим . Выход может быть либо тихим , либо стреляющим . Также есть порог

В нейронной сети MCP все нейроны работают синхронно с дискретными временными шагами . В момент времени выходной сигнал нейрона равен, если количество активирующих возбуждающих входов по крайней мере равно порогу, и ни один тормозной вход не активируется; в противном случае.

Каждый выход может быть входом для произвольного числа нейронов, включая самого себя (то есть возможны циклы). Однако выход не может дважды соединиться с одним нейроном. Самоциклы не вызывают противоречий, поскольку сеть работает синхронно с дискретными временными шагами.

В качестве простого примера рассмотрим один нейрон с порогом 0 и одну тормозную петлю. Его выходной сигнал будет колебаться между 0 и 1 на каждом шаге, действуя как «часы».

Любой конечный автомат может быть смоделирован нейронной сетью MCP, как доказано в [4] . Оснащенные бесконечной лентой, нейронные сети MCP могут моделировать любую машину Тьюринга . [5]

Биологические модели

Нейрон и миелинизированный аксон с потоком сигналов от входов дендритов к выходам терминалей аксона.

Искусственные нейроны созданы для имитации особенностей своих биологических аналогов. Однако между биологическими и искусственными нейронными сетями существует значительный разрыв в производительности. В частности, в человеческом мозге были обнаружены одиночные биологические нейроны с осциллирующей функцией активации, способные обучаться функции XOR . [6]

Однако, в отличие от большинства искусственных нейронов, биологические нейроны активируются дискретными импульсами. Каждый раз, когда электрический потенциал внутри сомы достигает определенного порога, по аксону передается импульс. Эту пульсацию можно перевести в непрерывные значения. Скорость (активаций в секунду и т. д.), с которой срабатывает аксон, напрямую преобразуется в скорость, с которой соседние клетки получают в себя сигнальные ионы. Чем быстрее срабатывает биологический нейрон, тем быстрее близлежащие нейроны накапливают электрический потенциал (или теряют электрический потенциал, в зависимости от «веса» дендрита, который соединяется с сработавшим нейроном). Именно это преобразование позволяет ученым-компьютерщикам и математикам моделировать биологические нейронные сети с использованием искусственных нейронов, которые могут выдавать разные значения (часто от -1 до 1).

Кодирование

Исследования показали, что в нейронных цепях, отвечающих за воспроизведение пения птиц , используется унарное кодирование . [7] [8] Использование унарного кода в биологических сетях предположительно связано с присущей ему простотой кодирования. Еще одним фактором, способствующим этому, может быть то, что унарное кодирование обеспечивает определенную степень исправления ошибок. [9]

Физические искусственные клетки

Ведутся исследования и разработки в области физических искусственных нейронов – органических и неорганических.

Например, некоторые искусственные нейроны могут получать [10] [11] и выделять дофамин ( химические сигналы , а не электрические сигналы) и взаимодействовать с естественными клетками мышц и мозга крысы , что потенциально может быть использовано в BCI / протезировании . [12] [13]

Биосовместимые мемристоры малой мощности могут позволить создавать искусственные нейроны, которые функционируют при напряжениях биологических потенциалов действия и могут использоваться для непосредственной обработки биосенсорных сигналов , нейроморфных вычислений и/или прямой связи с биологическими нейронами . [14] [15] [16]

Органические нейроморфные схемы, изготовленные из полимеров и покрытые гелем, богатым ионами, позволяющим материалу переносить электрический заряд, как настоящие нейроны , были встроены в робота, что позволяет ему обучаться сенсомоторно в реальном мире, а не посредством моделирования или практически. [17] [18] Более того, искусственные шиповые нейроны, изготовленные из мягкой материи (полимеров), могут работать в биологически значимых средах и обеспечивать синергетическую связь между искусственными и биологическими доменами. [19] [20]

История

Первым искусственным нейроном был Threshold Logic Unit (TLU), или Linear Threshold Unit, [21] , впервые предложенный Уорреном МакКаллохом и Уолтером Питтсом в 1943 году. Модель была специально разработана как вычислительная модель «нервной сети» в мозге. . [22] В качестве передаточной функции использовался порог, эквивалентный использованию ступенчатой ​​функции Хевисайда . Первоначально рассматривалась только простая модель с двоичными входами и выходами, некоторыми ограничениями на возможные веса и более гибким пороговым значением. С самого начала уже было замечено, что любая логическая функция может быть реализована сетями таких устройств, что легко увидеть из того факта, что можно реализовать функции И и ИЛИ и использовать их в дизъюнктивной или конъюнктивной нормальной форме . Исследователи также вскоре поняли, что циклические сети с обратной связью через нейроны могут определять динамические системы с памятью, но большая часть исследований сосредоточилась (и до сих пор делает) на сетях строго прямой связи из-за меньших трудностей, которые они представляют.

Одной из важных и новаторских искусственных нейронных сетей, использовавших линейную пороговую функцию, был персептрон , разработанный Фрэнком Розенблаттом . Эта модель уже учитывала более гибкие значения веса в нейронах и использовалась в машинах с адаптивными возможностями. Представление пороговых значений как фактора смещения было введено Бернардом Уидроу в 1960 году – см. ADALINE .

В конце 1980-х годов, когда исследования нейронных сетей вновь набрали силу, стали рассматриваться нейроны более непрерывной формы. Возможность дифференцирования функции активации позволяет напрямую использовать градиентный спуск и другие алгоритмы оптимизации для корректировки весов. Нейронные сети также начали использоваться в качестве общей модели аппроксимации функций . Самый известный алгоритм обучения, называемый обратным распространением ошибки, был открыт несколько раз, но его первая разработка восходит к работе Пола Вербоса . [23] [24]

Виды передаточных функций

Передаточная функция ( функция активации ) нейрона выбирается так, чтобы она имела ряд свойств, которые либо улучшают, либо упрощают сеть, содержащую нейрон. Крайне важно, например, что любой многослойный персептрон , использующий линейную передаточную функцию, имеет эквивалентную однослойную сеть; Поэтому для получения преимуществ многоуровневой сети необходима нелинейная функция. [ нужна цитата ]

Ниже во всех случаях u относится к взвешенной сумме всех входных данных нейрона, т. е. для n входных данных

где w — вектор синаптических весов , а x — вектор входов.

Ступенчатая функция

Выход y этой передаточной функции является двоичным, в зависимости от того, соответствует ли вход заданному порогу θ . Посылается «сигнал», т.е. выход устанавливается на единицу, если активация соответствует пороговому значению.

Эта функция используется в персептронах и часто встречается во многих других моделях. Он выполняет деление пространства входов гиперплоскостью . Это особенно полезно на последнем уровне сети, предназначенном для двоичной классификации входных данных. Ее можно аппроксимировать на основе других сигмоидальных функций, присвоив весам большие значения.

Линейная комбинация

В этом случае выходная единица представляет собой просто взвешенную сумму ее входов плюс член смещения . Несколько таких линейных нейронов выполняют линейное преобразование входного вектора. Обычно это более полезно на первых уровнях сети. Существует ряд инструментов анализа, основанных на линейных моделях, таких как гармонический анализ , и все они могут использоваться в нейронных сетях с этим линейным нейроном. Термин смещения позволяет нам выполнять аффинные преобразования данных.

См.: Линейное преобразование , Гармонический анализ , Линейный фильтр , Вейвлет , Анализ главных компонент , Анализ независимых компонентов , Деконволюция .

сигмовидная

Довольно простая нелинейная функция, сигмовидная функция, такая как логистическая функция, также имеет легко вычисляемую производную, которая может быть важна при расчете обновлений веса в сети. Таким образом, это делает сеть более легко манипулируемой математически и было привлекательно для первых ученых-компьютерщиков, которым нужно было минимизировать вычислительную нагрузку при моделировании. Ранее это часто наблюдалось в многослойных перцептронах . Однако недавняя работа показала, что сигмовидные нейроны менее эффективны, чем выпрямленные линейные нейроны. Причина в том, что градиенты, рассчитанные алгоритмом обратного распространения ошибки , имеют тенденцию уменьшаться к нулю по мере распространения активации через слои сигмоидальных нейронов, что затрудняет оптимизацию нейронных сетей, использующих несколько слоев сигмоидальных нейронов.

выпрямитель

В контексте искусственных нейронных сетей выпрямитель или ReLU (выпрямленная линейная единица) — это функция активации , определяемая как положительная часть ее аргумента:

где x — входной сигнал нейрона. Это также известно как функция линейного изменения и аналогично полуволновому выпрямлению в электротехнике. Эта функция активации была впервые введена в динамическую сеть Ханлозером и др. в статье 2000 года в журнале Nature [25] с сильными биологическими мотивами и математическими обоснованиями. [26] Впервые в 2011 году было продемонстрировано, что он позволяет лучше обучать более глубокие сети, [27] по сравнению с широко используемыми функциями активации до 2011 года, то есть логистической сигмоидой (которая основана на теории вероятностей ; см. логистическую регрессия ) и его более практичный [28] аналог — гиперболический тангенс .

Обычно используемым вариантом функции активации ReLU является Leaky ReLU, который допускает небольшой положительный градиент, когда устройство не активно:

где x — входные данные нейрона, а a — небольшая положительная константа (в оригинальной статье для a использовалось значение 0,01 ). [29]

Алгоритм псевдокода

Ниже приведена простая реализация псевдокода одного TLU, который принимает логические входные значения (истина или ложь) и возвращает один логический выход при активации. Используется объектно -ориентированная модель. Никакой метод обучения не определен, поскольку существует несколько. Если бы использовалась чисто функциональная модель, приведенный ниже класс TLU был бы заменен функциональным TLU с порогом входных параметров, весами и входными данными, которые возвращали логическое значение.

класс TLU определяется как: пороговое значение элемента данных : число весов элементов данных : список чисел размера X член функции fire(входные данные : список логических значений размера X) : логическое значение , определенное как:  переменная T : число T  0 для каждого i от 1 до X сделать  , если inputs(i) истинно , тогда T  T + Weights(i) end if  end для каждого  , если T > порог , затем вернуть true иначе: вернуть false end, если end функция end class  

Смотрите также

Рекомендации

  1. ^ Рами А. Альзахрани; Элис С. Паркер. «Нейроморфные схемы с нейронной модуляцией, улучшающие информационное содержание нейронной сигнализации». Материалы международной конференции по нейроморфным системам 2020 . Искусство. 19. Нью-Йорк: Ассоциация вычислительной техники. дои : 10.1145/3407197.3407204 . ISBN 978-1-4503-8851-1. S2CID  220794387.
  2. ^ Маан, АК; Джаядеви, Д.А.; Джеймс, AP (1 января 2016 г.). «Обзор мемристивных пороговых логических схем». Транзакции IEEE в нейронных сетях и системах обучения . ПП (99): 1734–1746. arXiv : 1604.07121 . Бибкод : 2016arXiv160407121M. дои : 10.1109/TNNLS.2016.2547842. ISSN  2162-237Х. PMID  27164608. S2CID  1798273.
  3. ^ ФК Хоппенштадт и Э.М. Ижикевич (1997). Слабосвязанные нейронные сети . Спрингер. п. 4. ISBN 978-0-387-94948-2.
  4. ^ аб Мински, Марвин Ли (1 января 1967). Вычисления: конечные и бесконечные машины . Прентис Холл. ISBN 978-0-13-165563-8.
  5. ^ Маккалок, Уоррен С.; Питтс, Уолтер (1 декабря 1943 г.). «Логическое исчисление идей, имманентных нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. дои : 10.1007/BF02478259. ISSN  1522-9602.
  6. ^ Гидон, Альберт; Зольник, Тимоти Адам; Фидзинский, Павел; Болдуан, Феликс; Папуци, Афанасия; Poirazi, Панайота ; Хольткамп, Мартин; Вида, Имре; Ларкум, Мэтью Эван (03 января 2020 г.). «Дендритные потенциалы действия и вычисления в нейронах коры головного мозга 2/3 слоя человека». Наука . 367 (6473): 83–87. Бибкод : 2020Sci...367...83G. дои : 10.1126/science.aax6239 . PMID  31896716. S2CID  209676937.
  7. ^ Сквайр, Л.; Олбрайт, Т.; Блум, Ф.; Гейдж, Ф.; Спитцер, Н., ред. (октябрь 2007 г.). Нейросетевые модели производства, обучения и кодирования пения птиц (PDF) . Новая энциклопедия неврологии: Эльсервье. Архивировано из оригинала (PDF) 12 апреля 2015 г. Проверено 12 апреля 2015 г.
  8. ^ Мур, Дж. М.; и другие. (2011). «Конвергенция двигательных путей предсказывает размер слогового репертуара у осциновых птиц». Учеб. Натл. акад. наук. США . 108 (39): 16440–16445. Бибкод : 2011PNAS..10816440M. дои : 10.1073/pnas.1102077108 . ПМК 3182746 . ПМИД  21918109. 
  9. Потлури, Пушпа Шри (26 ноября 2014 г.). «Способность исправления ошибок унарного кодирования». arXiv : 1411.7406 [cs.IT].
  10. Кляйнер, Курт (25 августа 2022 г.). «Сделать компьютерные чипы более похожими на клетки мозга». Познаваемый журнал | Ежегодные обзоры . дои : 10.1146/knowable-082422-1 . Проверено 23 сентября 2022 г.
  11. ^ Кин, Скотт Т.; Лубрано, Клаудия; Каземзаде, Сетаре; Мелианас, Армантас; Тухман, Яаков; Полино, Джузеппина; Сконьямильо, Паола; Сина, Лусио; Саллео, Альберто; ван де Бургт, Йори; Санторо, Франческа (сентябрь 2020 г.). «Бигибридный синапс с пластичностью, опосредованной нейротрансмиттерами». Природные материалы . 19 (9): 969–973. Бибкод : 2020NatMa..19..969K. дои : 10.1038/s41563-020-0703-y. ISSN  1476-4660. PMID  32541935. S2CID  219691307.
    • Пресс-релиз университета: «Исследователи разрабатывают искусственный синапс, работающий с живыми клетками». Стэнфордский университет черезmedicalxpress.com . Проверено 23 сентября 2022 г.
  12. ^ «Искусственный нейрон заменяет дофамин клетками мозга крысы, как настоящий» . Новый учёный . Проверено 16 сентября 2022 г.
  13. ^ Ван, Тинг; Ван, Мин; Ван, Цзяньу; Ян, Ле; Рен, Сюэян; Песня, Банда; Чен, Шишэн; Юань, Юэхуэй; Лю, Жуйцин; Пан, Лян; Ли, Чжэн; Леу, Ван Ру; Ло, Ифэй; Цзи, Шаобо; Куи, Зекун; Он, Ке; Чжан, Фейлун; Лев, Фэнтин; Тянь, Юаньюань; Кай, Кайю; Ян, Боуэн; Ню, Цзинъи; Цзоу, Хаочэнь; Лю, Сонгруй; Сюй, Голян; Фань, Син; Ху, Бэньхуэй; Ло, Сиань Цзюнь; Ван, Ляньхуэй; Чен, Сяодун (8 августа 2022 г.). «Химически опосредованный искусственный нейрон» . Природная электроника . 5 (9): 586–595. дои : 10.1038/s41928-022-00803-0. hdl : 10356/163240 . ISSN  2520-1131. S2CID  251464760.
  14. ^ «Ученые создают крошечные устройства, которые работают как человеческий мозг». Независимый . 20 апреля 2020 года. Архивировано из оригинала 24 апреля 2020 года . Проверено 17 мая 2020 г.
  15. ^ «Исследователи представляют электронику, которая имитирует человеческий мозг в эффективном обучении» . физ.орг . Архивировано из оригинала 28 мая 2020 года . Проверено 17 мая 2020 г.
  16. ^ Фу, Тианда; Лю, Сяомэн; Гао, Хунъянь; Уорд, Джой Э.; Лю, Сяорун; Инь, Бин; Ван, Чжунжуй; Чжо, Е; Уокер, Дэвид Дж. Ф.; Джошуа Янг, Дж.; Чен, Цзяньхан; Ловли, Дерек Р.; Яо, Цзюнь (20 апреля 2020 г.). «Биоинспирированные мемристоры бионапряжения». Природные коммуникации . 11 (1): 1861. Бибкод : 2020NatCo..11.1861F. дои : 10.1038/s41467-020-15759-y . ПМК 7171104 . ПМИД  32313096. 
  17. ^ Болахе, Саугат. «Робот Lego с органическим «мозгом» учится перемещаться по лабиринту». Научный американец . Проверено 1 февраля 2022 г.
  18. ^ Краухаузен, Имке; Куцурас, Димитриос А.; Мелианас, Армантас; Кин, Скотт Т.; Либерт, Катарина; Ледансер, Адриен; Шиламантула, Раджендар; Джованнитти, Александр; Торричелли, Фабрицио; Маккаллох, Иэн; Блом, Пол ВМ; Саллео, Альберто; Бургт, Йори ван де; Гкупиденис, Пасхалис (декабрь 2021 г.). «Органическая нейроморфная электроника для сенсомоторной интеграции и обучения робототехнике». Достижения науки . 7 (50): eabl5068. Бибкод : 2021SciA....7.5068K. doi : 10.1126/sciadv.abl5068. hdl : 10754/673986. ПМЦ 8664264 . PMID  34890232. S2CID  245046482. 
  19. ^ Саркар, Танмой; Либерт, Катарина; Павлу, Аристея; Фрэнк, Томас; Майлендер, Волкер; Маккалок, Иэн; Блом, Пол ВМ; Торричелли, Фабрицио; Гкупиденис, Пасхалис (7 ноября 2022 г.). «Органический искусственный импульсный нейрон для нейроморфного зондирования in situ и биоинтерфейса». Природная электроника . 5 (11): 774–783. дои : 10.1038/s41928-022-00859-y . hdl : 10754/686016 . ISSN  2520-1131. S2CID  253413801.
  20. ^ «Искусственные нейроны имитируют биологические аналоги, обеспечивая синергетическое действие» . Природная электроника . 5 (11): 721–722. 10 ноября 2022 г. doi : 10.1038/s41928-022-00862-3. ISSN  2520-1131. S2CID  253469402.
  21. ^ Мартин Энтони (январь 2001 г.). Дискретная математика нейронных сетей: избранные темы. СИАМ. стр. 3–. ISBN 978-0-89871-480-7.
  22. Чару К. Аггарвал (25 июля 2014 г.). Классификация данных: алгоритмы и приложения. ЦРК Пресс. стр. 209–. ISBN 978-1-4665-8674-1.
  23. ^ Пол Вербос , За пределами регрессии: новые инструменты прогнозирования и анализа в поведенческих науках. Докторская диссертация, Гарвардский университет, 1974 г.
  24. ^ Вербос, П.Дж. (1990). «Обратное распространение ошибки во времени: что оно делает и как это сделать». Труды IEEE . 78 (10): 1550–1560. дои : 10.1109/5.58337. ISSN  0018-9219. S2CID  18470994.
  25. ^ Ханлозер, Ричард HR; Сарпешкар, Рахул; Маховальд, Миша А.; Дуглас, Родни Дж.; Сын, Х. Себастьян (2000). «Цифровая селекция и аналоговое усиление сосуществуют в кремниевой схеме, основанной на коре головного мозга». Природа . 405 (6789): 947–951. Бибкод : 2000Natur.405..947H. дои : 10.1038/35016072. ISSN  0028-0836. PMID  10879535. S2CID  4399014.
  26. ^ Р. Ханлозер; Х. С. Сын (2001). Разрешенные и запрещенные множества в симметричных порогово-линейных сетях . НИПС 2001.
  27. ^ Ксавье Глорот; Антуан Борд; Йошуа Бенджио (2011). Нейронные сети с глубоким разреженным выпрямителем (PDF) . АЙСТАТС.
  28. ^ Янн ЛеКун ; Леон Ботту ; Женевьева Б. Орр; Клаус-Роберт Мюллер (1998). «Эффективный BackProp» (PDF) . У Г. Орра; К. Мюллер (ред.). Нейронные сети: хитрости . Спрингер.
  29. ^ Эндрю Л. Маас, Ауни Ю. Ханнун, Эндрю Ю. Нг (2014). Нелинейность выпрямителя улучшает акустические модели нейронных сетей.

дальнейшее чтение

Внешние ссылки