Математическое представление взаимосвязанной сети нейронов или клеток.
Случайная нейронная сеть ( RNN ) [1] — это математическое представление взаимосвязанной сети нейронов или клеток , которые обмениваются пиковыми сигналами . Она была изобретена Эролом Геленбе и связана с моделью G-сети сетей очередей, а также с моделями сети регуляции генов. Каждое состояние клетки представлено целым числом, значение которого увеличивается, когда клетка получает возбуждающий пик, и уменьшается, когда она получает тормозящий пик. Шипы могут возникать вне самой сети или они могут исходить от других клеток в сетях. Клетки, внутреннее возбуждающее состояние которых имеет положительное значение, могут посылать шипы любого типа другим клеткам в сети в соответствии с определенными зависящими от клетки скоростями пиков. Модель имеет математическое решение в стационарном состоянии, которое обеспечивает совместное распределение вероятностей сети с точки зрения индивидуальных вероятностей того, что каждая клетка возбуждена и способна посылать шипы. Вычисление этого решения основано на решении набора нелинейных алгебраических уравнений , параметры которых связаны с частотой всплесков отдельных клеток и их связью с другими клетками, а также с частотой поступления всплесков извне сети. RNN — это рекуррентная модель, т. е. нейронная сеть, которой разрешено иметь сложные циклы обратной связи. [2]
Кришна Палем и др. продемонстрировали высокоэнергетическую реализацию случайных нейронных сетей с использованием вероятностной технологии КМОП или PCMOS , которая оказалась примерно в 226–300 раз эффективнее с точки зрения соотношения «энергия-производительность-продукт». [3]
RNN также связаны с искусственными нейронными сетями , которые (как и случайные нейронные сети) имеют алгоритмы обучения на основе градиента . Алгоритм обучения для случайной нейронной сети с n-узлами, которая включает в себя петли обратной связи (это также рекуррентная нейронная сеть ), имеет вычислительную сложность O(n^3) (количество вычислений пропорционально кубу n, количеству нейронов). Случайная нейронная сеть также может использоваться с другими алгоритмами обучения, такими как обучение с подкреплением . Было показано, что RNN является универсальным аппроксиматором для ограниченных и непрерывных функций .
Смотрите также
Ссылки и источники
- Ссылки
- ^ Эрол Геленбе. «Случайные нейронные сети с отрицательными и положительными сигналами и решение в виде продукта». Neural Computation, т. 1, № 4, стр. 502-510, 1989, MIT Press.
- ^ Эрол Геленбе. «Обучение в рекуррентной случайной нейронной сети» (PDF) . Neural Computation, т. 5, № 1, стр. 154–164, 1993, MIT Press.
- ^ Лакшми Н. Чакрапани; Бильге Э.С. Акгуль; Суреш Чемалавагу; Пинар Коркмаз; Кришна В. Палем; Баласубраманиан Сешасаи. «Сверхэффективные встраиваемые архитектуры SOC на основе вероятностной технологии CMOS (PCMOS)». Конференция по автоматизации проектирования и испытаний в Европе (DATE), 2006 г.
- Источники
- Э. Геленбе, Случайные нейронные сети с отрицательными и положительными сигналами и решение в форме произведения, Neural Computation, т. 1, № 4, стр. 502–511, 1989.
- Э. Геленбе, Устойчивость модели случайной нейронной сети, Neural Computation, т. 2, № 2, стр. 239–247, 1990.
- Э. Геленбе, А. Стафилопатис и А. Ликас, Ассоциативная работа памяти модели случайной сети, в Трудах Международной конференции по искусственным нейронным сетям, Хельсинки, стр. 307–312, 1991.
- Э. Геленбе, Ф. Батти, Минимальное покрытие графа с помощью случайной нейронной сети, Computer Science and Operations Research, O. Balci (ред.), Нью-Йорк, Pergamon, стр. 139–147, 1992.
- Э. Геленбе, Обучение в рекуррентной случайной нейронной сети, Neural Computation, т. 5, № 1, стр. 154–164, 1993.
- Э. Геленбе, В. Куби, Ф. Пекергин, Динамический случайный нейронный сетевой подход к задаче коммивояжера, Proc. IEEE Symp. Syst., Man, Cybern., стр. 630–635, 1993.
- Э. Геленбе, К. Крамер, М. Сунгур, П. Геленбе «Трафик и качество видео при адаптивном нейронном сжатии», Мультимедийные системы , 4, 357–369, 1996.
- C. Cramer, E. Gelenbe, H. Bakircioglu Сжатие видео с низкой скоростью передачи данных с помощью нейронных сетей и временной субдискретизации, Труды IEEE, т. 84, № 10, стр. 1529–1543, октябрь 1996 г.
- Э. Геленбе, Т. Фенг, К. Р. Р. Кришнан Нейросетевые методы для объемной магнитно-резонансной томографии человеческого мозга, Труды IEEE, т. 84, № 10, стр. 1488–1496, октябрь 1996 г.
- Э. Геленбе, А. Ганвани, В. Шринивасан, «Улучшенная нейронная эвристика для многоадресной маршрутизации», IEEE J. Selected Areas in Communications , 15, (2), 147–155, 1997.
- E. Gelenbe, ZH Mao и YD Li, «Аппроксимация функций с помощью случайной нейронной сети», IEEE Trans. Neural Networks , 10, (1), январь 1999 г. [ нужна страница ]
- Э. Геленбе, Дж. М. Фурно «Случайные нейронные сети с несколькими классами сигналов», Neural Computation , 11, 721–731, 1999.
- Угур Халичи «Обучение с подкреплением и внутренним ожиданием для случайной нейронной сети», Европейский журнал операционных исследований 126 (2): 288–307, 2000.
- Аристидис Ликас, Андреас Стафилопатис «Обучение случайной нейронной сети с использованием квазиньютоновских методов», Европейский журнал операционных исследований 126 (2): 331–339, 2000.
- Самир Мохамед, Херардо Рубино, Мартин Варела «Оценка производительности речи в реальном времени через пакетную сеть: подход на основе случайных нейронных сетей», Perform. Eval. 57 (2): 141–161, 2004.
- Э. Геленбе, З.-Х. Мао и Й. Д. Ли «Аппроксимация функций случайными нейронными сетями с ограниченным числом слоев», «Дифференциальные уравнения и динамические системы», 12 (1&2), 143–170, январь-апрель 2004 г.
- Херардо Рубино, Пьер Тирилли, Мартин Варела «Оценка удовлетворенности пользователей в пакетных сетях с использованием случайных нейронных сетей», ICANN (1) 2006: 303–312, 2006.
- Гюлай Ок и Георгиос Лукас. Детектор отказа в обслуживании на основе обнаружения максимального правдоподобия и случайной нейронной сети. Computer Journal, 50(6):717–727, ноябрь 2007 г.
- S. Timotheou. Обучение методом неотрицательных наименьших квадратов для случайной нейронной сети. В трудах 18-й Международной конференции по искусственным нейронным сетям, Прага, Чешская Республика, страницы 195–204, 2008.
- S. Timotheou. Новый метод инициализации веса для случайной нейронной сети. В Пятом международном симпозиуме по нейронным сетям (ISNN), Пекин, Китай, 2008.
- Стелиос Тимотеу. «Случайная нейронная сеть: обзор», Comput. J. 53 (3): 251–267, 2010.
- Педро Касас, Сандрин Ватон. «Об использовании случайных нейронных сетей для оценки матрицы трафика в крупномасштабных IP-сетях», IWCMC 2010: 326–330, 2010.
- S. Basterrech, G. Rubino, «Случайная нейронная сеть как инструмент контролируемого обучения», Neural Network World, 25(5), 457-499, doi :10.14311/NNW.2015.25.024, 2015.
- S. Basterrech, S. Mohamed, G. Rubino, M. Soliman. «Алгоритмы обучения Левенберга-Марквардта для случайных нейронных сетей», Computer Journal, 54 (1), 125–135, 2011.
- Майкл Георгиопоулос, Конг Ли и Таскин Кочак. «Обучение в случайной нейронной сети прямого распространения: критический обзор», Оценка производительности, 68 (4): 361–384, 2011.