Cтраница 3
По умолчанию устанавливается алгоритм Online Backprop - алгоритм обучения по методу обратного распространения ошибки в режиме реального времени - модификация алгоритма обучения по методу обратного распространения ошибки, когда веса и смещения сети корректируются после предъявления каждого нового образа ( вектора) обучающей выборки. [31]
Разработана программа, которая основывается на нейронно-сетевом методе и использует алгоритм обратного распространения ошибки ( back propagation), при котором сигнал ошибки на выходе нейронной сети распространяется в обратном направлении: от нейронов выходного слоя к нейронам входного слоя с последующей корректировкой синаптических весов нейронной сети для достижения минимальной выходной погрешности. Таким образом, подавая на вход совокупность из ложных и истинных сигналов, путем обработки их с помощью алгоритма обратного распространения, мы получаем на выходе только истинные. Программа реализована на языке программирования Delphy, имеет удобный графический интерфейс и позволяет подавать данные на входной слой нейронов через клавиатуру. [32]
Используя далее тот же подход, как и при выводе алгоритма обратного распространения ошибки ( см. разд. [33]
Экспериментальные исследования показывают [24], что введение момента ускоряет сходимость алгоритма обратного распространения ошибки. [34]
Легко заметить, что модифицированный ( с учетом момента) алгоритм обратного распространения ошибки работает в несколько раз быстрее традиционного алгоритма, тогда как применение алгоритма RLS позволяет увеличить эту скорость еще на порядок. [35]
Схема искусственного нейрона. [36] |
Самой популярной из них является back propagation - архитектура сети с обратным распространением ошибки. Сети этого типа могут работать как с двоичными, так и с десятичными данными и могут быть использованы для решения более широкого, чем у других сетей, круга задач. [37]
Существуют различные алгоритмы обучения нейронных сетей, одним из наиболее популярных является алгоритм обратного распространения ошибки ( Backpropagation, BP), в современном виде разработанный в Массачусетском технологическом институте и являющийся по существу методом градиентного спуска. [38]
Модель для Австралии. Целевая и описательные переменные. [39] |
Использовалась классическая 10 - 3 - 1 сеть с прямой связью и алгоритмом обратного распространения ошибки. Сеть имела 10 входных узлов, 3 узла в скрытом слое и выходной слой, состоящий из одного узла. [40]
В качестве примера можно привести три программы, в которых реализован алгоритм обучения обратного распространения ошибки. [41]
Схема искусственного нейрона. [42] |
Самой популярной из них является back ргора § а1юп - архитектура сети с обратным распространением ошибки. Сети этого типа могут работать как с двоичными, так и с десятичными данными и могут быть использованы для решения более широкого, чем у других сетей, круга задач. [43]
Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок. [44]
В последующих разделах обсуждаются различные модули нечеткого управления, для обучения которых применяется алгоритм обратного распространения ошибки. [45]