Обратное распространение - ошибка - Большая Энциклопедия Нефти и Газа, статья, страница 2
Есть люди, в которых живет Бог. Есть люди, в которых живет дьявол. А есть люди, в которых живут только глисты. (Ф. Раневская) Законы Мерфи (еще...)

Обратное распространение - ошибка

Cтраница 2


Наиболее распространенным алгоритмом обучения является алгоритм обратного распространения ошибки.  [16]

Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок.  [17]

При обучении возможно только менять параметры алгоритма обратного распространения ошибки.  [18]

В этом сеть значительно уступает сетям с обратным распространением ошибки.  [19]

Нейронные сети с прямой связью и обучением методом обратного распространения ошибки рассматриваются в литературе чаще других. Кроме них, существует много других сетевых моделей, некоторые из которых имеют вычурные названия: конкурентное обучение ( или адаптивная теория резонанса), сети Хопфилда, машины Больцмана, самоорганизующиеся карты признаков Кохонена.  [20]

Рекуррентная сеть не может быть обучена стандартным методом обратного распространения ошибки. NeuroSolutions содержит модификацию этого алгоритма, позволяющую проводить обучение динамической сети. Нейроны выходного слоя обычно имеют линейную передаточную функцию. Такой выбор обусловлен стремлением воспроизвести волновую форму выходного сигнала. Нелинейности могут вызвать получение недопустимых значений в экстремальных точках и привести к ошибкам. Для нейронов входного слоя и скрытых слоев, как правило, подбираются нелинейные активационные функции. В процессе решения задачи определяется объем обучающей и тестирующей выборки, в удобном режиме конструируется архитектура сети ( количество скрытых слоев, число нейронов), выбирается вид активационных функций, способ и параметры обучения.  [21]

22 Многослойная нейронная сеть. [22]

Алгоритмы (2.60) и (2.63) положены в основу метода обратного распространения ошибки, который подробно описывается в следующем разделе.  [23]

Рассмотрим один из самых распространенных алгоритмов обучения - алгоритм обратного распространения ошибки.  [24]

Пакет предназначен для построения многослойных нейронных сетей с алгоритмом обучения обратного распространения ошибки. Он включает в себя программу подготовки и анализа исходных данных NetMaker, программу построения, обучения и запуска нейронных сетей BrainMaker, а также набор утилит широкого назначения.  [25]

26 Нечеткое правило адаптации темпа обучения нейронной сети. [26]

Существует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия - достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки.  [27]

С целью ускорения процесса обучения сети предложены многочисленные модификации алгоритма обратного распространения ошибки, связанные с использованием различных функций ошибки, процедур определения направления и величин шага.  [28]

Имеется процедура обучения второй нейронной сети, основанная на методе обратного распространения ошибки. Если первая нейронная сеть оптимизируется только эволюционным путем, то вторая - как посредством эволюции, так и путем индивидуального обучения.  [29]

Кроме рассмотренных выше многослойных нейронных сетей, обучаемых по алгоритму обратного распространения ошибки, известно много разновидностей специфических нейронных сетей, реализующих различные свойства биологических систем и, прежде всего, свойства ассоциативной памяти.  [30]



Страницы:      1    2    3    4