Метод - обратное распространение - ошибка - Большая Энциклопедия Нефти и Газа, статья, страница 1
Если человек знает, чего он хочет, значит, он или много знает, или мало хочет. Законы Мерфи (еще...)

Метод - обратное распространение - ошибка

Cтраница 1


Метод обратного распространения ошибок использует детерминированный алгоритм оптимизации при поиске требуемых весовых коэффициентов связей. Ввиду этого имеется опасность, что при движении строго вниз по градиенту функции ошибки Е будет достигнут какой-то из локальных минимумов этой функции и процесс обучения приостановится, не найдя истинного решения. Если ошибка остается значительной, часто достаточно добавить еще несколько элементов. В результате размерность пространства весовых коэффициентов возрастает и возникают пути обхода барьеров, отделяющих плохие локальные минимумы в подпространстве более низкой размерности.  [1]

Метод обратного распространения ошибки по своей идее близок к методу градиентного спуска.  [2]

Обучение сети производится методом обратного распространения ошибки.  [3]

Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок.  [4]

5 Многослойная нейронная сеть. [5]

Алгоритмы (2.60) и (2.63) положены в основу метода обратного распространения ошибки, который подробно описывается в следующем разделе.  [6]

Нейронные сети с прямой связью и обучением методом обратного распространения ошибки рассматриваются в литературе чаще других. Кроме них, существует много других сетевых моделей, некоторые из которых имеют вычурные названия: конкурентное обучение ( или адаптивная теория резонанса), сети Хопфилда, машины Больцмана, самоорганизующиеся карты признаков Кохонена.  [7]

8 Нечеткое правило адаптации темпа обучения нейронной сети. [8]

Существует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия - достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки.  [9]

Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок.  [10]

Реализована только одна нейронная парадигма - многослойная нейронная сеть и только один алгоритм ее обучения - метод обратного распространения ошибки. Лишний балл добавлен за большое количество параметров настройки алгоритма обучения.  [11]

Из выражения (2.139) удаляется значение ошибки прогнозирования ( невязки), затем отдельно для каждого выхода применяется метод обратного распространения ошибки.  [12]

13 Динамика генетического алгоритма. [13]

Проектирование НС заключается в задании ее топологии и определении ее параметров на основе обучающей последовательности. Обычно используемая градиентная процедура обучения ( например, метод обратного распространения ошибки) накладывает жесткие ограничения на способ функционирования сети.  [14]

В этом случае их состояния вычисляются последовательно, начиная от входного слоя к выходному. Для сетей интервальных нейронов может быть построено обобщение метода обратного распространения ошибки, описание которого выходит за рамки нашего курса.  [15]



Страницы:      1    2