Cтраница 1
Метод обратного распространения ошибок использует детерминированный алгоритм оптимизации при поиске требуемых весовых коэффициентов связей. Ввиду этого имеется опасность, что при движении строго вниз по градиенту функции ошибки Е будет достигнут какой-то из локальных минимумов этой функции и процесс обучения приостановится, не найдя истинного решения. Если ошибка остается значительной, часто достаточно добавить еще несколько элементов. В результате размерность пространства весовых коэффициентов возрастает и возникают пути обхода барьеров, отделяющих плохие локальные минимумы в подпространстве более низкой размерности. [1]
Метод обратного распространения ошибки по своей идее близок к методу градиентного спуска. [2]
Обучение сети производится методом обратного распространения ошибки. [3]
Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок. [4]
Многослойная нейронная сеть. [5] |
Алгоритмы (2.60) и (2.63) положены в основу метода обратного распространения ошибки, который подробно описывается в следующем разделе. [6]
Нейронные сети с прямой связью и обучением методом обратного распространения ошибки рассматриваются в литературе чаще других. Кроме них, существует много других сетевых моделей, некоторые из которых имеют вычурные названия: конкурентное обучение ( или адаптивная теория резонанса), сети Хопфилда, машины Больцмана, самоорганизующиеся карты признаков Кохонена. [7]
Нечеткое правило адаптации темпа обучения нейронной сети. [8] |
Существует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия - достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки. [9]
Для обучения блока поведения применялся вариант метода обратного распространения ошибки, названный комплементарным методом обратного распространения ошибки. Ошибка на выходе каждого нейрона блока поведения определяется по выходу данного нейрона и сигналу обучения от блока оценки действий. В соответствии с ошибками на выходах нейронов корректируются веса синапсов нейронов, аналогично тому, как это происходит в обычном методе обратного распространения ошибок. [10]
Реализована только одна нейронная парадигма - многослойная нейронная сеть и только один алгоритм ее обучения - метод обратного распространения ошибки. Лишний балл добавлен за большое количество параметров настройки алгоритма обучения. [11]
Из выражения (2.139) удаляется значение ошибки прогнозирования ( невязки), затем отдельно для каждого выхода применяется метод обратного распространения ошибки. [12]
Динамика генетического алгоритма. [13] |
Проектирование НС заключается в задании ее топологии и определении ее параметров на основе обучающей последовательности. Обычно используемая градиентная процедура обучения ( например, метод обратного распространения ошибки) накладывает жесткие ограничения на способ функционирования сети. [14]
В этом случае их состояния вычисляются последовательно, начиная от входного слоя к выходному. Для сетей интервальных нейронов может быть построено обобщение метода обратного распространения ошибки, описание которого выходит за рамки нашего курса. [15]