Cтраница 1
![]() |
Двухслойная сеть обратного распространения ( s - желаемый сигнал. [1] |
Процедура обратного распространения применима к сетям с любым числом слоев. Однако для того, чтобы продемонстрировать алгоритм, достаточно двух слоев. Сейчас будут рассматриваться лишь сети прямого действия, хотя обратное распространение применимо и к сетям с обратными связями. Эти случаи будут рассмотрены в данной главе позднее. [2]
Рассмотренный алгоритм обучения нейронной сети с помощью процедуры обратного распространения подразумевает наличие некоего внешнего звена, предоставляющего сети кроме входных также и целевые выходные образы. [3]
Таким образом, полный алгоритм обучения нейронной сети с помощью процедуры обратного распространения строится следующим образом. [4]
На рис. 3.3 изображена многослойная сеть, которая может обучаться с помощью процедуры обратного распространения. Для ясности рисунок упрощен. Первый слой нейронов ( соединенный с входами) служит лишь в качестве распределительных точек, суммирования входов здесь не производится. Входной сигнал просто проходит через них к весам на их выходах. А каждый нейрон последующих слоев выдает сигналы NET и OUT, как описано выше. [5]
![]() |
Активационная функция. [6] |
На рис. 6.19 изображена многослойная сеть, которая может обучаться при помощи процедуры обратного распространения. [7]
![]() |
Активационная функция. [8] |
На рис, 1.35 изображена многослойная сеть, которая может обучаться при помощи процедуры обратного распространения. [9]
![]() |
Структура простейшего нечеткого регулятора. [10] |
В гибридных системах с замещением берется главная модель, один из элементов которой замешается другой моделью, например, а) перерасчет весов в процедуре обратного распространения производится с помощью генетического алгоритма; б) подбор функций принадлежности в нечетком регуляторе осуществляется с использованием генетического алгоритма. В гибридных системах со взаимодействием используются независимые модули, которые обмениваются информацией и выполняют различные функции с целью получения общего решения. К примеру, если решаемая задача включает распознавание образов, вывод и оптимизацию, то эти функции берут на себя нейронные сети, экспертные системы и генетические алгоритмы. В полиморфных гибридных системах одна модель применяется для имитации функционирования другой модели. [11]
При проектировании архитектуры нейронной сети необходимо определить число слоев нейронов и количество нейронов в каждом слое. Процедура обратного распространения применима к сетям с любым числом слоев, но традиционно рассматриваются сети, содержащие входной, выходной и скрытый слой. Число нейронов в выходном и входном слоях определяется соответственно количеством выходов и входов системы. В общем случае, чем меньше нейронов в выходном слое, тем быстрее сеть обучается. Число нейронов в скрытом слое и число скрытых слоев определяется прикладной задачей, но чаще всего подбирается методом проб и ошибок. Чем сложнее связь между входными и выходными переменными, тем большее число нейронов в скрытом слое необходимо предусмотреть. [12]
При проектировании архитектуры нейронной сети необходимо определить число слоев нейронов и количество нейронов в каждом слое. Процедура обратного распространения применима к сетям с любым числом слоев, но традиционно рассматриваются сети, содержащие входной, выходной и скрытый слой. Число нейронов в выходном и входном слоях определяется соответственно количеством выходов и входов системы. В общем случае, чем меньше нейронов в выходном слое, тем быстрее сеть обучается. [13]
Он имеет солидное математическое обоснование. Несмотря на некоторые ограничения, процедура обратного распространения сильно расширила область проблем, в которых могут быть использованы искусственные нейронные сети, и убедительно продемонстрировала свою мощь. [14]