Персептрон - Большая Энциклопедия Нефти и Газа, статья, страница 4
Мы медленно запрягаем, быстро ездим, и сильно тормозим. Законы Мерфи (еще...)

Персептрон

Cтраница 4


46 Персептрон со многими выходами. [46]

Рассмотрим в качестве примера трехнейронный персептрон ( рис. 2.4), нейроны которого имеют активационную функцию в виде единичного скачка.  [47]

На рис. 2.5 представлен двухслойный персептрон, образованный из однослойного добавлением второго слоя, состоящего из двух нейронов.  [48]

На этом первом шаге двухслойный персептрон тренируется на обучающем наборе вплоть до получения достаточной точности классификации.  [49]

50 Персептрон со многими выходами. [50]

Рассмотрим в качестве примера трехнейронный персептрон ( рис. 2.16), нейроны которого имеют активационную функцию в виде единичного скачка.  [51]

52 Двухслойный персептрон. [52]

На рис. 2.17 представлен двухслойный персептрон, полученный из персептрона с рис. 2.16 путем добавления второго слоя, состоящего из двух нейронов.  [53]

Полная многослойная сеть типа аналоговый персептрон наиболее полно соответствует требованиям, предъявляемым к устройствам обработки данных, поступающих от распределенных волоконно-оптических измерительных сетей.  [54]

Различают два режима функционирования персептрона с обобщенным а-законом поощрения. Первый режим, называемый режимом обучения, состоит в поощрении ( увеличении веса на величину а) всех возбужденных нейронов того образа, которому принадлежит рассматриваемое на данном шаге изображение, и в оштрафовании ( уменьшении веса на величину Ь) всех возбужденных нейронов остальных образов. Ясно, что указание правильного образа, которому принадлежит данное изображение, должно осуществляться человеком-учителем, ибо только ему известна исходная априорная классификация изображений.  [55]

При построении теории обучения персептронов приходится рассматривать так называемые обучающие последовательности и классы обучающих последовательностей.  [56]

В классическом алгоритме обучения персептрона не используются предположения относительно распределений примеров обучающих выборок, а рассматривается функция ошибки. Этот алгоритм работает более устойчиво, если входные сигналы формируются в результате нелинейных процессов и распределены несимметрично и не по гауссову закону.  [57]

Как известно, возможности персептрона ограничены бинарными выходами.  [58]



Страницы:      1    2    3    4