Cтраница 2
Входной слой перцептрона служит лишь для приема и ретрансляции входных сигналов на нейроны скрытого слоя. В скрытых слоях происходит основное нелинейное преобразование информации, а выходной слой осуществляет суперпозицию взвешенных сигналов последнего из скрытых слоев. [16]
Контролируемое обучение ИНС. [17] |
Под обучением перцептрона понимают целенаправленный процесс изменения значений весов межслойных синаптических связей, итеративно повторяемый до тех пор, пока сеть не приобретет необходимые свойства. [18]
Алгоритм обучения перцептрона включает следующие шаги. [19]
Блок-схема алгоритма потенциальных функций. [20] |
На принципе перцептрона основан алгоритм программы Про-гноз - 73, разработанный одним из авторов этой книги и Устрайхом. [21]
При работе перцептрона в режиме обучения на рецепторное поле накладывается картинка с изображением, о котором известно, к какому классу оно принадлежит. При этом создается определенное распределение давлений на поле, срабатывают некоторые пороговые элементы, открывая выходы своих счетчиков. Сигналы от последних поступают на обегающее устройство, которое последовательно подключает их к входу интеграторов. Каждый из интеграторов ( на описанной схеме были показаны два интегратора, так как деление производится на два класса) суммирует свои - коэффициенты, и после окончания процесса обегания результаты интегрирования сравниваются. Считается, что перцептрон правильно опознал образ, если интегратор соответствующий классу, к которому относится данный образ, накопил большую сумму. [22]
Входное устройство перцептрона называется рецептором, a era реакцию на появление ( возникновение) оригинала называют и з о-бражемием. [23]
Блок-схема перцептрона. [24] |
Ассоциирующая система перцептрона имеет память. Запоминающее устройство может быть представлено отдельным блоком, либо распределено по элементам ассоциирующей системы. В запоминающем устройстве хранятся либо эталонные образы объектов, либо наборы признаков, сравнение с каждым из которых определяет принадлежность объекта к тому или иному классу. [25]
При конструировании перцептронов возникают сложные теоретические вопросы. Эти вопросы решает теория автоматического опознания образов, являющаяся разделом кибернетики, занимающаяся анализом информационно-логических процессов, происходящих в перцептронах, и разработкой принципов построения и реализации алгоритмов, описывающих процессы опознания. [26]
Воспринимающим органом квазизрительного перцептрона является рецепторное устройство, или сетчатка, состоящая из единичных фогорецепторов. Отображение оригинала на сетчатке называют изображением; оно может быть полным, силуэтным и контурным. Относительно полного ахроматического изображения следует сказать, что с помощью специальной аппаратуры оно всегда может быть переведено в контурное. [27]
Нейронные сети типа многослойный перцептрон являются одними из наиболее перспективных оптических вычислительных систем, поскольку позволяют производить обработку массивов световых сигналов за один проход. Ключевым моментом в создании таких нейронных сетей является установление связей с определенными весами между нейронами в слоях. Физическая реализация осуществления связей между нейронами такой сети представляет собой вектор-матричное произведение. [28]
В случае ошибки перцептрона оператор подает сигнал поощрения, при котором числа, накопленные счетчиками ( - коэффициенты), относящимися к классу показанного образа, получают дополнительные приращения. Обучение производится на некотором конечном числе образов, которые показываются в различном порядке до тех пор, пока накопленные К не позволят безошибочно опознавать любой из этих образов. [29]
В основу действия перцептрона положены сформулированные Розенблатом теоремы, в соответствии с которыми функция памяти человека распределена случайным образом среди большого количества одинаковых ассоциирующих элементов и начальная неопределенность организации мозга при рождении очень велика, мыслящий организм вырабатывает понятия и алгоритм своих действий в окружающей обстановке в результате обучения и накопления опыта. [30]