Cтраница 3
Процесс обучения когнитрона представляет собой обучение без учителя, в результате которого при получении обучающего набора входных образов сеть самоорганизуется за счет изменения весовых коэффициентов. [31]
![]() |
Программируемый логический контроллер в системе управления. [32] |
На третьем этапе CPU производит вычисление логических выражений, составляющих программу пользователя, используя в качестве аргументов состояние входных образов и внутренние переменные. Последние используются для обозначения режимов работы системы, а также отражают состояние программно-моделируемых таймеров и счетчиков. Результатом выполнения программы являются значения выходных переменных и новые значения внутренних переменных. Одновременно CPU управляет счетчиками, таймерами и обозначает новые режимы работы системы установкой или сбросом битов состояний в памяти. На четвертом этапе слово выходных воздействий выдается ( все разряды одновременно) из POI в порты вывода и поступает на входы адаптеров выходных сигналов. Далее цикл работы ПЛК воспроизводится снова. [33]
В задачах распознавания образов X - некоторое представление образа ( изображение, вектор), Y - номер класса, к которому принадлежит входной образ. [34]
Другой метод заключается в том, что вместо сравнения входного образа с эталоном классификация основывается на некотором множестве отобранных замеров, производимых на входных образах. Эти отобранные замеры, называющиеся признаками, предполагаются инвариантными и малочувствительными по отношению к обычно встречающимся изменениям и искажениям и обладающими небольшой избыточностью. В этом случае распознавание образов состоит из двух задач. [35]
Оператор понимания интимным образом связан с остальной частью нашей системы информационных процессов, и, когда он не в состоянии удовлетворить ограничениям, наложенным каким-то входным образом, он вырабатывает требования задачи для связанной с ним системы решения задач. Он образует главный компонент в языковом переводе, который мы можем рассматривать просто как особый случай более общей способности переходить от одного языка к другому среди языков для образов и символов, используемых людьми при их внутренней и внешней коммуникации. Оператор понимания позволяет нам понять смысл наблюдений Лэшли [89], когда он мог читать немецкое предложение, произнося немецкие слова, и не думать об их английских эквивалентах... Способности, обнаруживающиеся при таком поведении, являются основным камнем преткновения для тех, кто надеется адекватно описать способности человека к переводу в одних только терминах синтаксических механизмов. [36]
Полный алгоритм обучения имеет примерно такую же структуру, как в методах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов которого максимально походят на входной образ, и подстройка весов по формуле (1.27) проводится только для него. Эта, так называемая, аккредитация может сопровождаться торможением всех остальных нейронов слоя и введением выбранного нейрона в насыщение. Выбор такого нейрона может осуществляться, например, расчетом скалярного произведения вектора весовых коэффициентов с вектором входных значений. Максимальное произведение дает выигравший нейрон. [37]
Двунаправленная ассоциативная память является гетероас-социативной. Входные образы ассоциируются с выходными. [38]
Для сравнения: сеть Хопфилда является автоассоциативной. Входной образ может быть восстановлен или исправлен сетью, но не может быть ассоциирован с другим образом. В сети Хопфилда используется одноуровневая структура ассоциативной памяти, в которой выходной вектор появляется на выходе тех же нейронов, на которые поступает входной вектор. [39]
![]() |
Структура слоев неокогнитрона. [40] |
Неокогнитрон имеет иерархическую структуру, ориентированную на моделирование зрительной системы человека. Входной образ подается на первый слой и передается через плоскости, соответствующие последующим слоям, до тех пор, пока не достигнет выходного слоя, в котором идентифицируется распознаваемый образ. [41]
![]() |
Пример разбиения двумерного пространства признаков. [42] |
Наиболее простой подход к распознаванию образов заключается в сопоставлении информативных признаков с некоторыми эталонными признаками, принадлежащими различным образам. Входной образ сравнивается по заранее выбранным критериям с признаками каждого эталонного образа. [43]
Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход. Допустим, что входные образы нанесены на демонстрационные карты. Каждая карта разбита на квадраты и от каждого квадрата на персептрон подается вход. Если в квадрате имеется линия, то от него подается единица, в противном случае - ноль. Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на входы персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного. [44]
Стартуя с некоторого начального состояния 8 ( 0), век - fpp S ( i) попадает в область притяжения какого-либо аттрактора не сразу, после некоторого переходного процесса, который можно назвать раз-1 ( ышлением. Чем больше похож входной образ 8 ( 0) на какой-либо ключе-I 5Й образ, тем меньшее время необходимо нейронной сети для размыш - J ения. Соответственно, чем меньше похож предъявленный образ 8 ( 0) t ранее запомненные, тем большее время требуется нейронной сети ря принятия решения. [45]