Входной образ - Большая Энциклопедия Нефти и Газа, статья, страница 3
Если мужчина никогда не лжет женщине, значит, ему наплевать на ее чувства. Законы Мерфи (еще...)

Входной образ

Cтраница 3


Процесс обучения когнитрона представляет собой обучение без учителя, в результате которого при получении обучающего набора входных образов сеть самоорганизуется за счет изменения весовых коэффициентов.  [31]

32 Программируемый логический контроллер в системе управления. [32]

На третьем этапе CPU производит вычисление логических выражений, составляющих программу пользователя, используя в качестве аргументов состояние входных образов и внутренние переменные. Последние используются для обозначения режимов работы системы, а также отражают состояние программно-моделируемых таймеров и счетчиков. Результатом выполнения программы являются значения выходных переменных и новые значения внутренних переменных. Одновременно CPU управляет счетчиками, таймерами и обозначает новые режимы работы системы установкой или сбросом битов состояний в памяти. На четвертом этапе слово выходных воздействий выдается ( все разряды одновременно) из POI в порты вывода и поступает на входы адаптеров выходных сигналов. Далее цикл работы ПЛК воспроизводится снова.  [33]

В задачах распознавания образов X - некоторое представление образа ( изображение, вектор), Y - номер класса, к которому принадлежит входной образ.  [34]

Другой метод заключается в том, что вместо сравнения входного образа с эталоном классификация основывается на некотором множестве отобранных замеров, производимых на входных образах. Эти отобранные замеры, называющиеся признаками, предполагаются инвариантными и малочувствительными по отношению к обычно встречающимся изменениям и искажениям и обладающими небольшой избыточностью. В этом случае распознавание образов состоит из двух задач.  [35]

Оператор понимания интимным образом связан с остальной частью нашей системы информационных процессов, и, когда он не в состоянии удовлетворить ограничениям, наложенным каким-то входным образом, он вырабатывает требования задачи для связанной с ним системы решения задач. Он образует главный компонент в языковом переводе, который мы можем рассматривать просто как особый случай более общей способности переходить от одного языка к другому среди языков для образов и символов, используемых людьми при их внутренней и внешней коммуникации. Оператор понимания позволяет нам понять смысл наблюдений Лэшли [89], когда он мог читать немецкое предложение, произнося немецкие слова, и не думать об их английских эквивалентах... Способности, обнаруживающиеся при таком поведении, являются основным камнем преткновения для тех, кто надеется адекватно описать способности человека к переводу в одних только терминах синтаксических механизмов.  [36]

Полный алгоритм обучения имеет примерно такую же структуру, как в методах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов которого максимально походят на входной образ, и подстройка весов по формуле (1.27) проводится только для него. Эта, так называемая, аккредитация может сопровождаться торможением всех остальных нейронов слоя и введением выбранного нейрона в насыщение. Выбор такого нейрона может осуществляться, например, расчетом скалярного произведения вектора весовых коэффициентов с вектором входных значений. Максимальное произведение дает выигравший нейрон.  [37]

Двунаправленная ассоциативная память является гетероас-социативной. Входные образы ассоциируются с выходными.  [38]

Для сравнения: сеть Хопфилда является автоассоциативной. Входной образ может быть восстановлен или исправлен сетью, но не может быть ассоциирован с другим образом. В сети Хопфилда используется одноуровневая структура ассоциативной памяти, в которой выходной вектор появляется на выходе тех же нейронов, на которые поступает входной вектор.  [39]

40 Структура слоев неокогнитрона. [40]

Неокогнитрон имеет иерархическую структуру, ориентированную на моделирование зрительной системы человека. Входной образ подается на первый слой и передается через плоскости, соответствующие последующим слоям, до тех пор, пока не достигнет выходного слоя, в котором идентифицируется распознаваемый образ.  [41]

42 Пример разбиения двумерного пространства признаков. [42]

Наиболее простой подход к распознаванию образов заключается в сопоставлении информативных признаков с некоторыми эталонными признаками, принадлежащими различным образам. Входной образ сравнивается по заранее выбранным критериям с признаками каждого эталонного образа.  [43]

Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход. Допустим, что входные образы нанесены на демонстрационные карты. Каждая карта разбита на квадраты и от каждого квадрата на персептрон подается вход. Если в квадрате имеется линия, то от него подается единица, в противном случае - ноль. Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на входы персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного.  [44]

Стартуя с некоторого начального состояния 8 ( 0), век - fpp S ( i) попадает в область притяжения какого-либо аттрактора не сразу, после некоторого переходного процесса, который можно назвать раз-1 ( ышлением. Чем больше похож входной образ 8 ( 0) на какой-либо ключе-I 5Й образ, тем меньшее время необходимо нейронной сети для размыш - J ения. Соответственно, чем меньше похож предъявленный образ 8 ( 0) t ранее запомненные, тем большее время требуется нейронной сети ря принятия решения.  [45]



Страницы:      1    2    3    4    5