Входной образ - Большая Энциклопедия Нефти и Газа, статья, страница 2
Вы молоды только раз, но незрелым можете оставаться вечно. Законы Мерфи (еще...)

Входной образ

Cтраница 2


Другой метод заключается в том, что вместо сравнения входного образа с эталоном классификация основывается на некотором множестве отобранных замеров, производимых на входных образах. Эти отобранные замеры, называющиеся признаками, предполагаются инвариантными и малочувствительными по отношению к обычно встречающимся изменениям и искажениям и обладающими небольшой избыточностью. В этом случае распознавание образов состоит из двух задач.  [16]

Каждый слой сложных нейронов реагирует на все большую область входного образа, по сравнению с предшествующими слоями, что приводит к требуемому уменьшению позиционной зависимости реакции неокогнитрона на образы в целом.  [17]

Следует отметить, что вид откликов на каждый класс входных образов неизвестен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие образы, относя их к одному классу.  [18]

Во втором случае обучение проводится без учителя, при предъявлении входных образов сеть самоорганизуется посредством настройки своих весов согласно определенному алгоритму. Вследствие отсутствия указания требуемого выхода в процессе обучения результаты непредсказуемы с точки зрения определения возбуждающих образов для конкретных нейронов. При этом, однако, сеть организуется в форме, отражающей существенные характеристики обучающего набора. Например, входные образы могут быть классифицированы согласно степени их сходства так, что образы одного класса активизируют один и тот же выходной нейрон.  [19]

Таким образом, каждый слой комплексных узлов реагирует на более широкую область входного образа, чем это делалось в предшествующих слоях. Эта прогрессия возрастает линейно от слоя к слою, приводя к требуемому уменьшению позиционной чувствительности системы в целом.  [20]

Во всей процедуре требуется выполнить два распределения: распределение объема памяти для входного образа и распределение для отдельных переменных.  [21]

22 Система неокогнитрона. [22]

Рецептивные области узлов в каждой плоскости простых узлов перекрываются с целью покрытия всего входного образа этого слоя. Каждый узел получает входы от соответствующих областей всех плоскостей комплексных узлов в предыдущем слое. Следовательно, простой узел реагирует на появление своего образа в любой сложной плоскости предыдущего слоя, если он окажется внутри его рецептивной области.  [23]

Первая задача заключается в определении того, какие измерения должны быть сделаны на входном образе. Обычно решение задачи выбора признаков является в известной степени субъективным.  [24]

После обучения сеть становится нечувствительной к малым изменениям входных сигналов ( шуму или вариациям входных образов) и дает правильный результат на выходе.  [25]

26 Результаты экспериментов с когнитроном. [26]

Эти образы возвращались обратно, вырабатывая на входе сети образ, близкий к точной копии исходного входного образа.  [27]

28 Структура неокогнитрона. [28]

Обычно используется подход, при котором будут активизироваться несколько нейронов с различной степенью возбуждения, и входной образ должен быть определен с учетом соотношения их выходов. Это позволяет улучшить точность распознавания.  [29]

Инициализация весовых коэффициентов случайными значениями может привести к тому, что различные классы, которым соответствуют плотно распределенные входные образы, сольются или, наоборот, раздробятся на дополнительные подклассы в случае близких образов одного и того же класса. Для избежания такой ситуации используется метод выпуклой комбинации.  [30]



Страницы:      1    2    3    4    5