Cтраница 2
Другой метод заключается в том, что вместо сравнения входного образа с эталоном классификация основывается на некотором множестве отобранных замеров, производимых на входных образах. Эти отобранные замеры, называющиеся признаками, предполагаются инвариантными и малочувствительными по отношению к обычно встречающимся изменениям и искажениям и обладающими небольшой избыточностью. В этом случае распознавание образов состоит из двух задач. [16]
Каждый слой сложных нейронов реагирует на все большую область входного образа, по сравнению с предшествующими слоями, что приводит к требуемому уменьшению позиционной зависимости реакции неокогнитрона на образы в целом. [17]
Следует отметить, что вид откликов на каждый класс входных образов неизвестен заранее и будет представлять собой произвольное сочетание состояний нейронов выходного слоя, обусловленное случайным распределением весов на стадии инициализации. Вместе с тем, сеть способна обобщать схожие образы, относя их к одному классу. [18]
Во втором случае обучение проводится без учителя, при предъявлении входных образов сеть самоорганизуется посредством настройки своих весов согласно определенному алгоритму. Вследствие отсутствия указания требуемого выхода в процессе обучения результаты непредсказуемы с точки зрения определения возбуждающих образов для конкретных нейронов. При этом, однако, сеть организуется в форме, отражающей существенные характеристики обучающего набора. Например, входные образы могут быть классифицированы согласно степени их сходства так, что образы одного класса активизируют один и тот же выходной нейрон. [19]
Таким образом, каждый слой комплексных узлов реагирует на более широкую область входного образа, чем это делалось в предшествующих слоях. Эта прогрессия возрастает линейно от слоя к слою, приводя к требуемому уменьшению позиционной чувствительности системы в целом. [20]
Во всей процедуре требуется выполнить два распределения: распределение объема памяти для входного образа и распределение для отдельных переменных. [21]
![]() |
Система неокогнитрона. [22] |
Рецептивные области узлов в каждой плоскости простых узлов перекрываются с целью покрытия всего входного образа этого слоя. Каждый узел получает входы от соответствующих областей всех плоскостей комплексных узлов в предыдущем слое. Следовательно, простой узел реагирует на появление своего образа в любой сложной плоскости предыдущего слоя, если он окажется внутри его рецептивной области. [23]
Первая задача заключается в определении того, какие измерения должны быть сделаны на входном образе. Обычно решение задачи выбора признаков является в известной степени субъективным. [24]
После обучения сеть становится нечувствительной к малым изменениям входных сигналов ( шуму или вариациям входных образов) и дает правильный результат на выходе. [25]
![]() |
Результаты экспериментов с когнитроном. [26] |
Эти образы возвращались обратно, вырабатывая на входе сети образ, близкий к точной копии исходного входного образа. [27]
![]() |
Структура неокогнитрона. [28] |
Обычно используется подход, при котором будут активизироваться несколько нейронов с различной степенью возбуждения, и входной образ должен быть определен с учетом соотношения их выходов. Это позволяет улучшить точность распознавания. [29]
Инициализация весовых коэффициентов случайными значениями может привести к тому, что различные классы, которым соответствуют плотно распределенные входные образы, сольются или, наоборот, раздробятся на дополнительные подклассы в случае близких образов одного и того же класса. Для избежания такой ситуации используется метод выпуклой комбинации. [30]