Cтраница 1
Обучение персептрона производится так. При появлении в процессе обучения очередного объекта происходит индексация этого объекта на основе имеющихся в данный момент коэффициентов Я, у. Если эта индексация правильна, то Яу сохраняются; если при появлении объекта а на выходе персептрона появился 0, то коэфф. К - изменяются в сторону исправления ошибки. [1]
Обучение персептрона производится так. [2]
![]() |
Логическая функция ИСКЛЮЧАЮЩЕЕ ИЛИ.| Линейная неразделимость функции ИСКЛЮЧАЮЩЕЕ ИЛИ. [3] |
Обучение персептрона сводится к формированию весов связей между первым и вторым ( см. рис. 2.17) слоями в соответствии со следующим алгоритмом. [4]
Обучение персептрона является обучением с учителем. [5]
Алгоритм обучения персептрона может быть реализован на цифровом компьютере или другом электронном устройстве, и сеть становится в определенном смысле самоподстраивающейся. По этой причине процедуру подстройки весов обычно называют обучением и говорят, что сеть обучается. [6]
Особенностью а-закона обучения персептронов является своеобразное свойство коммутативности процесса обучения, выражаемое следующим предложением. [7]
![]() |
Система распознавания изображений. [8] |
Доказательство теоремы обучения персептрона [4] показало, что персептрон способен научиться всему, что он способен представлять. Важно при этом уметь различать представляемость и обучаемость. Понятие представляемости относится к способности персептрона ( или другой сети) моделировать определенную функцию. Обучаемость же требует наличия систематической процедуры настройки весов сети для реализации этой функции. [9]
В классическом алгоритме обучения персептрона не используются предположения относительно распределений примеров обучающих выборок, а рассматривается функция ошибки. Этот алгоритм работает более устойчиво, если входные сигналы формируются в результате нелинейных процессов и распределены несимметрично и не по гауссову закону. [10]
Важное обобщение алгоритма обучения персептрона, называемое дельта-правилом, переносит этот метод на непрерывные входы и выходы. [11]
При построении теории обучения персептронов приходится рассматривать так называемые обучающие последовательности и классы обучающих последовательностей. [12]
![]() |
Нечеткое правило адаптации темпа обучения нейронной сети. [13] |
Существует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия - достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки. [14]
Если для некоторой классификации решение существует, то в процессе обучения персептрона с коррекцией ошибок, начинающегося с произвольного исходного состояния, это решение будет достигнуто в течение конечного промежутка времени. [15]