Обучение - персептрон - Большая Энциклопедия Нефти и Газа, статья, страница 1
Если хотите рассмешить бога - расскажите ему о своих планах. Законы Мерфи (еще...)

Обучение - персептрон

Cтраница 1


Обучение персептрона производится так. При появлении в процессе обучения очередного объекта происходит индексация этого объекта на основе имеющихся в данный момент коэффициентов Я, у. Если эта индексация правильна, то Яу сохраняются; если при появлении объекта а на выходе персептрона появился 0, то коэфф. К - изменяются в сторону исправления ошибки.  [1]

Обучение персептрона производится так.  [2]

3 Логическая функция ИСКЛЮЧАЮЩЕЕ ИЛИ.| Линейная неразделимость функции ИСКЛЮЧАЮЩЕЕ ИЛИ. [3]

Обучение персептрона сводится к формированию весов связей между первым и вторым ( см. рис. 2.17) слоями в соответствии со следующим алгоритмом.  [4]

Обучение персептрона является обучением с учителем.  [5]

Алгоритм обучения персептрона может быть реализован на цифровом компьютере или другом электронном устройстве, и сеть становится в определенном смысле самоподстраивающейся. По этой причине процедуру подстройки весов обычно называют обучением и говорят, что сеть обучается.  [6]

Особенностью а-закона обучения персептронов является своеобразное свойство коммутативности процесса обучения, выражаемое следующим предложением.  [7]

8 Система распознавания изображений. [8]

Доказательство теоремы обучения персептрона [4] показало, что персептрон способен научиться всему, что он способен представлять. Важно при этом уметь различать представляемость и обучаемость. Понятие представляемости относится к способности персептрона ( или другой сети) моделировать определенную функцию. Обучаемость же требует наличия систематической процедуры настройки весов сети для реализации этой функции.  [9]

В классическом алгоритме обучения персептрона не используются предположения относительно распределений примеров обучающих выборок, а рассматривается функция ошибки. Этот алгоритм работает более устойчиво, если входные сигналы формируются в результате нелинейных процессов и распределены несимметрично и не по гауссову закону.  [10]

Важное обобщение алгоритма обучения персептрона, называемое дельта-правилом, переносит этот метод на непрерывные входы и выходы.  [11]

При построении теории обучения персептронов приходится рассматривать так называемые обучающие последовательности и классы обучающих последовательностей.  [12]

13 Нечеткое правило адаптации темпа обучения нейронной сети. [13]

Существует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия - достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки.  [14]

Если для некоторой классификации решение существует, то в процессе обучения персептрона с коррекцией ошибок, начинающегося с произвольного исходного состояния, это решение будет достигнуто в течение конечного промежутка времени.  [15]



Страницы:      1    2