Cтраница 2
Величина же вероятности q есть не что иное, как полная эффективность обучения персептрона А в заданных условиях. [16]
С помощью соотношений ( 79) и ( 80) нетрудно рассчитать эффективность обучения персептрона в любом конкретном случае. Особен-яо простой вид эти соотношения принимают в случае симметрич-юых персептронов. [17]
Детерминистский метод обучения шаг за шагом осуществляет процедуру коррекции весов сети, основанную на использовании их текущих значений, а также величин входов, фактических выходов и желаемых выходов. Обучение персептрона является примером подобного детерминистского подхода ( см. гл. [18]
![]() |
Персептронный нейрон. [19] |
Розенблатт доказал замечательные теоремы об обучении персептронов, приводимые ниже. [20]
Набор результирующих напряжений на выходе группы А составляет реакцию системы, по которой можно судить о принадлежности реализации к тому или иному образу. Сигнал каждого элемента группы А, связанного с данным элементом К, подводится к нему со своим коэффициентом передачи Хг, который меняется при обучении персептрона. [21]
Персептроны оказались способными не только к обучению, но и it самообучению. При их совпадении не производится коррекция, а если они не согласуются, то по выходному каналу 6 обучающего устройства передаются сигналы к элементам настройки персептрона и коррекция производится так же, как и при обучении персептрона человеком. Обученный таким образом персептрон производит классификацию - указывает, относятся ли предъявляемые ему в процессе работы образы к одному классу или же к различным классам. [22]
Может оказаться затруднительным определить, выполнено ли условие разделимости для конкретного обучающего множества. Кроме того, во многих встречающихся на практике ситуациях входы часто меняются во времени и могут быть разделимы в один момент времени и неразделимы в другой. В доказательстве алгоритма обучения персептрона ничего не говорится также о том, сколько шагов требуется для обучения сети. Мало утешительного в знании того, что обучение закончится за конечное число шагов, если необходимое для этого время сравнимо с геологической эпохой. Кроме того, не доказано, что персептронный алгоритм обучения более быстр по сравнению с простым перебором всех возможных значений весов, и в некоторых случаях этот примитивный подход может оказаться лучше. [23]
Используя критерий линейной разделимости, можно решить, способна ли однослойная нейронная сеть реализовывать требуемую функцию. Даже в том случае, когда ответ положительный, это принесет мало пользы, если у нас нет способа найти нужные значения для весов и порогов. Чтобы сеть представляла практическую ценность, нужен систематический метод ( алгоритм) для вычисления этих значений. Розенблатт [4] сделал это в своем алгоритме обучения персептрона вместе с доказательством того, что персептрон может быть обучен всему, что он может реализовывать. [24]
Алгоритм обучения персептрона может быть реализован на цифровом компьютере или другом электронном устройстве, и сеть становится в определенном смысле самоподстраивающейся. По этой причине процедуру подстройки весов обычно называют обучением и говорят, что сеть обучается. Сегодня в той или иной форме элементы алгоритма обучения персептрона встречаются во многих сетевых парадигмах. [25]
Все изображения имеют одинаковые вероятности ( равные - - ] появления в обучающей последовательности. Предположим, что персептрон А полный. Это означает, что как в множестве нейронов Р - го образа, так и в множестве нейронов Q - ro образа для любого способа подсоединения нейрона к сетчатке найдется в точности по одному нейрону, имеющему точно такое же соединение с сетчаткой. В персептроне А действует обобщенный а-закон поощрения с константами а и Ь, а начальные веса нейронов равны нулю. Требуется найти эффективность обучения персептрона А в классе случайных обучающих последовательностей длины 2N, содержащих точно N показов изображений первого образа и N показов изображений второго образа. [26]
На втором этапе следует обучить выбранную сеть, т.е. подобрать такие значения ее весов, чтобы сеть работала нужным образом. Необученная сеть подобна ребенку - ее можно научить чему угодно. В используемых на практике неиросетях количество весов может составлять несколько десятков тысяч, поэтому обучение - действительно сложный процесс. Для многих архитектур разработаны специальные алгоритмы обучения, которые позволяют настроить веса сети определенным образом. Наиболее популярный из этих алгоритмов - метод обратного распространения ошибки ( Error Back Propagation), используемый, например, для обучения персептрона. [27]