Cтраница 3
Во-первых, рецепторы реального перцептрона имеют ограниченный диапазон восприятия. Во-вторых, при восприятии, как и при всякой передаче, происходит частичная потеря информации. В-третьих, единичные рецепторы имеют ограниченную чувствительность. В-четвертых, рецепторное поле имеет ограниченную разрешающую способность. В-пятых, рецепторное устройство имеет всегда ограниченную полосу пропускания. [31]
Объекты, воспринимаемые квазизрительным перцептроном, могут иметь различную форму, разный цвет и освещенность. [32]
Таковы, например, перцептрон, оптические реле и датчики уровня, в которых воспроизводятся определенные стороны механизма зрительного восприятия человека ( Глушков В. М. Введение в кибернетику. [33]
Выше отмечалось, что простой перцептрон с одним слоем обучаемых связей формирует границы областей решений в виде гиперплоскостей. Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трехслойного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже. [34]
Наибольшую трудность при построении перцептронов создает то обстоятельство, что между одним и тем же оригиналом и его изображением на рецепторе нет однозначного соответствия. Изображения претерпевают так называемые изоморфные преобразования. Поясним сущность изоморфных преобразований на примерах. Допустим, информационно-логической машине подается голосовая команда: Отпечатать список литературы по теории опознания. Из-за этого изображения, соответствующие одной и той же, по существу, команде, будут разными. Но так как все они изоморфны в том смысле, что соответствуют одному и тому же эталону, то говорят, что изображения претерпевают изоморфные преобразования. Точно так же претерпевают изоморфные преобразования изображения и при опознании различных конфигураций. Квадрат, например, может претерпевать изоморфные преобразования в виде изменения освещенности, изменения масштаба или ориентации относительно рецептора, а также в виде переносов по полю сетчатки. [35]
Применяется очень часто для многослойных перцептронов и других сетей с непрерывными сигналами. [36]
Простая структурная схема перцептрона с тремя уровнями.| Схема тренировки перцептрона.| Упрощенная структурная схема пандемониума. [37] |
Предположим, например, что перцептрон предназначен для опознавания двух образов и что S-элемента-ми являются фотоэлементы, собранные в батарею или матрицу. Каждый S-элемент соединяется с несколькими, случайно выбранными Л - элементами. Эти связи в последующем не изменяются. [38]
Типы активационных функций нейронов. [39] |
В своей самой простой версии многослойный перцептрон ( см. рис. 10) представляет собой сеть с одним входным, одним выходным и одним или более внутренними или, как говорят, скрытыми слоями нейронов. Общей чертой для всех многослойных перцептронов является прямонаправлен-ность сети, характеризующаяся передачей информации от входного слоя через К скрытых слоев к выходному слою. [40]
На каждом шаге на вход перцептрона подается изображение х одного из образов. Входные сигналы Л - элементов взвешиваются с помощью коэффициентов Р7 - и результат суммируется. [41]
После окончания обучения производится экзамен перцептрона. Предъявляются новые изображения и требуется определить их класс. Работа перцептрона протекает при этом так же, как и ранее, однако теперь уже оператор не вмешивается в его работу и значения - коэффициентов не изменяются. При этом проверяется основное свойство перцептрона: способность его относить к заданным классам образы, показываемые ему впервые. [42]
Таким образом, задача обучения перцептрона состоит в таком подборе коэффициентов k -, чтобы г1 при появлении на входе фигур одного образа и г О при появлении фигур другого образа. Для распознавания больше двух образов применяются несколько другие схемы, в основе которых лежит разбиение ассоциативных элементов на несколько групп. Физически эта задача решается - путем изменения смещений, подаваемых на усилитель kj, причем в режиме обучения смещения изменяются человеком-учителем, а в режиме самообучения - с помощью специальной обратной связи. [43]
Была также доказана теорема об обучаемости перцептрона [ Розенблат65 ], что перцептрон способен изучить любое отображение х - Y, которое он способен дать на выходе. Если существует набор параметров с минимальным значением Ео E ( W), то этот набор может быть найден в результате работы алгоритма обучения. [44]
Сами клетки Пуркинье соответствуют выходным клеткам перцептрона. Эта аналогия может быть прослежена по фиг. [45]