Cтраница 1
Персептрон В, как и персептрон Л, будет, очевидно, симметричным. Иначе говоря, для правильного распознавания i - ro изображения необходимо и достаточно, чтобы оно было хотя бы раз показано персептрону в процессе его обучения. [1]
Персептрон - это машина для распознавания образор. О тонкой структуре человеческого мозга мы знаем пока чрезвычайно мало. Первое из них состояло в том, что мозг является совокупностью отдельных клеток, способных воспринимать и передавать возбуждение. [2]
Персептрон состоит из трех основных частей. Первая часть, помеченная на рисунке буквой А, представляет собой прямоугольное табло, состоящее из большого количества ( обычно больше 100) чувствительных органов, чаще всего фотоэлементов. Каждый чувствительный орган имеет самостоятельный вывод, на котором действует электрическое напряжение, пропорциональное интенсивности возбуждения. Если чувствительный орган - это фотоэлемент, то напряжение на его выводе пропорционально освещенности. Выводы от всех чувствительных органов соединяются с частью В. [3]
Персептрон содержит до 400 фотоэлементов, произвольно связанных через усилители с серводвигателями. Подаваемое на делители напряжение смещения может меняться вручную или автоматически через устройство обратной связи. При самообучении персептрона напряжения смещения меняются самим автоматом по цепям обратной связи. [4]
Персептрон, состоящий из одного нейрона, формирует две решающие области, разделенные гиперплоскостью. Уравнение, задающее разделяющую гиперплоскостью ( прямую - в случае двухвходового персептронного нейрона), зависит от значений си-наптических весов и смещения. [5]
Персептрон представляет собой так называемую однослойную нейронную сеть. [6]
Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход. Допустим, что входные образы нанесены на демонстрационные карты. Каждая карта разбита на квадраты и от каждого квадрата на персептрон подается вход. Если в квадрате имеется линия, то от него подается единица, в противном случае - ноль. Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на входы персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного. [7]
Персептрон является двухуровневой, нерекуррентной сетью, вид которой показан на рис. Б.З. Она использует алгоритм обучения с учителем; другими словами, обучающая выборка состоит из множества входных векторов, для каждого из которых указан свой требуемый вектор цели. После обучения сеть получает на входе набор непрерывных входов и вырабатывает требуемый выход в виде вектора с бинарными компонентами. [8]
Персептрон предназначался для работы в двух режимах: в режиме обучения и в режиме эксплуатации. В ходе эксплуатации персептрон классифицировал предъявленные ему ситуации: если возбуждался / - й реагирующий элемент и не возбуждались остальные Я-элементы, то ситуация относилась к / - му классу. Эта модель была создана для экспериментальной проверки способности персептрона образовывать понятия. [9]
Никакой дискретный симметричный персептрон ( как с а -, так и с - законом поощрения), работая в режиме самообучения, не может изменить исходной классификации изображений, если эта классификация относит все изображения к одному и тому же образу. [10]
Поначалу персептрон и вправду не годен. Его предстоит обучить - настроить на распознаваемые образы. И именно случайный характер связей в персептроне делает возможным такое обучение. Не вникая в процедуру обучения, отметим лишь, что оно происходит в процессе подбора величины усиления для различных нейронов при многократных предъявлениях персептрону распознаваемых образов. [11]
Недостатки персептрона и пути их устранения станут более ясными после ознакомления со следующими двумя параграфами, в которых рассматриваются некоторые вопросы, связанные с его поведением в режимах обучения и самообучения. [12]
Работа персептрона сводится к классификации ( обобщению) входных сигналов, принадлежащих n - мерному гиперпространству, по некоторому числу классов. С математической точки зрения это происходит путем разбиения гиперпространства гиперплоскостями. [13]
Обучение персептрона производится так. [14]
Методы персептрона, релаксаций и Хо - Кашьяпа являются по существу методами градиентного спуска, приспособленными для решения систем линейных неравенств. Техника линейного программирования сводится к процедурам максимизации или минимизации линейных функций, удовлетворяющих линейному уравнению и наложенным на них ограничениям в виде линейных нера-венст. В этом разделе будут рассмотрены два возможных подхода к решению таких задач. [15]