Персептрон - Большая Энциклопедия Нефти и Газа, статья, страница 1
Самый верный способ заставить жену слушать вас внимательно - разговаривать во сне. Законы Мерфи (еще...)

Персептрон

Cтраница 1


Персептрон В, как и персептрон Л, будет, очевидно, симметричным. Иначе говоря, для правильного распознавания i - ro изображения необходимо и достаточно, чтобы оно было хотя бы раз показано персептрону в процессе его обучения.  [1]

Персептрон - это машина для распознавания образор. О тонкой структуре человеческого мозга мы знаем пока чрезвычайно мало. Первое из них состояло в том, что мозг является совокупностью отдельных клеток, способных воспринимать и передавать возбуждение.  [2]

Персептрон состоит из трех основных частей. Первая часть, помеченная на рисунке буквой А, представляет собой прямоугольное табло, состоящее из большого количества ( обычно больше 100) чувствительных органов, чаще всего фотоэлементов. Каждый чувствительный орган имеет самостоятельный вывод, на котором действует электрическое напряжение, пропорциональное интенсивности возбуждения. Если чувствительный орган - это фотоэлемент, то напряжение на его выводе пропорционально освещенности. Выводы от всех чувствительных органов соединяются с частью В.  [3]

Персептрон содержит до 400 фотоэлементов, произвольно связанных через усилители с серводвигателями. Подаваемое на делители напряжение смещения может меняться вручную или автоматически через устройство обратной связи. При самообучении персептрона напряжения смещения меняются самим автоматом по цепям обратной связи.  [4]

Персептрон, состоящий из одного нейрона, формирует две решающие области, разделенные гиперплоскостью. Уравнение, задающее разделяющую гиперплоскостью ( прямую - в случае двухвходового персептронного нейрона), зависит от значений си-наптических весов и смещения.  [5]

Персептрон представляет собой так называемую однослойную нейронную сеть.  [6]

Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход. Допустим, что входные образы нанесены на демонстрационные карты. Каждая карта разбита на квадраты и от каждого квадрата на персептрон подается вход. Если в квадрате имеется линия, то от него подается единица, в противном случае - ноль. Множество квадратов на карте задает, таким образом, множество нулей и единиц, которое и подается на входы персептрона. Цель состоит в том, чтобы научить персептрон включать индикатор при подаче на него множества входов, задающих нечетное число, и не включать в случае четного.  [7]

Персептрон является двухуровневой, нерекуррентной сетью, вид которой показан на рис. Б.З. Она использует алгоритм обучения с учителем; другими словами, обучающая выборка состоит из множества входных векторов, для каждого из которых указан свой требуемый вектор цели. После обучения сеть получает на входе набор непрерывных входов и вырабатывает требуемый выход в виде вектора с бинарными компонентами.  [8]

Персептрон предназначался для работы в двух режимах: в режиме обучения и в режиме эксплуатации. В ходе эксплуатации персептрон классифицировал предъявленные ему ситуации: если возбуждался / - й реагирующий элемент и не возбуждались остальные Я-элементы, то ситуация относилась к / - му классу. Эта модель была создана для экспериментальной проверки способности персептрона образовывать понятия.  [9]

Никакой дискретный симметричный персептрон ( как с а -, так и с - законом поощрения), работая в режиме самообучения, не может изменить исходной классификации изображений, если эта классификация относит все изображения к одному и тому же образу.  [10]

Поначалу персептрон и вправду не годен. Его предстоит обучить - настроить на распознаваемые образы. И именно случайный характер связей в персептроне делает возможным такое обучение. Не вникая в процедуру обучения, отметим лишь, что оно происходит в процессе подбора величины усиления для различных нейронов при многократных предъявлениях персептрону распознаваемых образов.  [11]

Недостатки персептрона и пути их устранения станут более ясными после ознакомления со следующими двумя параграфами, в которых рассматриваются некоторые вопросы, связанные с его поведением в режимах обучения и самообучения.  [12]

Работа персептрона сводится к классификации ( обобщению) входных сигналов, принадлежащих n - мерному гиперпространству, по некоторому числу классов. С математической точки зрения это происходит путем разбиения гиперпространства гиперплоскостями.  [13]

Обучение персептрона производится так.  [14]

Методы персептрона, релаксаций и Хо - Кашьяпа являются по существу методами градиентного спуска, приспособленными для решения систем линейных неравенств. Техника линейного программирования сводится к процедурам максимизации или минимизации линейных функций, удовлетворяющих линейному уравнению и наложенным на них ограничениям в виде линейных нера-венст. В этом разделе будут рассмотрены два возможных подхода к решению таких задач.  [15]



Страницы:      1    2    3    4