Персептрон - Большая Энциклопедия Нефти и Газа, статья, страница 3
Рассказывать начальнику о своем уме - все равно, что подмигивать женщине в темноте, рассказывать начальнику о его глупости - все равно, что подмигивать мужчине на свету. Законы Мерфи (еще...)

Персептрон

Cтраница 3


Для того чтобы дискретный симметричный персептрон с симметричными начальными условиями, в котором действует ( обобщенный ] а-закон поощрения, обладал абсолютной способностью к экстраполяции, необходимо и достаточно, чтобы все компоненты TII характеристической матрицы персептрона, индексы которых принадлежат одному и тому же образу, были отличны от нуля, а все компоненты Тц, индексы которых принадлежат различным образам, были равны нулю.  [31]

Характеристический тензор класса персептронов определяется по существу точно так же.  [32]

Особенностью а-закона обучения персептронов является своеобразное свойство коммутативности процесса обучения, выражаемое следующим предложением.  [33]

Классический алгоритм настройки персептрона, предложенный Розенблаттом, заключается в следующем.  [34]

В описанном типе персептрона существуют два следующих друг за другом режима работы: начальный ( или подготовительный) режим и режим решения. В период подготовительного режима производится установление связей между S - и А - элементами по правилам построения корреляционных матриц. Во время второго режима решаются одновременно две задачи: формирование эталонов и принятие решения. В рассмотренной структуре персептрона отсутствует система подкрепления связей. Это объясняется тем, что перед данным персептроном стоит задача произвести классификацию изображения по трем классам только на основании анализа самого изображения. При смещении окна предыстории на один такт происходит переориентация связей между S - и Л - элементами.  [35]

36 Система распознавания изображений. [36]

Доказательство теоремы обучения персептрона [4] показало, что персептрон способен научиться всему, что он способен представлять. Важно при этом уметь различать представляемость и обучаемость. Понятие представляемости относится к способности персептрона ( или другой сети) моделировать определенную функцию. Обучаемость же требует наличия систематической процедуры настройки весов сети для реализации этой функции.  [37]

Кроме рецепторов, каждый персептрон имеет в своем составе еще два вида элементов, называемых Л - элементами и - элементами.  [38]

Условимся говорить, что персептрон обладает абсолютной способностью к экстраполяции, если для любого образа Р и любого изображения I из этого образа обучение любой последовательностью, содержащей не менее одного раза изображение i, приводит к правильному распознаванию всех изображений этого образа.  [39]

40 Блок-схема модели нейрона.| Блок-схема пандемониума. [40]

Примерами подобных устройств являются персептрон, пандемониум Сельфриджа, адалин Видроу, программы опознавания Бра-вермана и Бонгарда. В основе ряда таких моделей лежат идеи, развитые в работе Фэрли и Кларка, реализация к-рых произведена на базе к. Сигналы от входных рецепторов ( фотоэлементов), воспринимающих образ, поступают в функцнон. Выход z порогового элемента сравнивается со значением - г, задаваемым обучающим, и рассогласование е поступает в оптимизатор, подбирающий коэфф.  [41]

42 Блок-схема модели нейрона.| Блок-схема пандемониума. [42]

Примерами подобных устройств являются персептрон, пандемониум Сельфриджа, адалин Вндроу, программы опознавания Бра-вермана и Бонгарда. В основе ряда таких моделей лежат идеи, развитые в работе Фэрли и Кларка, реализация к-рых произведена на базе к. Сигналы от входных рецепторов ( фотоэлементов), воспринимающих образ, поступают в функцией, устройство, вырабатывающее нек-рые заранее известные ф-цин входа. Выход z порогового элемента сравнивается со значением -: , задаваемым обучающим, и рассогласование в поступает в оптимизатор, подбирающий коэфф.  [43]

Управляемые сетевые парадигмы: персептрон, линейные, обратного распространения, Левенберга, радиальный базис, Элмана, Хопфилда и самообучаемое квантование векторов.  [44]

Как мы видели, персептрон ограничивается бинарными выходами. Кроме того, они разработали математическое доказательство того, что сеть при определенных условиях будет сходиться к любой функции, которую она может представить. Их первая модель - Адалин - имеет один выходной нейрон, более поздняя модель - Мадалин - расширяет ее на случай с многими выходными нейронами.  [45]



Страницы:      1    2    3    4