Персептрона - Большая Энциклопедия Нефти и Газа, статья, страница 4
Каждый подумал в меру своей распущенности, но все подумали об одном и том же. Законы Мерфи (еще...)

Персептрона

Cтраница 4


Персептрон предназначался для работы в двух режимах: в режиме обучения и в режиме эксплуатации. В ходе эксплуатации персептрон классифицировал предъявленные ему ситуации: если возбуждался / - й реагирующий элемент и не возбуждались остальные Я-элементы, то ситуация относилась к / - му классу. Эта модель была создана для экспериментальной проверки способности персептрона образовывать понятия.  [46]

Каждая полученная область является областью определения отдельного класса. Число таких классов для персептрона не превышает 2, где те - число его входов. Однако не все из классов могут быть разделимы данной нейронной сетью.  [47]

Согласно теореме 1 и следующему за ней королларию из работы Розенблатта [69], такие персептроны, построенные на непрерывных нейронах, с вероятностью, сколь угодно близкой к единице, при самообучении должны стремиться к состоянию, в котором все изображения относятся к одному и тому же образу. Покажем, что для персептрона В подобное утверждение неверно.  [48]

Каждая полученная область является областью определения отдельного класса. Число таких классов для персептрона не превышает 2т, где т - число его выходов. Однако не все из классов могут быть разделимы данной нейронной сетью.  [49]

ИНС обладают таким полезным свойством, как способность к обучению, что делает универсальным их применение в различных сложных условиях функционирования ОУ. Обычно используют ИНС прямого распространения ( персептроны) и сети Хопфилда; они входят в HP, служат фактически БЗ, содержащей информацию о желаемом поведении системы.  [50]

Опыты, проведенные с персептронами, показали, что при обучении их указанным выше способом они по мере обучения все лучше и лучше распознают образы: меньше ошибаются и чаще, а затем и почти во всех случаях, правильно распознают образы, отличая относящиеся к одному классу от относящихся к другим. При обучении распознаванию восьми различных букв персептрон, который первоначально был настроен так, что лишь в 10 % случаев давал правильные ответы, после предъявления ему букв каждого класса по 10 раз, с последующим каждый раз обучением, давал правильные ответы уже в 50 % случаев, после предъявления ему букв по 20 раз - в 80 % случаев, после предъявления букв каждого класса по 30 раз - более чем в 90 % случаев, а после предъявления их по 40 раз, тоже с последующим каждый раз обучением, распознавал их затем уже почти безошибочно. Оказалось, что хотя при уменьшении числа ассоциативных элементов работа персептрона ухудшается, но все же он продолжает выполнять свои функции. В этом он также оказался аналогичным мозгу человека, функции которого часто восстанавливаются при повреждении отдельных его участков.  [51]

Фактически они ввели в ИИ требование строгого математического обоснования используемых методов. Далее начала развиваться современная теория неиросетеи, персептроны в классическом виде вышли из применения. Рассмотрение неиросетеи в задачу данной работы не входит.  [52]

Последнее обстоятельство, способствовавшее развитию идей прогноза именно в наши дни, связано не с нелинейной динамикой, а с распространением и большой доступностью компьютеров и нейросетевых программных продуктов. Оказывается, что аппроксимирующие многослойные нейронные сети ( персептроны) действительно способны учитывать требования, накладываемые на функциональные аппроксимации, а потому не случайно они оказались одним из основных практических инструментов прогноза.  [53]

При практических применениях непараметрического обучения обычно используют семейство линейных решающих функций, т.е. семейство гиперповерхностей разделяющих, либо сводящих нелинейные правила к линейным путем отображения в так называемое спрямляющее пространство. Подобное отображение применяется, ft частности, в персептроне, при вычислении оценок и в потенциальных функций методе. Задача отыскания гиперплоскости, разделяющей выборку указанным образом, в свою очередь сводится к решению системы линейных неравенств.  [54]

Распознавание образов производится этим методом так. Первоначально производится обучение, как это было и для персептрона, о котором мы говорили сна.  [55]

Время обучения по сравнению с обратным распространением может быть в 100 раз меньше. По своим возможностям строить отображения сеть встречного распространения значительно превосходит однослойные персептроны.  [56]

Помимо веса, числа возбуждающих и числа запрещающих входов, нейрон характеризуется еще законом своего функционирования, определяющим выходной сигнал нейрона как функцию его входных сигналов и веса. Следует иметь в виду, что входы всех нейронов в персептроне подсоединяются к рецепторам, так что вырабатываемые рецепторами сигналы служат входными сигналами для нейронов.  [57]

При обработке экспериментальных данных чаще используют два других метода, которые можно назвать глобальные аппроксимации с локальными свойствами. К ним относятся метод радиальных базовых функций и нейронные сети - персептроны.  [58]

Переход от дискретных нейронов к непрерывным, как и замена а-закона поощрения р1 - или у-законом, этого положения существенно не меняет. Частично положение может быть исправлено за счет добавления к реализуемым в персептроне процессам пересоединения нейронов, мешающих процессу обучения или недостаточно способствующих ему.  [59]



Страницы:      1    2    3    4