Cтраница 4
Персептрон предназначался для работы в двух режимах: в режиме обучения и в режиме эксплуатации. В ходе эксплуатации персептрон классифицировал предъявленные ему ситуации: если возбуждался / - й реагирующий элемент и не возбуждались остальные Я-элементы, то ситуация относилась к / - му классу. Эта модель была создана для экспериментальной проверки способности персептрона образовывать понятия. [46]
Каждая полученная область является областью определения отдельного класса. Число таких классов для персептрона не превышает 2, где те - число его входов. Однако не все из классов могут быть разделимы данной нейронной сетью. [47]
Согласно теореме 1 и следующему за ней королларию из работы Розенблатта [69], такие персептроны, построенные на непрерывных нейронах, с вероятностью, сколь угодно близкой к единице, при самообучении должны стремиться к состоянию, в котором все изображения относятся к одному и тому же образу. Покажем, что для персептрона В подобное утверждение неверно. [48]
Каждая полученная область является областью определения отдельного класса. Число таких классов для персептрона не превышает 2т, где т - число его выходов. Однако не все из классов могут быть разделимы данной нейронной сетью. [49]
ИНС обладают таким полезным свойством, как способность к обучению, что делает универсальным их применение в различных сложных условиях функционирования ОУ. Обычно используют ИНС прямого распространения ( персептроны) и сети Хопфилда; они входят в HP, служат фактически БЗ, содержащей информацию о желаемом поведении системы. [50]
Опыты, проведенные с персептронами, показали, что при обучении их указанным выше способом они по мере обучения все лучше и лучше распознают образы: меньше ошибаются и чаще, а затем и почти во всех случаях, правильно распознают образы, отличая относящиеся к одному классу от относящихся к другим. При обучении распознаванию восьми различных букв персептрон, который первоначально был настроен так, что лишь в 10 % случаев давал правильные ответы, после предъявления ему букв каждого класса по 10 раз, с последующим каждый раз обучением, давал правильные ответы уже в 50 % случаев, после предъявления ему букв по 20 раз - в 80 % случаев, после предъявления букв каждого класса по 30 раз - более чем в 90 % случаев, а после предъявления их по 40 раз, тоже с последующим каждый раз обучением, распознавал их затем уже почти безошибочно. Оказалось, что хотя при уменьшении числа ассоциативных элементов работа персептрона ухудшается, но все же он продолжает выполнять свои функции. В этом он также оказался аналогичным мозгу человека, функции которого часто восстанавливаются при повреждении отдельных его участков. [51]
Фактически они ввели в ИИ требование строгого математического обоснования используемых методов. Далее начала развиваться современная теория неиросетеи, персептроны в классическом виде вышли из применения. Рассмотрение неиросетеи в задачу данной работы не входит. [52]
Последнее обстоятельство, способствовавшее развитию идей прогноза именно в наши дни, связано не с нелинейной динамикой, а с распространением и большой доступностью компьютеров и нейросетевых программных продуктов. Оказывается, что аппроксимирующие многослойные нейронные сети ( персептроны) действительно способны учитывать требования, накладываемые на функциональные аппроксимации, а потому не случайно они оказались одним из основных практических инструментов прогноза. [53]
При практических применениях непараметрического обучения обычно используют семейство линейных решающих функций, т.е. семейство гиперповерхностей разделяющих, либо сводящих нелинейные правила к линейным путем отображения в так называемое спрямляющее пространство. Подобное отображение применяется, ft частности, в персептроне, при вычислении оценок и в потенциальных функций методе. Задача отыскания гиперплоскости, разделяющей выборку указанным образом, в свою очередь сводится к решению системы линейных неравенств. [54]
Распознавание образов производится этим методом так. Первоначально производится обучение, как это было и для персептрона, о котором мы говорили сна. [55]
Время обучения по сравнению с обратным распространением может быть в 100 раз меньше. По своим возможностям строить отображения сеть встречного распространения значительно превосходит однослойные персептроны. [56]
Помимо веса, числа возбуждающих и числа запрещающих входов, нейрон характеризуется еще законом своего функционирования, определяющим выходной сигнал нейрона как функцию его входных сигналов и веса. Следует иметь в виду, что входы всех нейронов в персептроне подсоединяются к рецепторам, так что вырабатываемые рецепторами сигналы служат входными сигналами для нейронов. [57]
При обработке экспериментальных данных чаще используют два других метода, которые можно назвать глобальные аппроксимации с локальными свойствами. К ним относятся метод радиальных базовых функций и нейронные сети - персептроны. [58]
Переход от дискретных нейронов к непрерывным, как и замена а-закона поощрения р1 - или у-законом, этого положения существенно не меняет. Частично положение может быть исправлено за счет добавления к реализуемым в персептроне процессам пересоединения нейронов, мешающих процессу обучения или недостаточно способствующих ему. [59]