Cтраница 2
Ограничения персептронов, о которых писали Минский и Пейперт, оказались преодолимыми, а возможности вычислительной техники - достаточными для решения широкого круга прикладных задач. [16]
Работа персептрона сводится к классификации ( обобщению) входных сигналов, принадлежащих га-мерному гиперпространству, по некоторому числу классов. С математической точки зрения это происходит путем разбиения гиперпространства гиперплоскостями. [17]
![]() |
Логическая функция ИСКЛЮЧАЮЩЕЕ ИЛИ.| Линейная неразделимость функции ИСКЛЮЧАЮЩЕЕ ИЛИ. [18] |
Обучение персептрона сводится к формированию весов связей между первым и вторым ( см. рис. 2.17) слоями в соответствии со следующим алгоритмом. [19]
Обучение персептрона является обучением с учителем. [20]
Обучение персептрона производится так. При появлении в процессе обучения очередного объекта происходит индексация этого объекта на основе имеющихся в данный момент коэффициентов Я, у. Если эта индексация правильна, то Яу сохраняются; если при появлении объекта а на выходе персептрона появился 0, то коэфф. К - изменяются в сторону исправления ошибки. [21]
Класс элементарных персептронов, для которых существует решение для любой задуманной классификации, не является пустым. [22]
![]() |
Буква может быть написана по-разному.| Два трехместных, один двухместный и одноместный предикаты. [23] |
Описать сам персептрон, который теперь приобретет гораздо более длинный и непонятный вид: Е / ( ЖЪ) х W Е / ( ж, х х х ws E / ( XJ xk xi) x Wh Q. Здесь буквами w с индексами обозначены веса предикатов, а за знаком суммы стоят одноместные, двухместные и трехместные предикаты. Пороговое значение Q как раз и задает минимально необходимое число соответствий. Можно было описать другие предикаты и получить другие Q. Персептрон в чистом виде чаще всего используется для учебных задач. [24]
Пусть задан произвольный дискретный симметричный персептрон ( или класс дискретных симметричных персептронов) с характеристической матрицей Т ( / - и с симметричными начальными условиями, в котором действует ( обобщенный) а-закон поощрения. [25]
Причина популярности персептронов кроется в том, что для своего круга задач они являются во-первых универсальными, а во-вторых - эффективными с точки зрения вычислительной сложности устройствами. [26]
Алгоритм обучения персептрона может быть реализован на цифровом компьютере или другом электронном устройстве, и сеть становится в определенном смысле самоподстраивающейся. По этой причине процедуру подстройки весов обычно называют обучением и говорят, что сеть обучается. [27]
Предположим, что персептрон Р имеет сетчатку, состоящую из N рецепторов, и рассчитан на распознавание двух образов. Изображение, проектируемое на сетчатку, представляется некоторым булевым массивом г [ 1: ЛМ, который считывается извне при показе персептрону каждого нового изображения. Ответ р является просто номером образа, к которому персептрон отнес очередное показанное ему изображение. Через sf и ss обозначим выходные сигналы сумматоров первого и второго образов. [28]
Считается, что персептрон относит входной вектор jc к р-му понятию, если возбуждается р-й реагирующий нейрон и не возбуждаются другие реагирующие нейроны. [29]
Считается, что персептрон правильно обучен, если для всех j max Dj-Yj 5, где 8 - заданная величина ошибки. [30]