Cтраница 2
Двухслойный персептрон. [16] |
На рис. 2.17 представлен двухслойный персептрон, полученный из персептрона с рис. 2.16 путем добавления второго слоя, состоящего из двух нейронов. [17]
Блок-схема персептрона, соответствующая алгоритму обучения. [18] |
Кибернетическая система, реализующая алгоритм обучения (2.17), соответствует персептрону. [19]
Какими же были уроки, извлеченные из работ по персептронам. [20]
При построении теории обучения и самообучения персептронов часто целесообразно рассматривать не отдельные персептроны, а некоторые классы персептронов. Классом персептронов будем, называть множество персептронов, которые могут отличаться друг от друга лишь способом соединения нейронов с рецепторами и начальными весами нейронов. Все остальные характеристики персептронов, входящих в один и тот же класс, предполагаются одинаковыми. К этим характеристикам относится вид рецепторов и нейронов, общее число рецепторов и структура сетчатки, множество-изображений и множество образов, исходная классификация изображений ( распределение их по образам), число нейронов каждого образа и, наконец, закон поощрения. [21]
Многие предикаты, изучаемые в теории распознавания образов, в частности персептрон, также выразимы в LFP () или в LFPw (), если базисные предикаты, входящие в персептрон, выразимы в этих теориях. [22]
Пространство входных образов для функции исключающее ИЛИ. [23] |
Розенблатта, проведенные в 60 - е годы, показали, что простейшие персептроны при весьма общих условиях обладают свойством обучаемости, если функция, которую они должны реализовать, относится к персептронно представляемым. Но как велико последнее множество. И вообще, существуют ли функции, которые в него не входят. [24]
Очень хорош обзор Ныоэлла ( Newell) по книге Минского и Пейперта Персептроны. Ньюэлл обсуждает цели, подходы и методы вычислительной науки. [25]
Пусть он равен нулю, в то время как при правильном ответе персептрон должен выдавать единицу. [26]
Согласно теореме 1 и следующему за ней королларию из работы Розенблатта [69], такие персептроны, построенные на непрерывных нейронах, с вероятностью, сколь угодно близкой к единице, при самообучении должны стремиться к состоянию, в котором все изображения относятся к одному и тому же образу. Покажем, что для персептрона В подобное утверждение неверно. [27]
Поскольку такая нейронная сеть является однопроходной, время, затрачиваемое на обработку данных в персептроне, определяется скоростью распространения информации от входного слоя к ее выходному слою и временем, необходимым для срабатывания отдельных нейронов. [28]
От последнего ограничения можно избавиться, если учитель не просто подает сигнал одобрения, а сообщает персептрону истинный номер образа, которому принадлежит очередное показываемое персептрону изображение. Именно такой способ функционирования персептрона в режиме обучения рассматривался в предыдущей главе. [29]
Розенблатт трагически погиб, не перенеся тяжелую депрессию, вызванную прекращением финансирования и охлаждением научного собщества к персептронам после выхода в свет книги Минского и Пейперта. [30]