Cтраница 2
В элегантной и захватывающей книге, названной Яер-септроны ( подзаголовком которой является также Вычислительная геометрия), Минский и Пейперт [ Minsky, Papert ( 1969) ] изучают сложность предикатов, которые распознают определенные геометрические свойства, такие как выпуклость. [16]
Розенблатт трагически погиб, не перенеся тяжелую депрессию, вызванную прекращением финансирования и охлаждением научного собщества к персептронам после выхода в свет книги Минского и Пейперта. [17]
Пиаже над тем, как ребенок большинство своих открытий совершает самостоятельно, - необходимо лишь, чтобы окружающий его фон был достаточно богат, - профессор Пейперт показывает, что компьютеризация этого фона создает новую, невиданную ранее обстановку, которая требует новых представлений и в психологии развития. [18]
Пейперт, выступивший на специальном конгрессе в Японии ( 1980 г.) с докладом Детство по-новому: присутствие ЭВМ как эксперимент в психологии развития, предсказывает всестороннее вторжение ЭВМ в мир ребенка, для которого она станет интеллектуальным орудием, применяемым малышом так же свободно, как перо и карандаш, но с большим разнообразием и воображением. [19]
Рассмотрим другой компромисс, между размером памяти и временем вычислений. В книге [5] Пейперт и я поставили простую проблему: если имеется произвольный набор слов по п бит, то сколько обращений к памяти потребуется, чтобы ответить, какое из этих слов является ближайшим ( по числу совпадающих бит) к произвольному заданному слову. Для идентификации точного отождествления можно использовать хеширование, и эта проблема достаточно хорошо изучена. Поскольку существует много способов кодирования библиотечного набора слов, причем в одних из них используется больше памяти, чем в других, то более точно проблема формулируется следующим образом: насколько должен возрасти объем памяти для достижения данного сокращения числа обращений к памяти. В определенном смысле ответ тривиален: если память достаточно велика, то требуется только одно обращение, потому что мы можем использовать в качестве адреса сам вопрос и запомнить ответ в регистре с таким адресом. Но если память как раз достаточна для хранения информации в библиотеке, та нужно искать все слова из библиотеки, - и нам не известно сколько-нибудь значительного промежуточного результата. [20]
В 1982 году в докладах Американской академии наук была опубликована статья американского физика, специалиста в области физики твердого тела из Калифорнийского Технологического Института, Джона Хопфилда ( Hopfield. С этой работы начался бурный процесс возрождения интереса к искусственным нейронным сетям, на который так негативно повлияла в конце шестидесятых книга Минского и Пейперта. В работе Хопфилда впервые было обращено внимание на аналогию, которая существует между сетями с симметричными связями и давно известными физикам объектами - спиновыми стеклами. Кроме того, стало ясно, что такие сети служат прекрасной основой для построения моделей содержательно-адресованной памяти. [21]
В США изучение разумных машин типа глаз - рука проводится двумя группами исследователей. Одной из них руководят профессора М. Л. Минский и С. Пейперт из Массачусетского технологического института, а другой - профессор Дж. [22]
Комплекс вопросов, некогда философских, а ныне научных, сопряженных с понятием интеллекта, вызывал чрезвычайный интерес у Алана Тьюринга, и он наряду с немногими другими мыслителями - особенно Уорреном Маккало-ком и его молодым сотрудником Уолтером Питтсом - был Автором многих ранних исследований, приведших к созданию как самих компьютеров, так и новой технологии, а именно искусственного интеллекта. Пейперта, моих ближайших сотрудников па десятилетним исследованиям. [23]
Наш ребенок вполне хорошо понимает топологическую идею замкнутости. Это очень сложное понятие классической математики, но в терминах вычислительных процессов оно, по-видимому, оказывается не столь трудным. Но наше дитя почти наверняка будет сбито с толку ситуацией на рис. 5 ( см. Пейперт [19]): Когда автобус начинает экскурсию вокруг озера, мальчик сидит на стороне, удаленной от воды. [24]
Винера об обратной связи, благодаря которой все живое приспосабливается к окружающей среде и добивается своих целей. Пейперт) и какое-то время считалось неперспективным. Однако стремительное развитие аппаратных компьютерных средств и не оправдавшиеся надежды на возможности экспертных систем с дедуктивными выводами стали причиной второго рождения нейросетевых технологий в 1980 - х гг. Сегодня модели нейронных сетей активно разрабатываются и применяются для решения задач прогнозирования, распознавания, извлечения знаний из хранилищ данных. [25]
Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трехслойного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже. [26]
Выше отмечалось, что простой перцептрон с одним слоем обучаемых связей формирует границы областей решений в виде гиперплоскостей. Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трехслойного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже. [27]
Первый экспериментальный нейрокомпьютер Snark был построен Марвином Минским в 1951 году. Персептрон был впервые смоделирован на универсальной ЭВМ IBM-704 в 1958 году, причем его обучение требовало около получаса машинного времени. Аппаратный вариант - Mark I Perceptron, был построен в 1960 году и предназначался для распознавания зрительных образов. Его рецепторное поле состояло из 400 пикселей ( матрица фотоприемников 20x20), и он успешно справлялся с решением ряда задач - мог различать некоторые буквы. Однако по причинам, которые станут понятны по мере знакомства с теорией нейросетей, возможности первых персептронов были весьма ограничены. Позднее, в 1969 году Минский в соавторстве с Пейпертом дает математическое обоснование принципиальной, как им казалось, ограниченности персептронов ( Minsky and Papert, 1969), что послужило началом охлаждения научных кругов к нейрокомпьютингу. Исследования в этом направлении были свернуты вплоть до 1983 года, когда они, наконец, получили финансирование от Агентства Перспективных Военных Исследований США, DARPA. [28]