Пейперт - Большая Энциклопедия Нефти и Газа, статья, страница 2
Если памперсы жмут спереди, значит, кончилось детство. Законы Мерфи (еще...)

Пейперт

Cтраница 2


В элегантной и захватывающей книге, названной Яер-септроны ( подзаголовком которой является также Вычислительная геометрия), Минский и Пейперт [ Minsky, Papert ( 1969) ] изучают сложность предикатов, которые распознают определенные геометрические свойства, такие как выпуклость.  [16]

Розенблатт трагически погиб, не перенеся тяжелую депрессию, вызванную прекращением финансирования и охлаждением научного собщества к персептронам после выхода в свет книги Минского и Пейперта.  [17]

Пиаже над тем, как ребенок большинство своих открытий совершает самостоятельно, - необходимо лишь, чтобы окружающий его фон был достаточно богат, - профессор Пейперт показывает, что компьютеризация этого фона создает новую, невиданную ранее обстановку, которая требует новых представлений и в психологии развития.  [18]

Пейперт, выступивший на специальном конгрессе в Японии ( 1980 г.) с докладом Детство по-новому: присутствие ЭВМ как эксперимент в психологии развития, предсказывает всестороннее вторжение ЭВМ в мир ребенка, для которого она станет интеллектуальным орудием, применяемым малышом так же свободно, как перо и карандаш, но с большим разнообразием и воображением.  [19]

Рассмотрим другой компромисс, между размером памяти и временем вычислений. В книге [5] Пейперт и я поставили простую проблему: если имеется произвольный набор слов по п бит, то сколько обращений к памяти потребуется, чтобы ответить, какое из этих слов является ближайшим ( по числу совпадающих бит) к произвольному заданному слову. Для идентификации точного отождествления можно использовать хеширование, и эта проблема достаточно хорошо изучена. Поскольку существует много способов кодирования библиотечного набора слов, причем в одних из них используется больше памяти, чем в других, то более точно проблема формулируется следующим образом: насколько должен возрасти объем памяти для достижения данного сокращения числа обращений к памяти. В определенном смысле ответ тривиален: если память достаточно велика, то требуется только одно обращение, потому что мы можем использовать в качестве адреса сам вопрос и запомнить ответ в регистре с таким адресом. Но если память как раз достаточна для хранения информации в библиотеке, та нужно искать все слова из библиотеки, - и нам не известно сколько-нибудь значительного промежуточного результата.  [20]

В 1982 году в докладах Американской академии наук была опубликована статья американского физика, специалиста в области физики твердого тела из Калифорнийского Технологического Института, Джона Хопфилда ( Hopfield. С этой работы начался бурный процесс возрождения интереса к искусственным нейронным сетям, на который так негативно повлияла в конце шестидесятых книга Минского и Пейперта. В работе Хопфилда впервые было обращено внимание на аналогию, которая существует между сетями с симметричными связями и давно известными физикам объектами - спиновыми стеклами. Кроме того, стало ясно, что такие сети служат прекрасной основой для построения моделей содержательно-адресованной памяти.  [21]

В США изучение разумных машин типа глаз - рука проводится двумя группами исследователей. Одной из них руководят профессора М. Л. Минский и С. Пейперт из Массачусетского технологического института, а другой - профессор Дж.  [22]

Комплекс вопросов, некогда философских, а ныне научных, сопряженных с понятием интеллекта, вызывал чрезвычайный интерес у Алана Тьюринга, и он наряду с немногими другими мыслителями - особенно Уорреном Маккало-ком и его молодым сотрудником Уолтером Питтсом - был Автором многих ранних исследований, приведших к созданию как самих компьютеров, так и новой технологии, а именно искусственного интеллекта. Пейперта, моих ближайших сотрудников па десятилетним исследованиям.  [23]

Наш ребенок вполне хорошо понимает топологическую идею замкнутости. Это очень сложное понятие классической математики, но в терминах вычислительных процессов оно, по-видимому, оказывается не столь трудным. Но наше дитя почти наверняка будет сбито с толку ситуацией на рис. 5 ( см. Пейперт [19]): Когда автобус начинает экскурсию вокруг озера, мальчик сидит на стороне, удаленной от воды.  [24]

Винера об обратной связи, благодаря которой все живое приспосабливается к окружающей среде и добивается своих целей. Пейперт) и какое-то время считалось неперспективным. Однако стремительное развитие аппаратных компьютерных средств и не оправдавшиеся надежды на возможности экспертных систем с дедуктивными выводами стали причиной второго рождения нейросетевых технологий в 1980 - х гг. Сегодня модели нейронных сетей активно разрабатываются и применяются для решения задач прогнозирования, распознавания, извлечения знаний из хранилищ данных.  [25]

Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трехслойного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже.  [26]

Выше отмечалось, что простой перцептрон с одним слоем обучаемых связей формирует границы областей решений в виде гиперплоскостей. Двухслойный перцептрон может выполнять операцию логического И над полупространствами, образованными гиперплоскостями первого слоя весов. Это позволяет формировать любые выпуклые области в пространстве входных сигналов. С помощью трехслойного перцептрона, используя логическое ИЛИ для комбинирования выпуклых областей, можно получить области решений произвольной формы и сложности, в том числе невыпуклые и несвязные. Пейперт, однако они сомневались, что для таких процедур можно открыть мощный аналог процедуры обучения простого перцептрона. В настоящее время в результате возрождения интереса к многослойным сетям предложено несколько таких процедур. Одной из них является алгоритм обратного распространения ошибки, который будет рассмотрен ниже.  [27]

Первый экспериментальный нейрокомпьютер Snark был построен Марвином Минским в 1951 году. Персептрон был впервые смоделирован на универсальной ЭВМ IBM-704 в 1958 году, причем его обучение требовало около получаса машинного времени. Аппаратный вариант - Mark I Perceptron, был построен в 1960 году и предназначался для распознавания зрительных образов. Его рецепторное поле состояло из 400 пикселей ( матрица фотоприемников 20x20), и он успешно справлялся с решением ряда задач - мог различать некоторые буквы. Однако по причинам, которые станут понятны по мере знакомства с теорией нейросетей, возможности первых персептронов были весьма ограничены. Позднее, в 1969 году Минский в соавторстве с Пейпертом дает математическое обоснование принципиальной, как им казалось, ограниченности персептронов ( Minsky and Papert, 1969), что послужило началом охлаждения научных кругов к нейрокомпьютингу. Исследования в этом направлении были свернуты вплоть до 1983 года, когда они, наконец, получили финансирование от Агентства Перспективных Военных Исследований США, DARPA.  [28]



Страницы:      1    2