Cтраница 4
На рис, 1.35 изображена многослойная сеть, которая может обучаться при помощи процедуры обратного распространения. [46]
Скорость газового потока-около 40 - 60 - м / сек, что значительно больше скорости обратного распространения пламени, температура пламени, а следовательно, и реакции ацетиленообразования-1450 - 1500 С. [47]
Схема искусственного нейрона. [48] |
На рис. 6.17 представлена схема искусственного нейрона, используемого в качестве основного строительного блока в сетях обратного распространения. [49]
Схема искусственного нейрона. [50] |
На рис. 1.33 представлена схема искусственного нейрона, используемого в качестве основного строительного блока в сетях обратного распространения. [51]
Ловушки локальных минимумов досаждают всем алгоритмам обучения, основанным на поиске минимума, включая персептрон и сети обратного распространения, и представляют серьезную и широко распространенную трудность, которой часто не замечают. Стохастические методы позволяют решить эту проблему. Стратегия коррекции весов, вынуждающая веса принимать значение глобального оптимума в точке В, возможна. [52]
Роберт Хехт-Нильсон, создатель сети встречного распространения ( СВР), осознавал ее ограничения: СВР, конечно, уступает обратному распространению в большинстве приложений, связанных с сетевыми отображениями. [53]
Траектория конца вектора полной намагниченности во время перемагнкчява-нкя для hjj - 1 92 и двух различных значений Л при Як 2 4 Э, lic - 1 0. [54] |
Самые последние исследования показали, что вращательные процессы имеют место при высокоскоростном перешгничивании, в то время как при малых скоростях наблюдается обратное распространение диффузных границ. [55]
Ответ состоит в том, чтобы использовать механизм контрольной кросс-проверки, при котором часть обучающих наблюдений резервируется и в обучении по алгоритму обратного распространения не используется. Вместо этого, по мере работы алгоритма, она используется для независимого контроля результата. По мере того как сеть обучается, ошибка обучения, естественно, убывает, и, пока обучение уменьшает действительную функцию ошибок, ошибка на контрольном множестве также будет убывать. Если же контрольная ошибка перестала убывать или даже стала расти, это указывает на то, что сеть начала слишком близко аппроксимировать данные и обучение следует остановить. Это явление чересчур точной аппроксимации в процессе обучения и называется переобучением. [56]
Вектор весов нейрона скрытого слоя и изменения, соответствующие отдельным обучающим примерам. [57] |
Расщеплять нейроны, векторы изменений которых имеют два преимущественных направления, необходимо потому, что наличие таких нейронов приводит к осцилляциям при обучении методом обратного распространения. При обучении методом с интегральной функцией ошибки наличие таких нейронов приводит к попаданию в локальный минимум с большим значением ошибки. [58]
Как показывает уравнение (3.2), эта функция, называемая сигмоидом, весьма удобна, так как имеет простую производную, что используется при реализации алгоритма обратного распространения. [59]