Cтраница 1
Обучение RBF-сети происходит в несколько этапов. Сначала определяются центры и отклонения для радиальных элементов; после этого оптимизируются параметры w - j линейного выходного слоя. [1]
Как и в случае RBF-сетей, этот параметр выбирается из тех соображений, чтобы шапки определенное число раз перекрывались: выбор слишком маленьких отклонений приведет к острым аппроксимирующим функциям и неспособности сети к обобщению, а при слишком больших отклонениях будут теряться детали. Требуемое значение несложно найти опытным путем, подбирая его так, чтобы контрольная ошибка была как можно меньше. К счастью, PNN-сети не очень чувствительны к выбору параметра сглаживания. [2]
Кодировка параметров скрытого слоя RBF-сети в хромосоме. [3] |
Для того, чтобы выяснить, какие шаблоны являются действительно ключевыми в понимании динамики объекта, а также одновременно выполнить синтез нейроэмулятора с минимальной структурой скрытого слоя, мы скомбинировали методику настройки синаптических весов RBF-сети с ГА. [4]
В качестве архитектуры сети использовалась Radial Basis Function [ RBF ] - сеть, являющаяся нелинейной модификацией персептрона Розенблата. В процессе создания нейросетевой модели возникла необходимость решения двух проблем: классическая методика обучения RBF-сети не определяет правила выбора ширины окон активационных функций нейронов скрытого слоя; размер скрытого слоя должен быть равен числу тренировочных шаблонов. Если просто отказаться от части шаблонов, чтобы размеры сети стали приемлемыми, то мы рискуем потерять важную информацию об объекте и получить некоторое весьма неточное решение поставленной задачи. [5]
В [18-19] это сделано для сетей перцеп-тронного типа с сигмоидальными активационными функциями, в [20] - для RBF-сетей. [6]