Cтраница 1
Нейроны скрытого слоя соединены по полносвязной схеме с нейронами выходного слоя, которые осуществляют взвешенное суммирование. Для нахождения значения весов от нейронов скрытого к выходному слою используется линейная регрессия. [1]
Активационная функция нейронов скрытого слоя - сигмоид, выходных нейронов - линейная. [2]
Далее, состояния нейрона скрытого слоя являются непрерывными, что также является препятствием для извлечения правил. Для его устранения все значения, которые принимают нейроны скрытого слоя кластеризуются и заменяются значениями, определяющими центры кластеров. Число таких кластеров выбирается небольшим. После такой дискретизации активностей промежуточных нейронов производится проверка точности классификации объектов сетью. Если она остается приемлемой то подготовка к извлечению правил заканчивается. [4]
Точность аппроксимации возрастает с числом нейронов скрытого слоя. [5]
На этом рисунке показан вектор весов нейрона скрытого слоя на некотором шаге обучения и векторы изменения весов, соответствующие отдельным обучающим примерам. Векторы изменений имеют два преимущественных направления и образуют в пространстве область, существенно отличающуюся от сферической. Суть алгоритма заключается в выявлении и расщеплении таких нейронов. В результате расщепления вместо одного исходного в сети оказывается два нейрона. [6]
![]() |
Двухслойная сеть после прореживания связей и входных нейронов. Положительные связи выделены. [7] |
Комбинируя эти связи с правилами, связывающими активности нейронов скрытого слоя с активностями выходных нейронов, получим окончательные классифицирующие правила. [8]
![]() |
Классическая RBF-сеть. [9] |
Пусть V - количество входов сети, Н - количество нейронов скрытого слоя, Z - количество выходов сети. [10]
В процессе обучения модифицируются 2т - мерные векторы си-наптических связей нейронов скрытого слоя. Для этого обычно используются алгоритмы градиентной оптимизации, например, обратного распространения ошибки. [11]
![]() |
Глобальная ( персептроны и локальная ( сети радиального базиса методы аппроксимации. [12] |
В первом случае в аппроксимации в окрестности любой точки участвуют все нейроны скрытого слоя, во втором - лишь ближайшие. Как следствие такой неэффективности, в последнем случае количество опорных функций, необходимых для аппроксимации с заданной точностью, возрастает экспоненциально с размерностью пространства. [13]
Обученная нейронная сеть содержит все возможные связи между входными нейронами и нейронами скрытого слоя, а также между последними и выходными нейронами. Полное число этих связей обычно столь велико, что из анализа их значений невозможно извлечь обозримые для пользователя классифицирующие правила. Прореживание заключается в удалении излишних связей и нейронов, не приводящем к увеличению ошибки классификации сетью. Результирующая сеть обычно содержит немного нейронов и связей между ними и ее функционирование поддается исследованию. [14]
![]() |
Контролируемое обучение ИНС. [15] |