Нейрон - скрытый слой - Большая Энциклопедия Нефти и Газа, статья, страница 1
Единственное, о чем я прошу - дайте мне шанс убедиться, что деньги не могут сделать меня счастливым. Законы Мерфи (еще...)

Нейрон - скрытый слой

Cтраница 1


Нейроны скрытого слоя соединены по полносвязной схеме с нейронами выходного слоя, которые осуществляют взвешенное суммирование. Для нахождения значения весов от нейронов скрытого к выходному слою используется линейная регрессия.  [1]

Активационная функция нейронов скрытого слоя - сигмоид, выходных нейронов - линейная.  [2]

3 Пример кодировки непрерывной величины с помощью бинарных нейронов и принципа термометра. Интервал ( 0, 50 разбит на 5 равных частей. Значение попадает в 4 - й интервал. При этом состояния первых 4 из 5 кодирующих бинарных нейронов равно единице, а 5-го - нулю. [3]

Далее, состояния нейрона скрытого слоя являются непрерывными, что также является препятствием для извлечения правил. Для его устранения все значения, которые принимают нейроны скрытого слоя кластеризуются и заменяются значениями, определяющими центры кластеров. Число таких кластеров выбирается небольшим. После такой дискретизации активностей промежуточных нейронов производится проверка точности классификации объектов сетью. Если она остается приемлемой то подготовка к извлечению правил заканчивается.  [4]

Точность аппроксимации возрастает с числом нейронов скрытого слоя.  [5]

На этом рисунке показан вектор весов нейрона скрытого слоя на некотором шаге обучения и векторы изменения весов, соответствующие отдельным обучающим примерам. Векторы изменений имеют два преимущественных направления и образуют в пространстве область, существенно отличающуюся от сферической. Суть алгоритма заключается в выявлении и расщеплении таких нейронов. В результате расщепления вместо одного исходного в сети оказывается два нейрона.  [6]

7 Двухслойная сеть после прореживания связей и входных нейронов. Положительные связи выделены. [7]

Комбинируя эти связи с правилами, связывающими активности нейронов скрытого слоя с активностями выходных нейронов, получим окончательные классифицирующие правила.  [8]

9 Классическая RBF-сеть. [9]

Пусть V - количество входов сети, Н - количество нейронов скрытого слоя, Z - количество выходов сети.  [10]

В процессе обучения модифицируются 2т - мерные векторы си-наптических связей нейронов скрытого слоя. Для этого обычно используются алгоритмы градиентной оптимизации, например, обратного распространения ошибки.  [11]

12 Глобальная ( персептроны и локальная ( сети радиального базиса методы аппроксимации. [12]

В первом случае в аппроксимации в окрестности любой точки участвуют все нейроны скрытого слоя, во втором - лишь ближайшие. Как следствие такой неэффективности, в последнем случае количество опорных функций, необходимых для аппроксимации с заданной точностью, возрастает экспоненциально с размерностью пространства.  [13]

Обученная нейронная сеть содержит все возможные связи между входными нейронами и нейронами скрытого слоя, а также между последними и выходными нейронами. Полное число этих связей обычно столь велико, что из анализа их значений невозможно извлечь обозримые для пользователя классифицирующие правила. Прореживание заключается в удалении излишних связей и нейронов, не приводящем к увеличению ошибки классификации сетью. Результирующая сеть обычно содержит немного нейронов и связей между ними и ее функционирование поддается исследованию.  [14]

15 Контролируемое обучение ИНС. [15]



Страницы:      1    2    3    4