Запомненный образ - Большая Энциклопедия Нефти и Газа, статья, страница 2
Если из года в год тебе говорят, что ты изменился к лучшему, поневоле задумаешься - а кем же ты был изначально. Законы Мерфи (еще...)

Запомненный образ

Cтраница 2


16 Упрощенный слон сравнения. [16]

Как показано на рис. 8.3, нейрон в распознающем слое имеет, максимальную реакцию, если вектор С, являющийся выходом слоя сравнения, соответствует набору его весов, следовательно, веса представляют запомненный образ или экземпляр для категории входных векторов. Эти веса являются действительными числами, а не двоичными величинами.  [17]

Для решения задач векторной классификации Карпентером и Гроссбергом предложен класс нейронных сетей, реализующих модели адаптивной резонансной теории ( APT) ( ART-1, ART-2 и ARTMAP), сохраняющих пластичность для запоминания новых образов и, в то же время, предотвращающих изменение ранее запомненных образов.  [18]

Вначале на вход заново проинициированной системы подается буква С. Так как отсутствуют запомненные образы, фаза поиска заканчивается неуспешно; новый нейрон выделяется в слое распознавания, и веса Tj устанавливаются равными соответствующим компонентам входного вектора, при этом веса Bj представляют масштабированную версию входного вектора.  [19]

Если не выработан сигнал сброса, сходство является адекватным, и процесс классификации завершается. В противном случае другие запомненные образы должны быть исследованы с целью поиска лучшего соответствия. При этом торможение возбужденного нейрона в распознающем слое приводит к установке всех компонент вектора R в О, G1 устанавливается в 1 и входной вектор X опять прикладывается в качестве С. В результате другой нейрон выигрывает соревнование в слое распознавания и другой запомненный образ Р возвращается в слой сравнения. Если Р не соответствует X, возбужденный нейрон в слое распознавания снова тормозится.  [20]

Четвертым символом является буква Е с двумя различными искажениями. Она не соответствует ранее запомненному образу ( S меньше чем р), поэтому для ее запоминания выделяется новый нейрон.  [21]

Этот процесс может быть визуально представлен в форме направленного движения мяча по резиновой ленте, вытянутой над столом, причем каждому запомненному образу соответствует точка, вдавленная в направлении поверхности стола. Данный процесс формирует минимум гравитационной энергии в каждой точке, соответствующей запомненному образу, с соответствующим искривлением поля притяжения в направлении к данной точке. Свободно движущийся мяч попадает в поле притяжения и в результате будет двигаться в направлении энергетического минимума, где и остановится.  [22]

Сеть APT представляет собой векторный классификатор. Входной вектор классифицируется в зависимости от того, на какой из множества ранее запомненных образов он похож. Свое классификационное решение сеть APT выражает в форме возбуждения одного из нейронов распознающего слоя. Если входной вектор не соответствует ни одному из запомненных образов, создается новая категория посредством запоминания образа, идентичного новому входному вектору. Если определено, что входной вектор похож на один из ранее запомненных векторов с точки зрения определенного критерия сходства, запомненный вектор будет изменяться ( обучаться) под воздействием нового входного вектора таким образом, чтобы стать более похожим на этот входной вектор.  [23]

Конечно, ассоциативная память может быть реализована и без использования нейронных сетей. Для достаточно с помощью обычного компьютера осуществить последовательное сравнение внешнего стимула со всеми предварительно запомненными образами, выбрав из них тот, для которого Хэммингово расстояние до входного сигнала минимально. Однако, сеть Хопфилда позволяет исключить перебор состояний памяти и осуществить эту процедуру параллельным способом, при котором время выборки из памяти не увеличивается с ростом числа запомненных образов.  [24]

Может показаться, что в описанных алгоритмах отсутствует необходимость наличия фазы поиска за исключением случая, когда для входного вектора должен быть распределен новый несвязанный нейрон. Это не совсем так; предъявление входного вектора, сходного, но не абсолютно идентичного одному из запомненных образов, может при первом испытании не обеспечить выбор нейрона слоя распознавания с уровнем сходства большим р, хотя такой нейрон будет существовать.  [25]

Кроме выполнения некорректной классификации, может быть нарушен процесс обучения. Так как Т2 равно 11100, только первая единица соответствует единице входного вектора, и С устанавливается в 10000, критерий сходства удовлетворяется и алгоритм обучения устанавливает вторую и третью единицы векторов Т2 и 1.2 в нуль, разрушая запомненный образ.  [26]

В случае совпадения или удовлетворения условий близости векторов X и У процесс классификации завершается. Признаком этого является отсутствие на выходе схемы определения сходства векторов сигнала торможения ( сброса) возбужденного в текущем цикле классификации нейрона слоя распознавания. В противном случае осуществляется поиск среди других запомненных образов для определения наиболее близкого к входному. При торможении возбужденного нейрона вектор R обнуляется, на выходе схемы ИЛИ 1 устанавливается уровень единицы, и вновь подготавливается прохождение входного вектора X на выходы нейронов слоя сравнения без изменений У X. В результате этой установки в слое распознавания возбуждается другой нейрон, и другой запомненный образ Z поступает на нейроны слоя сравнения. В случае несоответствия Z и X, возбужденный нейрон в слое распознавания опять тормозится.  [27]

Абсолютное значение х также учитывается при обучении. Если значение входа велико, то небольшое изменение веса сильно меняет выход. Чем меньше меняются веса, тем меньше вероятность искажения уже запомненных образов. Поэтому множитель xtj оправдан.  [28]

При большом А, как и в модели Хопфилда, рядом с запомненными образами могут находиться ложные образы. При уменьшении этого параметра, как показывает анализ областей притяжения, первыми погибают неподвижные точки, соответствующие ложным образам. В то же время область притяжения неподвижных точек, которые соответствуют запомненным образам, не только не уменьшается, но даже увеличивается.  [29]

ДАЛ обладает способностью к обобщению. Например, если незавершенный или частично искаженный вектор подается в качестве А, сеть имеет тенденцию к выработке запомненного вектора В, который в свою очередь стремится исправить ошибки в А. Возможно, для этого потребуется несколько проходов, но сеть сходится к воспроизведению ближайшего запомненного образа.  [30]



Страницы:      1    2    3