Изменение - весы - Большая Энциклопедия Нефти и Газа, статья, страница 2
Демократия с элементами диктатуры - все равно что запор с элементами поноса. Законы Мерфи (еще...)

Изменение - весы

Cтраница 2


При изучении реакций между таблетками окислов удобней определять изменение весов таблеток.  [16]

Когда возбужденных нейронов в области конкуренции нет, для изменения весов используются другие выражения. Это необходимо, поскольку процесс обучения начинается с нулевыми значениями весов; поэтому первоначально нет возбужденных нейронов ни в одной области конкуренции, и обучение производиться не может.  [17]

В узаконе осуществляется дополнительное ( к операциям а-закона) изменение весов всех нейронов ( как возбужденных, так и невозбужденных) на одну и ту же величину, выбираемую на каждом шаге так, чтобы сумма весов всех нейронов всегда была равной нулю.  [18]

После вычисления А, которое равно 1, и после изменения весов [ лг.  [19]

Следует иметь в виду, что если в каком-то интервале изменения весов параметр оптимизации находится в области экстремальных значений, то необходимо выбирать большие значения весов, так как последним соответствует более резкое изменение потенциальной функции.  [20]

Эту процедуру уточнения кривой и весов продолжают до тех пор, пока изменения весов не станут меньше заранее назначенной величины, отражающей точность проводимых расчетов.  [21]

Эту процедуру уточнения кривой и весов продолжают до тех пор, пока изменения весов не станут меньше заранее назначенной величины, отображающей точность проводимых расчетов.  [22]

Эту процедуру уточнения кривой и весов продолжают до тех пор, пока изменения весов не станут меньше заранее назначенной величины, отражающей точность проводимых расчетов.  [23]

Метод сигнального обучения Хэбба предполагает вычисление свертки предыдущих изменений выходов для определения изменения весов.  [24]

Следующие примеры относятся к той же задаче, однако при расширенном диапазоне изменения весов.  [25]

Из примеров 4.23 - 4.26 следует вывод, что чем больше интервал изменения весов, тем меньше минимальное значение погрешности. Поэтому для получения нейронной сети, которая сможет наиболее точно реализовать систему XOR ( т.е. для которой разность между эталонным и расчетным выходными значениями будет минимальной), необходимо подбирать веса из как можно более широкого интервала допустимых значений.  [26]

Она обычно задается в виде интервалов, каждый из которых определяет область изменения весов критериев. Очевидно, что выбор интервалов - субъективный акт и результат менее достоверен, чем при использовании качественной информации. С другой стороны, он более надежен по сравнению с теми случаями, когда допускается возможность получения точных количественных весов критериев.  [27]

Таким образом, изменение выходного сигнала сумматора в процессе обучения обусловлено исключительно изменением весов нейронов. В силу определения обобщенного а-закона поощрения, изменения весов нейронов при показе любого изображения в процессе обучения ( но, вообще говоря, не в процессе самообучения) не зависят от того места, которое данное изображение занимает в обучающей последовательности. Поскольку же суммарное приращение веса любого нейрона в процессе обучения равно просто сумме приращений на каждом шаге процесса, то справедливость теоремы 1 тем самым полностью доказана.  [28]

Это та же задача, что и в предыдущих примерах, однако интервал изменения весов значительно расширен.  [29]

Основная идея ВР состоит в том, чтобы вычислять чувствительность ошибки сети к изменениям весов. Для этого нужно вычислить частные производные от ошибки по весам.  [30]



Страницы:      1    2    3    4