Метод - градиентный спуск - Большая Энциклопедия Нефти и Газа, статья, страница 2
Не волнуйся, если что-то работает не так. Если бы все работало как надо, ты сидел бы без работы. Законы Мерфи (еще...)

Метод - градиентный спуск

Cтраница 2


16 Аппроксимация, касательными к Л. [16]

Если это не имеет места, сходимость различных вариантов метода градиентного спуска не может быть гарантирована. На практике имеет место медленная сходимость или отсутствие сходимости вовсе, если число угловых точек в h велико или же угловой точкой является максимум. Алгоритм основывается на том факте, что если лагранжева задача разрешима при, то линейная опорная функция) к графику h в точке и легко может быть построена.  [17]

18 Поиск наименьшего значения функции методом градиентного спуска.| Поиск наименьшего значения функции методом наискорейшего спуска. [18]

Сравнение рис. 20 и 21 показывает, насколько более эффективным является метод градиентного спуска.  [19]

Метод спуска, в котором sk q ( xk), называют методом градиентного спуска.  [20]

Как уже говорилось, в случае задач безусловной минимизации весьма распространенным релаксационным методом является метод градиентного спуска.  [21]

Как уже говорилось, в случае задач безусловной минимизации весьма распространенным релаксационным методом является метод градиентного спуска. Однако для задач с ограничениями направление спуска вдоль антиградиента не обязательно является возможным. Для отыскания возможного направления в точке xk напрашивается мысль спроектировать точку vk-xk - vftq ( xk) ( vk - некоторое фиксированное положительное число) на множество X и в качестве направления спуска взять - skp ( vk) - xk, гд & p ( vk) - проекция vk на X, после чего осуществлять спуск вдоль этого направления.  [22]

В последней оценке константа С в я раз превосходит соответствующую константу в оценке скорости сходимости метода градиентного спуска и в п раз меньше соответствующей константы в оценке скорости сходимости метода случайного покоординатного спуска.  [23]

Метод спуска, в котором s /, ( / / ( x /), называют методом градиентного спуска.  [24]

Для решения задачи разработаны и запрограммированы два различных метода: метод Л онте - Карло с сужением области поиска [62] и метод градиентного спуска. Изложим второй метод, приводящий к более компактной программе.  [25]

Обратим внимание на то, что постоянный множитель при величине 1 / т в оценках скорости сходимости этого метода в п раз больше соответствующего множителя в оценках метода градиентного спуска.  [26]

Существуют различные алгоритмы обучения нейронных сетей, одним из наиболее популярных является алгоритм обратного распространения ошибки ( Backpropagation, BP), в современном виде разработанный в Массачусетском технологическом институте и являющийся по существу методом градиентного спуска.  [27]

Такой выбор подтверждается и теоретически, ибо при alf a 4 норма оператора, обратного к оператору растяжения пространства, становится малой, что замедляет сходимость метода. При ch I получаем метод обобщенного градиентного спуска с растяжением пространства и постоянным шагом.  [28]

Оценим скорость сходимости метода. Для этого применим прием, который уже употреблялся при оценке скорости сходимости метода наискорейшего градиентного спуска.  [29]

Если в задаче оптимального управления мы будем исключать управления и рассматривать аддитивную функцию (1.10), то метод градиентного спуска приобретает ряд особенностей, на которых имеет смысл остановиться.  [30]



Страницы:      1    2    3