Градиентный спуск - Большая Энциклопедия Нефти и Газа, статья, страница 2
Какой же русский не любит быстрой езды - бессмысленной и беспощадной! Законы Мерфи (еще...)

Градиентный спуск

Cтраница 2


16 Проекция последовательности точек оврага на плоскость переменных ик и UK I. [16]

Из заданной точки U0 производится градиентный спуск в точку U0, расположенную на дне некоторого оврага.  [17]

Модификация предыдущего алгоритма, когда градиентный спуск производится из случайной точки с наименьшим значением показателя качества. Для реализации этого алгоритма необходимо на первом этапе произвести случайный перебор ( § 20.4) заданного объема.  [18]

Второй подход основан на методе градиентного спуска. Вначале выбираются некоторые случайные значения параметров, а затем эти значения постепенно изменяют, добиваясь наибольшей скорости роста целевой функции. При достижении локального максимума такой метод останавливается, поэтому для поиска глобального оптимума требуются дополнительные меры.  [19]

Известно, что с процедурами градиентного спуска связан целый ряд проблем.  [20]

Ньютона, либо к алгоритму градиентного спуска.  [21]

В программе 8.2 Р метод градиентного спуска реализован в виде процедуры GRAD с формальными параметрами, совпадающими по смыслу и обозначениям с параметрами подпрограммы GRAD на Фортране, однако из списка формальных параметров исключены имена подпрограмм функции и ее градиента. Итерационный процесс градиентного поиска реализован с использованием цикла REPEAT-UNTIL. Логическая переменная В используется для организации процесса дробления шага А.  [22]

23 Графическое изображение метода оврагов в координатах feyj - / с1Х при расчете по нулевому механизму. [23]

Пунктирная линия показывает начальную операцию - градиентный спуск. Из рассмотрения приведенных на этом рисунке данных видно, что найденный нами методом оврагов минимум не мог бы быть достигнут при использовании локальных методов. При использовании последних был бы найден менее глубокий минимум в районе четвертой точки.  [24]

Второй популярный способ основан на методе градиентного спуска. При этом вначале выбираются некоторые случайные значения параметров, а затем эти значения постепенно изменяют, добиваясь наибольшей скорости роста целевой функции. Достигнув локального максимума, такой алгоритм останавливается, поэтому для поиска глобального оптимума потребуются дополнительные усилия.  [25]

При решении статистических задач с помощью градиентного спуска приходится на заключительном этапе проводить дополнительные расчеты по отысканию оценок ковариационных матриц и прочих величин, описывающих статистические свойства оценок.  [26]

Предположим, что решено использовать метод градиентного спуска.  [27]

Таким образом, каждый этап процесса градиентного спуска имеет две составляющие: определение направления наискорейшего спуска и осуществление шага по направлению спуска.  [28]

Если размерность задачи невелика, то метод градиентного спуска всегда предпочтительнее метода покоординатного спу-ска. Но по мере роста размерности относительная эффективность метода покоординатного спуска возрастает. Эффективность численного метода, использующего большое количество итераций, определяется двумя характеристиками метода г - количеством итераций и затратами времени на одну итерацию. По мере роста размерности соотношение затрат времени на одну итерацию становится все более и более в пользу покоординатного спуска.  [29]

Если размерность задачи невелика, то метод градиентного спуска всегда предпочтительнее метода покоординатного спуска. Но по мере роста размерности относительная эффективность метода покоординатного спуска возрастает. Эффективность численного метода, использующего большое количество итераций, определяется двумя характеристиками метода - количеством итераций и затратами времени на одну итерацию. Конечно, количество итераций с ростом размерности у градиентного спуска росло медленнее, чем у покоординатного, но в целом относительная эффективность покоординатного спуска увеличивалась.  [30]



Страницы:      1    2    3    4