Cтраница 2
В градиентном алгоритме на каждой итерации вычисляется направление антиградиента адаптивного рельефа и делается шаг заданной величины. В процессе обучения величина шага уменьшается. Большие значения шага на начальных итерациях обучения могут приводить к возможному возрастанию значения функции ошибки. В конце обучения величина шагов мала и значение функции ошибки уменьшается на каждой итерации. [16]
В соответствии с (4.41) допустимое направление совпадает с антиградиентом, так как исходная точка в допустимой области. [17]
И в этом случае s можно интерпретировать как проекцию антиградиента на допустимое многообразие, поскольку ортогональная ему составляющая вектора g ( вида Az) вклада в s не дает. [18]
После выполнения неравенств (12.151) спуск осуществляется в направлении проекции антиградиента целевой функции на касательную гиперплоскость. [19]
Переход к новой точке в градиентном методе осуществляется в направлении антиградиента. [20]
Градиент функции задает в данной точке направление наискорейшего роста функции, антиградиент, соответственно, - наискорейшего убывания функции. [21]
Наиболее частое качестве направления р /, ( со) используют антиградиент наблюдаемой реализации функции F ( сод. [22]
Определение точки минимума функции 3 ( Х градиентным методом и методом наискорейшего спуска. [23] |
Поиск экстремума функции 3 в случае ее минимизации осуществляется в направлении антиградиента. Для этого в каждой точке поиска А определяется вектор-градиент и делается шаг по направлению антиградиента. [24]
Итак, метод изменения масштабов в сочетании с методом спуска вдоль антиградиента можно интерпретировать как обобщенный метод градиентного спуска, где в качестве Ak выбирается диагональная матрица А вторых производных. [25]
В отличие от градиентных методов, где направление минимизации определяется по значению антиградиента на каждом шаге, в методе сопряженных градиентов для определения направления спуска на & - й итерации используется информация, полученная на предыдущем, ( k - 1) - м шаге. [26]
Так, если длина шага выбирается из условия минимизации функции вдоль направления антиградиента, то получаем вариант градиентного метода, носящий название метода наискорейшего спуска. [27]
В связи с этим направление наискорейшего спуска в данной ситуации называют направлением антиградиента. [28]
Суть этой модификации сводится к тому, чтобы овражный шаг делать в направлении антиградиента существенных переменных. [29]
В методе наискорейшего спуска длина шага выбирается кз условия минимизации функции вдоль направления антиградиента. [30]