Cтраница 3
Определение направления градиента. [31] |
По этой причине многие алгоритмы предусматривают движение, вообще говоря, отличное от антиградиента. [32]
Если движение в итерационной процедуре уточнения значений оценок параметров осуществляется непосредственно в направлении антиградиента, то процедуру относят к алгоритмам градиентного спуска. [33]
Согласно этому методу после вычисления в начальной точке градиента функции делают в направлении антиградиента не маленький шаг, а движутся до тех пор, пока функция убывает. Достигнув точки минимума на выбранном направлении, снова вычисляют градиент функции и повторяют описанную процедуру. При этом градиент вычисляется гораздо реже, только при смене направлений движения. [34]
Тогда условие (2.36) оставляем без внимания, поскольку в результате движения в сторону антиградиента мы еще глубже погружаемся в допустимую область щ Г ах. При этом размерность вектора X повышается на единицу. [35]
Суть этой модификации сводится к тому, чтобы овражный шаг делать в направлении антиградиента существенных переменных. [36]
Оптимизация многопараметрической системы по методу градиента сводится к движению системы в пространстве параметров в направлении антиградиента на k - м шаге. Поиск по методу градиента разбивается на два этапа. [37]
Вектор g отображает направление градиента целевой функции, а вектор ( - if) - направление антиградиента. [38]
Заметим попутно, что при использовании градиентных методов приходится выбирать определенную длину шага ak вдоль направления антиградиента в точке хА, - / ( xfe), так как линейная аппроксимирующая функция не имеет конечных точек экстремума. [39]
Если точка х /, расположена на крутом склоне вблизи дна оврага, то спуск вдоль антиградиента часто приводит к тому, что точка x i попадает на противоположный склон. И поскольку антиградиент почти перпендикулярен дну оврага, то сходимость процесса минимизации будет существенно замедляться. [40]
После определения отображающей точки ( точнее, ее оценки) необходимо спускаться из нее в направлении антиградиента целевой функции. Принадлежность к ЙГР определяется следующим образом. [41]
Знак - в формуле (4.41) принят в соответствии с тем, что изменение 8xi принимается в направлении антиградиента. В рассматриваемом же случае исследуемые переменные не являются независимыми и их зависимость определяется уравнением связи. Для этого случая определим методику выбора шага по каждой из переменных, когда эти переменные ограничены уравнением связи. [42]
Один из возможных приемов рационализации заключается в спуске ( или подъеме) по поверхности отклика в направлении антиградиента ( градиента) - - метод наискорейшего спуска ( подъема) Бокса - Уилсона. Для этого исследуют выбранную область функции отклика, оценивают градиент в некоторой точке внутри этой области, а затем двигаются против или по градиенту. Спускаясь ( поднимаясь), находят точку минимума ( максимума), и в ней повторяют процедуру. [43]
При этом вектор v ( выбирается таким образом, чтобы направление PI было наиболее близко к направлению антиградиента. [44]
Один из возможных приемов рационализации заключается в спуске ( или подъеме) по поверхности отклика в направлении антиградиента ( градиента) - метод наискорейшего спуска подъема) Бокса - Уилсона. Для этого исследуют выбранную область функции отклика, оценивают градиент в некоторой точке внутри этой области, а затем двигаются против или по градиенту. Спускаясь ( поднимаясь), находят точку минимума ( максимума), и в ней повторяют процедуру. [45]