Метода - релаксация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Если бы у треугольника был Бог, Он был бы треугольным. Законы Мерфи (еще...)

Метода - релаксация

Cтраница 2


Саусвелл разработал для решения задач теории упругости метод релаксаций, эффективность которого особенно велика при использовании ЭЦВМ, что проявилось в последние годы.  [16]

17 Характер движения к оптимуму в методе градиента с малой ( а и большой ( б. [17]

Можно также применять алгоритм изменения тага, рассмотренный для метода релаксации. Однако он обладает недостатком, не позволяющим увеличивать шаг в процессе поиска.  [18]

Можно также применять алгоритм изменения шага, рассмотренный для метода релаксации. Однако он обладает недостатком, не позволяющим увеличивать шаг в процессе поиска.  [19]

Этот метод по существу представляет собой аналог метода наискорейшего спуска или метода релаксации с той разницей, что направление спуска выбирается случайным Образом. После того как шаги в выбранном случайном удачном направлении приводят в точку минимума функции цели по данному направлению и следующий шаг оказывается неудачным, находится новое случайное направление, по которому спуск продолжается.  [20]

Итак, несоответствие направлений границ направлениям осей оказывается камнем преткновения для метода релаксации. Средство лечения на первый взгляд ясно: надо лишь несколько повернуть оси, сделав преобразование координат, хотя бы так, чтобы направление границы стало направлением одной из осей.  [21]

22 Х-14. I определению окончания поиска в методе наискорейшего спуска. [22]

Относительно выбора стратегии изменения шага остаются справедливыми все рекомендации, приведенные для метода релаксации. Рассмотрим еще один метод выбора величины тага и заданном направлении, в котором используется информация, полученная на предыдущих тагах по этому же направлению. Сущность метода заключается в том, что в процессе движения вдоль заданною направления характер изменения целевой функции аппроксимируется по результатам трех последних тагов полиномом второго порядка.  [23]

Этот метод по существу представляет собой аналог метода пап скорейшего спуска или метода релаксации с той разницей, что направление спуска выбирается случайным образом. После того как шаги в выбранном удачном направлении приводят в точку минимума ( максимума) функции цели по данному направлению и следующий шаг оказывается неудачным, находится повое случайное па-правление, по которому спуск продолжается.  [24]

Вместо графического опишем в этих параграфах метод, часто употребляемый в связи с методами релаксации.  [25]

26 Х-18. Одномерный поиск с использованием чисел Фибоначчи. [26]

Метод поочередного изменения переменных, называемый также методом Гаусса-Зейделя, по существу аналогичен рассмотренному выше методу релаксации. Отличие заключается лишь в том, что в этом методе не определяется осевое направление, вдоль которого значение целевой функции изменяется наиболее сильно, а поочередно Изменяются все независимые переменные так, чтобы по каждой из них достигалось наименьшее ( наибольшее) значение целевой функции. Очередность варьирования независимых переменных при этом устанавливается произвольно и обычно не меняется в процессе поиска.  [27]

Вообще задача выбора стратегии изменения величины шага в градиентном поиске более важна, чем в методе релаксации. Это объясняется тем, что после каждого шага здесь находятся производные, целевой функции расчет которых связан с вычислением п значений целевой функции. Если, с одной стороны, размер шага слишком мал, то движение к оптимуму будет долгим из-за необходимости расчета целевой функции в очень многих точках. С другой стороны, если, например, в алгоритме ( IX41) шаг Л ( 0 выбран слишком большим, is районе оптимума может возникнуть рыскание, которое либо не затухает, либо затухает слишком медленно.  [28]

29 Характер движения к оптимуму в методе градиента с малой ( а и большой ( б величиной шага. [29]

Вообще задача выбора стратегии изменения величины шага в градиентном поиске более важна, чем в методе релаксации. Это объясняется тем, что после каждого шага здесь находятся производные целевой функции, расчет которых связан с вычислением п значений целевой функции. Если, с одной стороны размер шага слишком мал, то движение к оптимуму будет долгим из-за необходимости расчета целевой функции в очень многих точках. С другой стороны, если, например, в алгоритме ( IX, 41) шаг № выбран слишком большим, в районе оптимума может возникнуть рыскание, которое либо не затухает, либо затухает слишком медленно.  [30]



Страницы:      1    2    3    4