Cтраница 3
![]() |
Классификация стратегий поиска. [31] |
Рассмотрим инструментальные средства ЭМ, в которых используется ряд простейших методов одномерного поиска, градиентного поиска, а также статистических методов оптимизации. На рис. 4.1 показана одна из возможных классификаций таких стратегий поиска. [32]
С другой стороны, существуют и методы непосредственного нахождения решения задачи (1.17), например методы градиентного поиска. [33]
Для минимизации F используют различные поисковые методы [5-9], но наибольшее распространение получили методы, основанные на градиентном поиске. Сходимость градиентного метода тем выше, чем ближе линии равного уровня к круговым, что определяется выбором масштабов по константам. Поэтому существенное ускорение поиска может быть достигнуто при удачном выборе масштабов. С этой целью используют процедуру преобразования констант k n Kijkn, что уменьшает вытянутость линий равного уровня. Наиболее целесообразной является следующая комбинация описанных методов. Вначале осуществляют метод наискорейшего-спуска с постоянным шагом и в ходе движения вычисляют Кц. Пример применения этой комбинации, приведенный в [ б, 6 ], демонстрирует ее эффективность. [34]
Кроме указанных методов для поиска глобального оптимума реализованы в виде программ и показали хорошие результаты еще три метода [5, 59]: комбинация случайного и статистического градиентного поиска решения, поиск экстремума системой вероятностных автоматов Буша - Мостеллера, поиск экстремума с использованием направляющей сферы. [35]
![]() |
Блок-схема экстремального регулятора с использованием синхронного детектора. [36] |
Разница лишь в том, что в данном случае используется безы-нерционность объекта и наклон характеристики определяется путем синхронного детектирования, а не методом парных проб, используемых в градиентном поиске. [37]
Для целевых функций типа / J ( W) происходит плавное изменение знака производной вдоль gr - Градиентные направления функции / 3 ( W) при переходе от одной точки к другой в пределах WF заметно изменяются, что, собственно, и обусловливает неэффективность градиентного поиска в окрестностях гребней. Действительно, эффективность поиска была бы высокой, если бы отображающая точка оказалась точно на гребне. Однако вероятность попадания точно на гребень крайне мала. [38]
В программе 8.2 Р метод градиентного спуска реализован в виде процедуры GRAD с формальными параметрами, совпадающими по смыслу и обозначениям с параметрами подпрограммы GRAD на Фортране, однако из списка формальных параметров исключены имена подпрограмм функции и ее градиента. Итерационный процесс градиентного поиска реализован с использованием цикла REPEAT-UNTIL. Логическая переменная В используется для организации процесса дробления шага А. [39]
А это уравнение линии градиента, которая всюду ортогональна поверхностям равного уровня объекта. Таким образом, траектория градиентного поиска близка к градиентной кривой, чего, собственно, и следовало ожидать. При больших значениях параметра а траектория поиска может значительно отличаться от линии градиента. [40]
Методы поиска экстремума функции многих переменных хорошо разработаны, и их применение оказывается более простым, чем применение прямого метода поиска. Наиболее часто используют какой-либо вариант градиентного поиска. [41]
Экстремальные системы классифицируются по способу поиска экстремума: системы с регулярным поиском и случайным поиском. К регулярным методам относятся хорошо известные методы полного перебора, Гаусса - Зейделя, градиентного поиска и их модификации. В случайных методах направление поиска ищется случайным образом. [42]
Процесс нахождения оптимума в этом случае неизбежно шаговый. Градиентные методы отличаются от обычных методов шагового поиска на сетке значений переменных ( в которых очередной шаг совершался после нескольких пробных шагов в том направлении, где возрастание или убывание функции наибольшее, но сам шаг постоянен) тем, что в процессе градиентного поиска величина шага зависит от скорости изменения функции, что в - ряде случаев существенно ускоряет процесс поиска. [43]
При большом Q скачки бывают чаще, чем при малом. Следовательно, из глубоких экстремумов система выпрыгивает реже, чем из мелких. Если теперь увеличивать М, то различие между глубоким и мелким экстремумом, куда систему заводит градиентный поиск, окажется еще больше. Однако из глубокого она будет выпрыгивать относительно мелкого еще реже. Очевидно, что при очень большом М это отношение станет очень малым и система практически застрянет в самом глубоком ( глобальном) экстремуме. [44]
Известно, что при оптимальном управлении в случае возмущения по концентрации Сй следует установить температуру стенки реактора равной температуре в установившемся состоянии. Именно это и делает системаг изображенная на рис. 7, так как время, необходимое для расчета и поиска оптимального значения температуры, пренебрежимо мало по сравнению со временем прохождения потока через реактор. Когда изменяется температура Т0, система управления работает так же и, следовательно, с отставанием на 0 3 от теоретического оптимума. Наконец, в случае, когда после очередного измерения температуры логический сигнал остается равным О, на первый способ управления накладывается второй, основанный на градиентном поиске и позволяющий обеспечить хорошее управление оптимумом, которое в противном случае было бы ограничено точностью модели. При медленном изменении С0 и Т0 второй способ не дает хороших результатов. Измерение Т3 должно производиться непрерывно, чтобы можно было бы начать коррекцию сразу же после обнаружения возмущения. [45]