Cтраница 2
Широко используют для решений на моделях итеративные методы. Сущность их заключается в вычислении некоторого пробного решения, которое затем улучшается за некоторое число итераций ( шагов) с помощью соответствующего алгоритма. К итеративным методам относятся методы линейного, нелинейного и динамического программирования, а также метод полного перебора вариантов, который может быть с успехом применей при небольшом числе оптимизируемых переменных, и их возможных значений. [16]
Учитывая сказанное, неудивительно, что рассмотренные итеративные методы первоначально были разработаны не в теории оптимизации, а в линейной алгебре для решения больших и даже не очень больших, но плохо обусловленных, систем линейных уравнений. [17]
Несмотря на свои привлекательные черты, итеративные методы группировки имеют существенное ограничение. Наиболее простой способ отыскать оптимальное разбиение множества данных с помощью итеративного метода заключается в образовании всевозможных разбиений этого множества данных. Но такое, казалось бы, простое с точки зрения математических вычислений решение возможно лишь для очень небольших и тривиальных задач. Для 15 объектов и 3 кластеров этот подход требует рассмотрения 217945728000 конкретных разбиений, что, очевидно, за пределами возможностей современных вычислительных машин. [18]
В отличие от иерархических агломеративных методов итеративные методы группировки кластерного анализа не имели широкого применения, и специфика использования этих методов не до конца понимается их потенциальными пользователями. [19]
Альтернативными свертыванию методами построения проекций многогранников являются итеративные методы, в которых искомая проекция задается с помощью двух многогранников - оценок проекции, которые постепенно сближаются. [20]
Для оценки оптимальных коэффициентов автоматические эквалайзеры используют итеративные методы. Система уравнений, приведенная в выражении (3.93), не учитывает воздействие шума канала. При получении устойчивого решения для значений весовых коэффициентов фильтра, требуется усреднять либо данные для устойчивой статистики сигнала, либо зашумленное решение, полученное из зашумленных данных. Сложность алгоритма и проблемы численной устойчивости часто приводит к разработке алгоритмов, усредняющих зашумленные решения. Наиболее надежным из этого класса алгоритмов является алгоритм минимальной среднеквадратической ошибки. Каждая итерация этого алгоритма использует зашумленную оценку градиента ошибок для регулировки весовых коэффициентов относительно снижения среднеквадратической ошибки. Градиент шума - это просто произведение e ( k) rx скалярного значения ошибки e k) и вектора данных Гд, Вектор гх - это вектор выборок канала, которые подверглись воздействию шума и в момент k находились на выравнивающем фильтре. [21]
При отсутствии производных от функции цели применяются итеративные методы поиска экстремума. Наиболее эффективны последовательные методы поиска экстремума ( дихотомия, золотое сечение, градиентный и др.), когда анализируются результаты предыдущего эксперимента. Эти методы рассматриваются в основном в математической теории эксперимента. [22]
Для подстройки параметров адаптивной модели наиболее пригодны итеративные методы оценивания параметров, которые в дальнейшем для кратности будут называться методами адаптации. [23]
Одна из главных проблем, присущая всем итеративным методам - проблема субоптимального решения. Поскольку эти методы могут выбрать лишь очень малую часть всех возможных разбиений, есть определенная вероятность, что будет выбрано субоптимальное разбиение. Такую проблему называют также проблемой локального ( в противоположность глобальному) оптимума. Действительно, объективного способа определить, является ли полученное с помощью итеративного метода группировки решение глобально оптимальным, нет. Однако один подход к решению этой проблемы состоит в том, чтобы применять метод кластеризации совместно с подходящей процедурой проверки результата на достоверность ( см. разд. [24]
Идеи предложенного алгоритма могут быть реализованы как итеративными методами ( типа Рунге), так и разностными ( типа Адамса), а также их промежуточными модификациями. [25]
Мы не будем говорить более подробно об итеративных методах. Предполагается, что читатель знаком с ними в применении к линейным и нелинейным системам конечных уравнений. Основные идеи, с которыми он там познакомился, в значительной мере удается перенести и на случай уравнений в функциональных пространствах. [26]
Для повышения устойчивости счета на ЭВМ целесообразно применять сходящиеся итеративные методы. [27]
Большинство хорошо разработанных алгоритмов оптимального программирования принадлежит к итеративным методам, которые можно подразделить на три класса. [28]
Общее название способов оптимизации, в которых обычно используются итеративные методы решения. [29]
В настоящей главе под стохастической аппроксимацией подразумевается теория и итеративные методы решения задач стохастического программирования по последовательным реализациям наборов случайных параметров условий задачи. [30]