Безусловная оптимизация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Когда к тебе обращаются с просьбой "Скажи мне, только честно...", с ужасом понимаешь, что сейчас, скорее всего, тебе придется много врать. Законы Мерфи (еще...)

Безусловная оптимизация

Cтраница 2


Все рассмотренные ранее методы являются методами безусловной оптимизации.  [16]

С помощью естественного обобщения получим задачу безусловной оптимизации, охватывающую весь блок ВПБ.  [17]

Среди методов поиска локального экстремума методы безусловной оптимизации составляют наиболее многочисленную группу.  [18]

Как правило, при решении задач безусловной оптимизации для достаточно гладких выпуклых или вогнутых функций F () методы, использующие первые и вторые производные, сходятся быстрее, чем методы нулевого порядка. Однако при оптимизации схем в условиях сложного непредсказуемого рельефа целевых функций F ( X), их алгоритмического, неявного способа задания, например посредством решения системы дифференциальных уравнений, а также при сложной форме ограничений использование методов нулевого порядка часто предпочтительнее. Кроме того, при неявном задании / 7 ( Х) ее производные приходится определять численно, а возникающие при этом ошибки, особенно в окрестности экстремума, создают значительные трудности для точного определения точки оптимума.  [19]

Для нейронных сетей хорошо работают многие методы безусловной оптимизации, часто лучше, чем узкоспециальные, придуманные для обучения нейронных сетей.  [20]

В этом случае мы говорим о задаче безусловной оптимизации.  [21]

Квазиньютоновские методы являются эффективным средством решения задач безусловной оптимизации. Их отличает высокая скорость сходимости, в то же время при реализации квазиньютоновских алгоритмов не приходится выполнять такие трудоемкие операции, как вычисление матрицы вторых производных или обращение матрицы. Однако при большой размерности пространства необходимость хранения и пересчета на каждом шаге матриц Hk обусловливает высокие требования к объему занимаемой памяти ЭВМ. Этот недостаток не присущ изучаемому в следующем параграфе методу сопряженных градиентов.  [22]

Задача поиска Е ( W) является задачей безусловной оптимизации.  [23]

На рис. 12.12 приведены наиболее часто используемые методы безусловной оптимизации.  [24]

25 Изменения ошибки обучения ( е и оценки ошибки прогнозирования на тестовом множестве ( е в ходе процедуры оптимизации ней росс гевой структуры методом Левенберга - Маркардта. NI - номер итерации оптимизационной процедуры. [25]

В настоящем разделе рассматриваются аспекты практического применения методов безусловной оптимизации к обучению нейросетевых моделей.  [26]

При решении задач условной оптимизации целесообразно использовать методы безусловной оптимизации, учитывая большое количество разработанных по этим методам программ. С этой целью задача условной оптимизации сводится к задаче безусловной оптимизации устранением ограничений путем преобразования параметра xt, на значения которого наложены ограничения, в неограничиваемый.  [27]

Теория необходимых и достаточных условий оптимальности в задачах безусловной оптимизации излагается в любом курсе математического анализа.  [28]

Там же были приведены соответствующие результаты для задачи безусловной оптимизации и классической задачи на условный экстремум. В данной главе излагается общая теория необходимых и достаточных условий оптимальности в задачах математического программирования, включающая указанные результаты как частные случаи.  [29]

Рассмотрим один из вариантов симплексного метода решения задачи безусловной оптимизации.  [30]



Страницы:      1    2    3    4