Cтраница 2
Иными словами, матрица ТХ ( КХ) имеет ранг г тогда и только тогда, когда распределение случайного вектора X полностью сосредоточено на г-мерном подпространстве ( соответственно на г-мерном. [16]
В описанных вариантах а), б), в) метода случайного поиска предполагается, что закон распределения случайного вектора не зависит от номера итераций. Такой поиск называют случайным поиском без обучения. Алгоритмы случайного поиска без обучения не обладают способностью анализировать результаты предыдущих итераций и выделять направления, более перспективные в смысле убывания минимизируемой функции, и сходятся, вообще говоря, медленно. [17]
Иногда к стохастическому программированию относят также условные экстремальные задачи с вполне детерминированными условиями, в которых по тем или иным причинам целесообразно искать решение в виде распределения случайного вектора. Это главным образом задачи выбора решений в повторяющихся ситуациях, в которых ограничения должны удовлетворяться в среднем ( в том или ином смысле), и интерес представляет только средний аффект от принятых решений. [18]
Если функция / существенно нелинейна, то для решения данной задачи нет никаких универсальных методов. Задача определения свойств распределения случайного вектора х ( Т) по за - данным распределениям величин и ri относится к классу так называемых задач нелинейной фильтрации. [19]
Вместе с понятием распределения случайного вектора это выходит за элементарные рамки. [20]
Если функция / существенно нелинейна, то для решения данной задачи нет никаких универсальных методов. Задача определения свойств распределения случайного вектора х ( Т) по заданным распределениям величин и г) относится к классу так называемых задач нелинейной фильтрации. [21]
Последняя формула показывает, как в дискретном случае вероятности рг выражаются через характеристическую функцию распределения. Покажем теперь в общем случае, что характеристическая функция однозначно определяет распределение случайного вектора. Этот факт непосредственно вытекает из казанной ниже общей формулы обращения, но мы сначала приведем простое непосредственное доказательство. [22]
Главы 3 - 7 посвящены задаче построения классификатора. В главе 3 отыскивается теоретически наилучший способ построения классификатора в предположении, что распределения случайных векторов, подлежащих классификации, известны. В этом - случае задача превращается в обычную задачу статистической проверки гипотез. Доказывается, что байесовский классификатор является оптимальным, в смысле минимизации вероятности ошибки классификации или минимизации риска, если возможным решениям приписываются определенные стоимости. Рассматриваются также критерий Неймана - Пирсона и минимаксный критерий. [23]
Реализация алгоритма (2.26) предполагает наличие специального генератора случайных чисел, который формирует вектор со. Такие генераторы, называемые также датчиками случайных чисел, обычно оформляются в виде стандартных программ для ЭВМ. Если закон распределения случайного вектора со не зависит от номера шага п, то алгоритм (2.26) не может нащупать направления быстрого убывания минимизируемой функции, поэтому он сходится медленно. [24]
Формулы (5.8) и (5.9) основаны на использовании двух этапов вероятностного описания нагрузок и воздействий. Этот процесс описывает изменение нагрузок и воздействий во времени. Второй этап задаем с помощью распределения случайного вектора s, характеризующего разброс общих условий нагружения. [25]
Между тем ясно, что от метода случайного поиска можно ожидать большей эффективности, если на каждой итерации учитывать накопленный опыт поиска минимума на предыдущих итерациях и перестраивать вероятностные свойства поиска так, чтобы направления, более перспективные в смысле убывания функции, становились более вероятными. Иначе говоря, желательно иметь алгоритмы случайного поиска, которые обладают способностью к самообучению и самоусовершенствованию в процессе поиска минимума в зависимости от конкретных особенностей минимизируемой функции. Обучение алгоритма осуществляют посредством целенаправленного изменения закона распределения случайного вектора в зависимости от номера итерации и результатов предыдущих итераций таким образом, чтобы хорошие направления, по - которым функция убывает, стали более вероятными, а другие направления - менее вероятными. Таким образом, на различных этапах метода случайного поиска с обучением приходится иметь дело с реализациями случайных векторов с различными законами распределения. [26]