Cтраница 3
В этом случае вид шага изменяется, в качестве исходной берется оценка регрессии с параметрами ар или, соответственно, оценка с предельным числом переменных. Выполнение алгоритма заканчивается, если одна н та же оценка регрессии дважды выбирается в качестве исходной. Результатом считается эта оценка. [31]
Таким образом эв-регрессия обладает всеми основными свойствами мнк-регрессии, только наблюдения в соответствующие формулы входят со специально подобранными весами. Эв-регрессия значительно устойчивее мнк-регрессии и регрессии по Хубе-ру к появлению далеких отклонений от регрессионной поверхности. Однако она, естественно, не является универсальным методом оценки регрессии для всех случаев, когда нарушаются предположения (7.3), лежащие в основе мнк. Четких рекомендаций, как выбирать К в конкретном случае, пока не выработано. Ясно только, что надо давать максимальный вес основной части выборки и наименьший - части, где могут лежать загрязнения. [32]
К вспомогательным алгоритмам комплекса ОР относятся: GRAD, ТАКСОН, ОКРЕСТ. Алгоритм GRAD ( оптимальное разбиение непрерывных признаков на градации) описан ниже. Алгоритм ТАКСОН ( задающий таксонную структуру пространства) и алгоритм ОКРЕСТ ( задающий структуру окрестностей классифицируемой точки) используются также при построении оценок регрессии и описаны в гл. [33]
Вид шага не изменяется до тех пор, пока число переменных в оценке регрессии не достигнет предельного значения, равного п для шага добавления и единице для шага удаления. Затем вид шага изменяется, а в качестве исходной оценки берется лучшая из оценок регрессии, полученных с момента предыдущего изменения вида шага. Если при этом - обнаруживается, что одна и та же оценка дважды выбирается в качестве исходной, то выполнение алгоритма заканчивается и результатом считается эта оценка регрессии. [34]
I, часто оказывается полезным удалить из рассмотрения некоторые пары наблюдений - провести селекцию выборки. При этом удается строить зависимости, на которых функционал среднего риска принимает меньшее гарантированное значение, чем при использовании всей данной выборки. Наблюдения, подлежащие удалению ( отсеву) при построении одномерной функции регрессии, их число и соответствующее приближение регрессии определяются в процессе выполнения алгоритма ПС ( полиномиальная селекция) для построения оценки регрессии в классе полиномов или алгоритма СС ( сплайн-селекция) для построения кубического сплайн-приближения регрессии с сопряжениями на равномерной сетке. Оптимальная степень полинома и оптимальное число сопряжений сплайна также определяются в процессе выполнения этих алгоритмов. [35]
На шаге удаления переменной из выражения для оценки регрессии с К неременными формируются К-KN масок ( KN - число фиксированных переменных) по следующему правилу. В маске MP, описывающей оценку с К переменными, единицы, соответствующие незафиксированным, переменным, по очереди заменяются пулями. Номер переменной, исключение которой доставляет наименьшее значение критерию /, запоминается в ячейке NVAM. Переменная с номером NVAM исключается из выражения для оценки регрессии. [36]
К сервисным алгоритмам комплекса относятся: СОЕМА, DIN, ВВОД, MASK. Алгоритм СОЕМА служит для объединения двух массивов векторов в бинарном пространстве. Этот алгоритм, как правило, используется вместе с алгоритмом GRAD. Алгоритмы DIN, ВВОД и MASK используются также при построении оценок регрессии и описаны в гл. [37]
Маска векторов указывает, как разделяется данный массив векторов на обучающую и экзаменационную или рабочую выборки. В маске переменных указывается, какая из переменных является переменной регрессии, а какие - признаками. С помощью массива NMPA задается априорный порядок переменных для алгоритмов ЛИР, ЛИР-3, ЛИРС и ЛИРС-3. В массиве NMPA перечисляются номера независимых переменных в требуемом порядке. Для алгоритмов ПОР и ПОР-3 в массиве NMPA указываются номера переменных, зафиксированных в выражении для оценки регрессии. Зафиксированные переменные не исключаются из выражения для оценки регрессии ни при каких условиях. [38]
При создании адаптивных систем управления для нелинейных стохастических динамических объектов, особенно для технологических процессов, главным является решение задачи идентификации. Основные трудности при решении задачи идентификации нелинейных объектов обусловлены сложностью структуры объекта и неполнотой математического описания и информации об объекте. Объект управления приходится аппроксимировать цепочкой элементарных звеньев известной структуры, а построение модели сводится к оценке характеристик этих звеньев по данным нормальной работы объекта. Примером такой аппроксимации является представление объекта в классе моделей Гаммерштейна, т.е. последовательным соединением нелинейных статических и линейных динамических звеньев. В данной работе для аппроксимации нелинейного статического звена применяются оценки условного математического ожидании выхода объекта по каждому входу и оценки регрессии каждого входа. [39]
Маска векторов указывает, как разделяется данный массив векторов на обучающую и экзаменационную или рабочую выборки. В маске переменных указывается, какая из переменных является переменной регрессии, а какие - признаками. С помощью массива NMPA задается априорный порядок переменных для алгоритмов ЛИР, ЛИР-3, ЛИРС и ЛИРС-3. В массиве NMPA перечисляются номера независимых переменных в требуемом порядке. Для алгоритмов ПОР и ПОР-3 в массиве NMPA указываются номера переменных, зафиксированных в выражении для оценки регрессии. Зафиксированные переменные не исключаются из выражения для оценки регрессии ни при каких условиях. [40]
При реализации алгоритмов кусочно-линейной аппроксимации восстанавливаемой зависимости на этом этапе программа ТАКСОН строит таксонную структуру пространства входных параметров. Результат записывается на внешний носитель в файл таксоны и служит для дальнейшей работы комплекса. Основной массив данных сохраняется без изменения. В случав построения линейной оценки регрессии с выбором аргументов в базисе собственных векторов ковариационной матрицы обработка данных осуществляется с помощью программы СОВА. Эта программа строит ковариационную матрицу входных параметров, вычисляет ее собственные векторы и собственные числа и определяет координаты входных векторов в новом базисе. Преобразованные данные записываются на внешний носитель в файл данные вместо исходных. Одновременно на тот же внешний носитель записываются координаты собственных векторов. Последняя запись позволяет в дальнейшем - вернуться к представлению оценки регрессии в исходном пространстве параметров. [41]