Cтраница 1
Оценки регрессии, доставляющие минимум сумме квадратов невязок ( по обучающей выборке), при заданном ограничении сверху на модуль вектора решения получили название гребневых оценок. С ростом константы, ограничивающей модуль решения, гребневая оценка приближается к оценке метода наименьших квадратов. При уменьшении константы остаточная невязка растет, но-сокращается емкость класса функций. [1]
В качестве исходной оценки регрессии в каждом из четырех алгоритмов может быть взята либо линейная функция от всех переменных, либо константа, равная нулю. В первом случае первым шагом всех алгоритмов является шаг удаления переменной, а во втором - шаг добавления переменной. В дальнейшем изменение вида шага происходит по следующим правилам. [2]
Для алгоритмов пошаговой оценки регрессии ПОР и ПОР-3 в блоке MODMAC строится последовательность пар масок ( MP, MB), в которых маска векторов одинакова и совпадает с исходной маской MB, а маски переменных изменяются от пары к паре в соответствии с выбранным пошаговым алгоритмом добавления или удаления переменных. [3]
Первая стадия - оценка регрессии коинтеграции временных рядов, как описано выше. [4]
Данные оптимального варианта оценки регрессии, запомненные в блоке КРТР, распечатываются п выполнение подпрограммы заканчивается. [5]
Если полученное для текущего варианта оценки регрессии значение ERETA оказывается меньше минимального среди значений переменной ERETA для предыдущих вариантов, то параметры текущего варианта ER, EREX, ERETA, LI, NTT ( число независимых переменных) PSI и некоторые другие запоминаются с помощью переменных ERM, EREXM, ERETAM, LM, NM, PSIM и др. Для алгоритмов ЛИРС н ЛИРС-3 в массиве NOTCB запоминаются номера отсеянных при селекции векторов. [6]
Для шага добавления переменной к оценке регрессии с К переменными формируются NP - К масок MP, описывающих NP-К ( К 1) - мериых задач восстановления регрессии. Переменная с номером NVAM добавляется в выражение для оценки регрессии. [7]
На шаге удаления переменной из выражения для оценки регрессии с К неременными формируются К-KN масок ( KN - число фиксированных переменных) по следующему правилу. В маске MP, описывающей оценку с К переменными, единицы, соответствующие незафиксированным, переменным, по очереди заменяются пулями. Номер переменной, исключение которой доставляет наименьшее значение критерию /, запоминается в ячейке NVAM. Переменная с номером NVAM исключается из выражения для оценки регрессии. [8]
С помощью коэффициентов регрессии PSI вычисляются значения оценки регрессии на векторах обучающей и экзаменационной выборок. [9]
Пункты 3 - fi выполняются для всех вариантов оценки регрессии, которые необходимо просчитать в соответствии с алгоритмом. После того как все варианты будут просмотрены, управление передается блоку FINPR, в котором распечатываются параметры наилучшего варианта оценки регрессии. На этом выполнение программы ВОЛНА заканчивается. [10]
Далее выполняется блок КРТР, в котором вычисляются значения оценки регрессии на всех векторах матрицы X, значения эмпирического риска, среднеквадратичной ошибки на экзамене и величина критерия J, а также запоминаются данные варианта оценки регрессии, оптимального среди вариантов, просчитанных к данному моменту. [11]
Если значение параметра III равно нулю, то в качестве исходной оценки регрессии для пошагового алгоритма выбирается константа, равная нулю. Если значение параметра Ш равно единице, то в качестве исходной оценки регрессии выбирается линейная функция от всех переменных. [12]
Вид шага не изменяется до тех пор, пока число переменных в оценке регрессии не достигнет предельного значения, равного п для шага добавления и единице для шага удаления. Затем вид шага изменяется, а в качестве исходной оценки берется лучшая из оценок регрессии, полученных с момента предыдущего изменения вида шага. Если при этом - обнаруживается, что одна и та же оценка дважды выбирается в качестве исходной, то выполнение алгоритма заканчивается и результатом считается эта оценка регрессии. [13]
Для алгоритма ЛОР вычисляются оценки среднего риска для различных вариантов длин обучающей последовательности и отыскивается вариант оценки регрессии, описывающий оптимальную окрестность вектора, выбранного в качестве центрального. [14]
Алгоритмы восстановления многомерной регрессии в классе линейных функций ЛИР и ЛИР-3, восстановления регрессии с селекцией выборки ЛИРС и ЛИРС-3 и пошаговой оценки регрессии ПОР и ПОР-3 реализуются программой ВОЛНА. Программа ВОЛНА считывает управляющую информацию с перфокарт, а матрицу наблюдений X - из файла данные и реализует один из алгоритмов восстановления многомерной регрессии без перехода к главным компонентам. [15]