Оценка - регрессия - Большая Энциклопедия Нефти и Газа, статья, страница 1
Вам помочь или не мешать? Законы Мерфи (еще...)

Оценка - регрессия

Cтраница 1


Оценки регрессии, доставляющие минимум сумме квадратов невязок ( по обучающей выборке), при заданном ограничении сверху на модуль вектора решения получили название гребневых оценок. С ростом константы, ограничивающей модуль решения, гребневая оценка приближается к оценке метода наименьших квадратов. При уменьшении константы остаточная невязка растет, но-сокращается емкость класса функций.  [1]

В качестве исходной оценки регрессии в каждом из четырех алгоритмов может быть взята либо линейная функция от всех переменных, либо константа, равная нулю. В первом случае первым шагом всех алгоритмов является шаг удаления переменной, а во втором - шаг добавления переменной. В дальнейшем изменение вида шага происходит по следующим правилам.  [2]

Для алгоритмов пошаговой оценки регрессии ПОР и ПОР-3 в блоке MODMAC строится последовательность пар масок ( MP, MB), в которых маска векторов одинакова и совпадает с исходной маской MB, а маски переменных изменяются от пары к паре в соответствии с выбранным пошаговым алгоритмом добавления или удаления переменных.  [3]

Первая стадия - оценка регрессии коинтеграции временных рядов, как описано выше.  [4]

Данные оптимального варианта оценки регрессии, запомненные в блоке КРТР, распечатываются п выполнение подпрограммы заканчивается.  [5]

Если полученное для текущего варианта оценки регрессии значение ERETA оказывается меньше минимального среди значений переменной ERETA для предыдущих вариантов, то параметры текущего варианта ER, EREX, ERETA, LI, NTT ( число независимых переменных) PSI и некоторые другие запоминаются с помощью переменных ERM, EREXM, ERETAM, LM, NM, PSIM и др. Для алгоритмов ЛИРС н ЛИРС-3 в массиве NOTCB запоминаются номера отсеянных при селекции векторов.  [6]

Для шага добавления переменной к оценке регрессии с К переменными формируются NP - К масок MP, описывающих NP-К ( К 1) - мериых задач восстановления регрессии. Переменная с номером NVAM добавляется в выражение для оценки регрессии.  [7]

На шаге удаления переменной из выражения для оценки регрессии с К неременными формируются К-KN масок ( KN - число фиксированных переменных) по следующему правилу. В маске MP, описывающей оценку с К переменными, единицы, соответствующие незафиксированным, переменным, по очереди заменяются пулями. Номер переменной, исключение которой доставляет наименьшее значение критерию /, запоминается в ячейке NVAM. Переменная с номером NVAM исключается из выражения для оценки регрессии.  [8]

С помощью коэффициентов регрессии PSI вычисляются значения оценки регрессии на векторах обучающей и экзаменационной выборок.  [9]

Пункты 3 - fi выполняются для всех вариантов оценки регрессии, которые необходимо просчитать в соответствии с алгоритмом. После того как все варианты будут просмотрены, управление передается блоку FINPR, в котором распечатываются параметры наилучшего варианта оценки регрессии. На этом выполнение программы ВОЛНА заканчивается.  [10]

Далее выполняется блок КРТР, в котором вычисляются значения оценки регрессии на всех векторах матрицы X, значения эмпирического риска, среднеквадратичной ошибки на экзамене и величина критерия J, а также запоминаются данные варианта оценки регрессии, оптимального среди вариантов, просчитанных к данному моменту.  [11]

Если значение параметра III равно нулю, то в качестве исходной оценки регрессии для пошагового алгоритма выбирается константа, равная нулю. Если значение параметра Ш равно единице, то в качестве исходной оценки регрессии выбирается линейная функция от всех переменных.  [12]

Вид шага не изменяется до тех пор, пока число переменных в оценке регрессии не достигнет предельного значения, равного п для шага добавления и единице для шага удаления. Затем вид шага изменяется, а в качестве исходной оценки берется лучшая из оценок регрессии, полученных с момента предыдущего изменения вида шага. Если при этом - обнаруживается, что одна и та же оценка дважды выбирается в качестве исходной, то выполнение алгоритма заканчивается и результатом считается эта оценка регрессии.  [13]

Для алгоритма ЛОР вычисляются оценки среднего риска для различных вариантов длин обучающей последовательности и отыскивается вариант оценки регрессии, описывающий оптимальную окрестность вектора, выбранного в качестве центрального.  [14]

Алгоритмы восстановления многомерной регрессии в классе линейных функций ЛИР и ЛИР-3, восстановления регрессии с селекцией выборки ЛИРС и ЛИРС-3 и пошаговой оценки регрессии ПОР и ПОР-3 реализуются программой ВОЛНА. Программа ВОЛНА считывает управляющую информацию с перфокарт, а матрицу наблюдений X - из файла данные и реализует один из алгоритмов восстановления многомерной регрессии без перехода к главным компонентам.  [15]



Страницы:      1    2    3