Линейная оценка - регрессия - Большая Энциклопедия Нефти и Газа, статья, страница 1
Правила Гольденштерна. Всегда нанимай богатого адвоката. Никогда не покупай у богатого продавца. Законы Мерфи (еще...)

Линейная оценка - регрессия

Cтраница 1


Далее линейные оценки регрессии в локальных окрестностях используются для прогноза значений выходной величины в точках рабочей выборки.  [1]

Вторую группу образуют алгоритмы построения линейной оценки регрессии с выбором оптимального набора аргументов в базисе собственных векторов ковариационной матрицы. Для их реализации необходимо после ввода исходных данных провести ( на втором этапе) их преобразование с помощью программы СОВА. Программа преобразует координаты входных векторов обучающей и экзаменационной ( рабочей) выборки и запишет их в файл данные вместо исходных. Далее на третьем этапе, используется программа ВОЛНА в любом из описанных выше режимов построения линейного приближения регрессии или оценки значений регрессии в заданных точках.  [2]

К первой группе относятся алгоритмы построения линейной оценки регрессии или нахождения значений линейной функции в заданных точках. Одновременно с построением оценки регрессии осуществляется выбор оптимальной совокупности параметров, для которых восстановленная зависимость при заданном ограниченном материале обучения обеспечивает наиболее точную аппроксимацию истинной зависимости. Выбор оптимального набора аргументов может проводиться либо из числа исходных входных параметров, либо в новом представлении данных. Это представление получается переходом к базису собственных векторов ковариационной матрицы исходных параметров.  [3]

Управление передается блоку МНК, в котором для текущего варианта методом наименьших квадратов вычисляются коэффициенты линейной оценки регрессии.  [4]

В подпрограмме MODMAC формируется последовательность нар масок ( MP, MB), описывающих множество вариантов линейной оценки регрессии, соответствующее конкретному алгоритму восстановления зависимости. За одно обращение к подпрограмме формируется одна пара масок из последовательности.  [5]

В задачах практики часто приходится находить линейную оценку регрессии со сдвигом.  [6]

Порядок векторов задан в маске MB, сформированной подпрограммой ОКРЕСТНОСТЬ. Для полученной таким образом обучающей выборки формируется система нормальных уравнений ы вычисляются коэффициенты линейной оценки регрессии.  [7]

Список МАСКА содержит маску векторов MB и маску признаков MP, описанные в § 1 этой главы. Кроме того, список содержит массив NMPA, используемый только программой ВОЛНА при построении линейной оценки регрессии ( о нем речь пойдет ниже), и параметры ТВ и КМ. Параметр ТВ служит для создания периодических масок. Способ работы с ним подробно изложен в § 3 гл. Параметр КМ служит для организации ввода управляющих данных в тех случаях, когда программа ВОЛНА в цикле решает несколько вариантов задачи.  [8]

Если длина исходной выборки превышает 199, то остальные векторы будут включены в обучающую выборку но умолчанию. Исключение первой переменной Xi ( MP ( 1) 3) означает, что свободный член в выражении для линейной оценки регрессии должен отсутствовать.  [9]

Алгоритм КРЕГ ( кусочно-линейная регрессия) предназначен для решения задач восстановления регрессии в классе кусочно-линейных функций. Этот алгоритм применяется тогда, когда есть основания предполагать, что выборка (10.1) получена из двух или нескольких генеральных совокупностей с разными статистическими характеристиками. Алгоритм КРЕГ позволяет разбить векторы xt выборки (10.1) на оптимальное число групп и построить для каждой группы линейную оценку регрессии, получив таким образом по всей выборке кусочно-линейную функцию.  [10]

При реализации алгоритмов кусочно-линейной аппроксимации восстанавливаемой зависимости на этом этапе программа ТАКСОН строит таксонную структуру пространства входных параметров. Результат записывается на внешний носитель в файл таксоны и служит для дальнейшей работы комплекса. Основной массив данных сохраняется без изменения. В случав построения линейной оценки регрессии с выбором аргументов в базисе собственных векторов ковариационной матрицы обработка данных осуществляется с помощью программы СОВА. Эта программа строит ковариационную матрицу входных параметров, вычисляет ее собственные векторы и собственные числа и определяет координаты входных векторов в новом базисе. Преобразованные данные записываются на внешний носитель в файл данные вместо исходных. Одновременно на тот же внешний носитель записываются координаты собственных векторов. Последняя запись позволяет в дальнейшем - вернуться к представлению оценки регрессии в исходном пространстве параметров.  [11]

Порядок, в котором в матрице наблюдений X расположены переменные и векторы, но имеет значения. Однако удобно считать, что первый столбец матрицы X содержит значения постоянного параметра, равного единице для всех векторов выборки. Коэффициент линейной регрессии, соответствующий постоянному параметру, равен свободному члену в выражении для регрессии. Поэтому для того, чтобы найти линейную оценку регрессии без свободного члена, достаточно исключить 1 - ю координату векторов х из числа независимых переменпых. Столбец единиц формируется автоматически при вводе матрицы X в ЭВМ, поэтому подготавливать значения постоянного параметра на перфокартах не требуется. Матрица X вводится в ЭВМ с помощью программы ВВОД. Входная информация для программы ВВОД подготавливается на перфокартах следующим образом.  [12]



Страницы:      1