Оценка - регрессия - Большая Энциклопедия Нефти и Газа, статья, страница 2
Если третье лезвие бреет еще чище, то зачем нужны первые два? Законы Мерфи (еще...)

Оценка - регрессия

Cтраница 2


Алгоритм ПОР ( пошаговая регрессия) предназначен для решения задач восстановления регрессии в классе линейных функций в тех случаях, когда нет оснований априори фиксировать порядок добавления переменных в выражение для оценки регрессии. Алгоритм ПОР-3 ( значения пошаговой регрессии) предназначен для решения задачи восстановления значений регрессии в этой же ситуации.  [16]

Для объективной оценки результатов испытания сложной системы, какой является цифровая машина, необходимо уметь использовать и выбирать: точечную оценку параметров, доверительные интервалы поверяемых параметров, дисперсионный, корреляционный анализ, оценку регрессии и другие методы.  [17]

Далее выполняется блок КРТР, в котором вычисляются значения оценки регрессии на всех векторах матрицы X, значения эмпирического риска, среднеквадратичной ошибки на экзамене и величина критерия J, а также запоминаются данные варианта оценки регрессии, оптимального среди вариантов, просчитанных к данному моменту.  [18]

К первой группе относятся алгоритмы построения линейной оценки регрессии или нахождения значений линейной функции в заданных точках. Одновременно с построением оценки регрессии осуществляется выбор оптимальной совокупности параметров, для которых восстановленная зависимость при заданном ограниченном материале обучения обеспечивает наиболее точную аппроксимацию истинной зависимости. Выбор оптимального набора аргументов может проводиться либо из числа исходных входных параметров, либо в новом представлении данных. Это представление получается переходом к базису собственных векторов ковариационной матрицы исходных параметров.  [19]

Указанные критерии оценок ( несмещенность, состоятельность, эффективность) обязательно учитываются при разных способах оценивания. Метод наименьших квадратов строит оценки регрессии на основе минимизации суммы квадратов остатков. Условия, необходимые для получения несмещенных, состоятельных и эффективных оценок, представляют собой предпосылки МНК, соблюдение которых желательно для получения достоверных результатов регрессии.  [20]

Указанные критерии оценок ( несмещенность, состоятельность, эффективность) обязательно учитываются при разных способах оценивания. Метод наименьших квадратов строит оценки регрессии на основе минимизации суммы квадратов остатков. Условия, необходимые для получения несмещенных, состоятельных и эффективных оценок, представляют собой предпосылки МНК, соблюдение которых желательно для получения достоверных результатов регрессии.  [21]

Чтобы найти подходящий критерий для проверки гипотезы д О, рассмотрим сначала случай скалярной величины Y. Предположим, что найдены оценки регрессии при д - 0 и без этого допущения и в обоих случаях вычислены суммы квадратов отклонений экспериментальных точек от регрессии, которые мы обозначим соответственно S и S. Ясно, что если гипотеза д О верна, то S и S, должны быть близкими, хотя 5 всегда несколько больше, чем S. Если же гипотеза д 0 неверна, то 5 может быть значительно больше S. Если найденное по экспериментальным данным значение U близко к 1, то можно считать, что гипотеза д 0 не противоречит экспериментальным данным. При малом значении U гипотеза д О плохо согласуется с экспериментальными данными и должна быть отвергнута.  [22]

Для шага добавления переменной к оценке регрессии с К переменными формируются NP - К масок MP, описывающих NP-К ( К 1) - мериых задач восстановления регрессии. Переменная с номером NVAM добавляется в выражение для оценки регрессии.  [23]

Вычисление коэффициентов регрессии необходимо в тех случаях, когда исследователь предполагает применять восстановленную зависимость к новым комбинациям вход-пых параметров, значениями которых он не располагает при восстановлении регрессии. В тех же случаях, когда уже в момент построения оценки регрессии известны точки, в которых требуется вычислить значение восстанавливаемой функции, целесообразно применять алгоритмы восстановления значений в заданных точках. Восстановление регрессии осуществляют алгоритмы ЛИР, ЛИРС и ПОР.  [24]

Если значение параметра III равно нулю, то в качестве исходной оценки регрессии для пошагового алгоритма выбирается константа, равная нулю. Если значение параметра Ш равно единице, то в качестве исходной оценки регрессии выбирается линейная функция от всех переменных.  [25]

В этом случае вид шага изменяется, в качестве исходной берется оценка регрессии с параметрами ар или, соответственно, оценка с предельным числом переменных. Выполнение алгоритма заканчивается, если одна н та же оценка регрессии дважды выбирается в качестве исходной. Результатом считается эта оценка.  [26]

Вид шага не изменяется до тех пор, пока число переменных в оценке регрессии не достигнет предельного значения, равного п для шага добавления и единице для шага удаления. Затем вид шага изменяется, а в качестве исходной оценки берется лучшая из оценок регрессии, полученных с момента предыдущего изменения вида шага. Если при этом - обнаруживается, что одна и та же оценка дважды выбирается в качестве исходной, то выполнение алгоритма заканчивается и результатом считается эта оценка регрессии.  [27]

Однако, даже в безрадостной ситуации MBPN-сеть может превосходить метод OLS-регрессии в смысле показателя RMSE и коэффициента корреляции Пирсона. Более того, 6 - 3 - 1 сеть даже на новых данных дает более точный прогноз, чем оценка регрессии на уже ранее обработанных данных.  [28]

Пункты 3 - fi выполняются для всех вариантов оценки регрессии, которые необходимо просчитать в соответствии с алгоритмом. После того как все варианты будут просмотрены, управление передается блоку FINPR, в котором распечатываются параметры наилучшего варианта оценки регрессии. На этом выполнение программы ВОЛНА заканчивается.  [29]

Алгоритм ЛИРС ( линейная регрессия с селекцией) применяется в тех случаях, когда предполагается, что исключением из выборки (10.1) небольшого числа пар ( х, у) можно повысить точность восстановления регрессии. ЛИРС можно эффективно найти и исключить эти векторы. Естественно ожидать, что оценка регрессии, построенная по оста вшейся части выборки, будет иметь большую точность, чем оценка, построенная по исходной выборке. Алгоритм ЛИРС реализован по схеме пошаговой селекции выборки.  [30]



Страницы:      1    2    3