Оценка - параметр - регрессия - Большая Энциклопедия Нефти и Газа, статья, страница 1
Вам помочь или не мешать? Законы Мерфи (еще...)

Оценка - параметр - регрессия

Cтраница 1


Оценка параметров регрессии по методу наименьших квадратов - то же самое, что и оценки по методу максимального правдоподобия, если остатки уравнения регрессии нормально распределены. Таким образом, удобно демонстрировать метод максимального правдоподобия на примере оценок МНК.  [1]

Рассмотрим оценку параметров регрессии, которую определяет метод наименьших квадратов.  [2]

Этот вектор принимается в качестве оценки параметров регрессии.  [3]

Это означает, что при увеличении объема выборки дисперсия оценок параметров регрессии стремится к нулю, то есть оценки параметров регрессии являются состоятельными.  [4]

Это означает, что отсутствует систематическая ошибка в определении линии регрессии, следовательно оценки параметров регрессии являются несмещенными, то есть математическое ожидание оценки каждого параметра равно его истинному значению.  [5]

При его применении строится система нормальных уравнений, решение которой и позволяет получить оценки параметров регрессии.  [6]

Наличие мультиколлинеарности приводит к снижению эффективности оценок МНК, растут дисперсии и корреляция оценок параметров регрессии между собой.  [7]

Это означает, что при увеличении объема выборки дисперсия оценок параметров регрессии стремится к нулю, то есть оценки параметров регрессии являются состоятельными.  [8]

Среди различных характеристик плана наиболее существенна величина объема эллипсоида рассеяния оценок параметров регрессии, поэтому интересно сравнить различные существующие планы второго порядка с точки зрения этой характеристики, а также с точки зрения величины дисперсии предсказанных значений регрессионной функции в области планирования.  [9]

При всех своих преимуществах ( уменьшение высокой муль-тиколлинеарности объясняющих переменных) метод главных компонент обладает и недостатками. Во-первых, главным компонентам, как правило, трудно подобрать экономические аналоги. Во-вторых, оценки параметров регрессии получают не по исходным объясняющим переменным, а по главным компонентам. В итоге можно сказать, что метод главных компонент применяется в основном для оценки значений регрессии и для определения прогнозных значений зависимой переменной, что также является целью регрессионного анализа.  [10]

После построения уравнения регрессии проводится проверка наличия у оценок Б, ( случайных остатков) тех свойств, которые предполагались. Связано это с тем, что оценки параметров регрессии должны отвечать определенным критериям.  [11]

После построения уравнения регрессии проводится проверка наличия у оценок б, ( случайных остатков) тех свойств, которые предполагались. Связано это с тем, что оценки параметров регрессии должны отвечать определенным критериям.  [12]

Стейн [ 911 нашли метод оценки среднего для многомерного нормального закона с неизвестной величиной о2 ковариационной матрицы а2 / равномерно лучший, чем оценка с помощью реализации. Баранчик [73] построил класс оценок, равномерно лучших оценки с помощью реализации. Этот класс оценок и приведен в книге для получения оценок параметров нормальной регрессии равномерно лучших, чем оценки метода наименьших квадратов. Метод построения оценок параметров регрессии, использующий оценки Джеймса - Стейна - Баранчика, приведенный в § 3, получен с помощью теоремы Я.  [13]

Стейн [ 911 нашли метод оценки среднего для многомерного нормального закона с неизвестной величиной о2 ковариационной матрицы а2 / равномерно лучший, чем оценка с помощью реализации. Баранчик [73] построил класс оценок, равномерно лучших оценки с помощью реализации. Этот класс оценок и приведен в книге для получения оценок параметров нормальной регрессии равномерно лучших, чем оценки метода наименьших квадратов. Метод построения оценок параметров регрессии, использующий оценки Джеймса - Стейна - Баранчика, приведенный в § 3, получен с помощью теоремы Я.  [14]



Страницы:      1