Cтраница 1
Оценка параметров регрессии по методу наименьших квадратов - то же самое, что и оценки по методу максимального правдоподобия, если остатки уравнения регрессии нормально распределены. Таким образом, удобно демонстрировать метод максимального правдоподобия на примере оценок МНК. [1]
Рассмотрим оценку параметров регрессии, которую определяет метод наименьших квадратов. [2]
Этот вектор принимается в качестве оценки параметров регрессии. [3]
Это означает, что при увеличении объема выборки дисперсия оценок параметров регрессии стремится к нулю, то есть оценки параметров регрессии являются состоятельными. [4]
Это означает, что отсутствует систематическая ошибка в определении линии регрессии, следовательно оценки параметров регрессии являются несмещенными, то есть математическое ожидание оценки каждого параметра равно его истинному значению. [5]
При его применении строится система нормальных уравнений, решение которой и позволяет получить оценки параметров регрессии. [6]
Наличие мультиколлинеарности приводит к снижению эффективности оценок МНК, растут дисперсии и корреляция оценок параметров регрессии между собой. [7]
Это означает, что при увеличении объема выборки дисперсия оценок параметров регрессии стремится к нулю, то есть оценки параметров регрессии являются состоятельными. [8]
Среди различных характеристик плана наиболее существенна величина объема эллипсоида рассеяния оценок параметров регрессии, поэтому интересно сравнить различные существующие планы второго порядка с точки зрения этой характеристики, а также с точки зрения величины дисперсии предсказанных значений регрессионной функции в области планирования. [9]
При всех своих преимуществах ( уменьшение высокой муль-тиколлинеарности объясняющих переменных) метод главных компонент обладает и недостатками. Во-первых, главным компонентам, как правило, трудно подобрать экономические аналоги. Во-вторых, оценки параметров регрессии получают не по исходным объясняющим переменным, а по главным компонентам. В итоге можно сказать, что метод главных компонент применяется в основном для оценки значений регрессии и для определения прогнозных значений зависимой переменной, что также является целью регрессионного анализа. [10]
После построения уравнения регрессии проводится проверка наличия у оценок Б, ( случайных остатков) тех свойств, которые предполагались. Связано это с тем, что оценки параметров регрессии должны отвечать определенным критериям. [11]
После построения уравнения регрессии проводится проверка наличия у оценок б, ( случайных остатков) тех свойств, которые предполагались. Связано это с тем, что оценки параметров регрессии должны отвечать определенным критериям. [12]
Стейн [ 911 нашли метод оценки среднего для многомерного нормального закона с неизвестной величиной о2 ковариационной матрицы а2 / равномерно лучший, чем оценка с помощью реализации. Баранчик [73] построил класс оценок, равномерно лучших оценки с помощью реализации. Этот класс оценок и приведен в книге для получения оценок параметров нормальной регрессии равномерно лучших, чем оценки метода наименьших квадратов. Метод построения оценок параметров регрессии, использующий оценки Джеймса - Стейна - Баранчика, приведенный в § 3, получен с помощью теоремы Я. [13]
Стейн [ 911 нашли метод оценки среднего для многомерного нормального закона с неизвестной величиной о2 ковариационной матрицы а2 / равномерно лучший, чем оценка с помощью реализации. Баранчик [73] построил класс оценок, равномерно лучших оценки с помощью реализации. Этот класс оценок и приведен в книге для получения оценок параметров нормальной регрессии равномерно лучших, чем оценки метода наименьших квадратов. Метод построения оценок параметров регрессии, использующий оценки Джеймса - Стейна - Баранчика, приведенный в § 3, получен с помощью теоремы Я. [14]