Cтраница 1
Оценка параметров уравнений регрессии ( а0, о1; и о2 - в уравнении параболы второго порядка) осуществляется методом наименьших квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности. [1]
Оценка параметров уравнения регрессии, как показано в 12.1, производится по методу наименьших квадратов путем решения системы нормальных уравнений. Этот метод позволяет оценивать параметры только линейных уравнений регрессии или уравнений, приводимых к линейному виду путем преобразований переменных. Поэтому выбор функций для построения регрессионных моделей весьма ограничен. Ниже приведены функции, наиболее часто используемые в статистическом анализе взаимосвязей. [2]
Одним из методов получения оценок параметров уравнения регрессии при мультиколлинеарности является отбор существенных ( информативных) объясняющих переменных. Существует ряд мер качества набора переменных, которые используются алгоритмами отбора. Все они являются функциями от коэффициента детерминации, объема выборки и количества переменных, входящих в набор. В отличие от коэффициента детерминации, который не может уменьшаться при расширении набора объясняющих переменных, меры качества, используемые при отборе переменных, могут при этом убывать. [3]
Поскольку автокорреляция приводит к искажению оценки параметров уравнения регрессии и коэффициента корреляции, рекомендуется ее исключить. [4]
Стейна, можно существенно уменьшить вклад этих компонент в оценку параметров уравнения регрессии при возвращении к исходным переменным. [5]
Геометрически плану е отвечает минимальный на множестве ie объем эллипсоида рассеяния оценок параметров уравнения регрессии. Теоретические основы D - оптимального планирования развиты в работах [25 - 29]; в [30-32] описаны численные методы построения точных ie ( N) планов. [6]
Часть сумм, необходимых для системы нормальных уравнений, вычислена ранее в 12.1 при оценке параметров уравнения регрессии, характеризующего связь рентабельности животноводства с его продуктивностью. [7]
Отметим, что при соблюдении прочих предпосылок МНК автокорреляция остатков не влияет на свойства состоятельности и несмещенности оценок параметров уравнения регрессии обычным МНК, за исключением моделей авторегрессии. Применение МНК к моделям авторегрессии ведет к получению смещенных, несостоятельных и неэффективных оценок. [8]
В такой ситуации число степеней свободы невелико, что снижает вероятность получения статистически значимых оценок параметров уравнения регрессии. [9]
В такой ситуации число степеней свободы невелико, что снижает вероятность получения статистически значимых оценок параметров уравнения регрессии. [10]
Этапы построения многофакторной регрессионной модели ана - логичны рассмотренным выше для парной регрессии. При этом особое значение приобретает отбор факторных признаков, основанный на качественном анализе. Важно не только выбрать факторы, влияющие на результативный признак, но и раскрыть структуру взаимосвязей между ними, установить, какие из них непосредственно влияют на результативный признак, а какие - через посредство других факторных признаков. Для этого нужно построить теоретическую модель изучаемой системы. Следует также учитывать математическое ограничение, накладываемое на выбор факторных признаков. Они не должны находиться в тесной корреляционной связи, близкой к функциональной. Наличие связи между факторными признаками, близкой к функциональной, называется мультиколлинеарностью. В этом случае оценки параметров уравнения регрессии оказываются ненадежными и зачастую не имеют экономического смысла, а при строго функциональной связи факторных признаков система нормальных уравнений вообще не имеет единственного решения. Для выявления мультиколлине-арности обычно используют коэффициенты корреляции между факторными признаками. Если обнаруживается, что два факторных признака мультиколлинеарны ( коэффициент корреляции близок к единице), то один из них следует исключить. [11]