Регрессор - Большая Энциклопедия Нефти и Газа, статья, страница 4
Когда к тебе обращаются с просьбой "Скажи мне, только честно...", с ужасом понимаешь, что сейчас, скорее всего, тебе придется много врать. Законы Мерфи (еще...)

Регрессор

Cтраница 4


Чаще всего функция / выбирается квадратичной, что соответствует тому, что средняя квадратическая ошибка регрессии зависит от наблюдаемых значений регрессоров приближенно линейно.  [46]

Формально с проблемами спецификации приходится сталкиваться постоянно при анализе модели, например, при тестировании гипотез о значимости тех или иных регрессоров. Однако, как мы увидим здесь, принятие или отвержение гипотезы само по себе не тождественно принятию решения, какую именно модель использовать. В частности, мы увидим, что для максимально эффективного оценивания параметров при наиболее важных регрессорах вопрос о включении или невключении остальных регрессоров решается с помощью другого критерия, нежели простая проверка гипотезы об их незначимости.  [47]

Чем уже ширина такого интервала, тем лучше выборочная оценка bj, а значит и более надежна генетическая или иная интерпретация соответствующего регрессора.  [48]

Использование традиционных регрессионных моделей ( линейных при многомерном X и параболических в одномерном случае) в применении к относительно большим подобластям изменения регрессора позволяет сочетать простоту расчетов, свойственную классическим моделям регрессии, с эффективным использованием выборочной информации. Эти методы получили название локально параметрических.  [49]

В общем случае вероятность существования такого предельного варианта в множестве экспериментальных данных невелика, однако можно предположить, что недостаточное число компонент регрессора приведет к чрезвычайно большим значением коэффициента.  [50]

Этот вид анализа позволяет: 1) производить расчет регрессионных моделей путем определения значений параметров - постоянных коэффициентов при независимых переменных - регрессорах, которые часто называют факторами; 2) проверять гипотезу об адекватности модели имеющимся наблюдениям; 3) использовать модель для определения значений зависимой переменной при новых или ненаблюдаемых значениях независимых переменных.  [51]

Частная производная ф ( г) является производной прогнозируемого значения ( выхода НС) по весовым коэффициентам нейронной сети в случае пренебрежения зависимостью регрессора от весовых коэффициентов.  [52]

Заметим, что переменные X не коррелируют с ошибками Е, так что, применив обратное преобразование Койка, мы решили проблему коррелированности регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным из-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррели-рованы.  [53]

При построении регрессионных моделей для коэффициента нефтеотдачи обычно часть регрессоров можно рассматривать как случайные величины и поэтому целесообразно обсуждать смешанную модель, так как остальные регрессоры являются обычными переменными ошибками, измерениями которых можно пренебречь.  [54]



Страницы:      1    2    3    4