Принцип - наименьший квадрат - Большая Энциклопедия Нефти и Газа, статья, страница 3
Длина минуты зависит от того, по какую сторону от двери в туалете ты находишься. Законы Мерфи (еще...)

Принцип - наименьший квадрат

Cтраница 3


Если из всех возможных видов функций / j ( у) в данной экстремальной задаче ограничимся только линейными функциями, то получим линии регрессии II - линии среднеквадратичной регрессии, которые дают наилучшее приближение X в смысле принципа наименьших квадратов.  [31]

Его применение на практике не объясняет - t ся также наличием тщательно разработанной для этого критерия 1 теорией. Доводы в пользу принципа наименьших квадратов, ос-i кованные на нормально распределенных случайных ошибках, с подозрительны, поскольку очень редко известно много, если вооб-i ще что-либо известно, относительно распределения ошибок в реаль-i ной задаче. Однако факт остается фактом: критерий наименьших F квадратов для выбора наилучших параметров вполне адекватен ( J в широком многообразии ситуаций. Одной из сильных сторон кри - f терия наименьших квадратов является то, что получающиеся опти - мизационные задачи можно решать, непосредственно применяя ме - t тоды и программное обеспечение матричного исчисления. В этой главе мы покажем, как это делается.  [32]

В дальнейшем мы будем рассматривать исключительно меры рассеяния и концентрации, связанные с дисперсией и ее многомерными обобщениями. Во-первых, этот выбор оправдывается общими соображениями в пользу принципа наименьших квадратов, выдвинутыми в параграфе 15.6. Далее, в том важном случае, когда выборочные распределения оценок хотя бы приблизительно нормальны, любая имеющая смысл мера рассеяния определяется вторыми моментами, так что при этом возможна лишь единственная мера.  [33]

Однако следует иметь в виду, что найденные этим методом параметры обращает в минимум сумму квадратов отклонений значений преобра-зованных величин Y от расчетных значений а Х Ь, а не сумму квадратов отклонений измеренных величин у от соответствующих расчетных. Другими словами, найденные значения параметров не будут удовлетворять принципу наименьших квадратов и могут служить только в качестве первого приближения к наилучшим оценкам отыскиваемых параметров.  [34]

Параметры ао и at уравнения Y ао ч Х называют соответственно свободным членом и коэффициентом регрессии, а само уравнение - линейной регрессией У на X. В целом разбираемый пример представляет собой частный случай регрессионного анализа, основанного на применении принципа наименьших квадратов для нахождения оптимального набора параметров функции заданного типа.  [35]

Если параметры входят в эмпирическую формулу нелинейно, то подбор их методом наименьших квадратов связан обычно с громоздкими вычислениями. Поэтому стараются свести задачу к рассмотренному выше случаю линейной зависимости от параметров. Однако преобразование эмпирической формулы нарушает принцип наименьших квадратов. Для получения йриближенных значений параметров применяются различные упрощенные методы ( см. пп.  [36]

Итак, метод интерполяции с заданных точек, весьма полезный при обработке неслучайных данных, в теории случайных величин неприменим. Необходимо тикать принцип приближенности, который бы использовал существенные статистические свойства самого уравнения регрессии. В качестве такого принципа берут обычно принцип наименьших квадратов.  [37]

Основным способом отыскания уравнения нелинейной регрессии ( так же как и линейной) служит принцип наименьших квадратов. Это значит, что уравнение ищется в заданном классе функций и выборочные числовые данные используются лишь для определения неизвестных коэффициентов из системы нор мальных уравнений. При этом различаются два случая: тип уравнения фиксируется сразу, так что принцип наименьших квадратов используется лишь один раз, или же уравнение регрессии в дальнейшем подвергается уточнениям, для чего принцип наименьших квадратов последовательно используется несколько раз.  [38]

Кр и 2 / Ср / Сдм Уравнение вида Y a0 - - aiX с оптимизируемыми параметрами а0 и ai носит название линейной регрессии У на X. В целом, разбираемый пример представляет частный случай регрессионного анализа, основанного на применении принципа наименьших квадратов для нахождения оптимального набора параметров для функций заданного типа.  [39]

Основным способом отыскания уравнения нелинейной регрессии ( так же как и линейной) служит принцип наименьших квадратов. Это значит, что уравнение ищется в заданном классе функций и выборочные числовые данные используются лишь для определения неизвестных коэффициентов из системы нор мальных уравнений. При этом различаются два случая: тип уравнения фиксируется сразу, так что принцип наименьших квадратов используется лишь один раз, или же уравнение регрессии в дальнейшем подвергается уточнениям, для чего принцип наименьших квадратов последовательно используется несколько раз.  [40]

Проверка первой возможности является основным критерием и должна проводиться всегда. Вторая возможность поддается проверке только в том случае, когда есть достаточно надежная оценка для случайной ошибки наблюдений оу. Серьезным преимуществом второй проверки перед первой является то, что в первом случае мы испытываем лишь конкретную добавку ср ( л) и, в частности, должны ее вначале рассчитать по принципу наименьших квадратов, хотя она впоследствии может оказаться лишней. В то же время во втором случае проверяется только сама функция f ( x) - нужны ли ей вообще добавки. Поэтому наиболее рациональна следующая последовательность проверок. Если проверка покажет излишность дальнейших добавок, то уравнение y - f ( x) считают окончательным. Если же окажется, что функция / () нуждается в дальнейших уточнениях, переходят к анализу конкретных добавок ф ( л:) по первой возможности.  [41]



Страницы:      1    2    3