Cтраница 3
Первые работы по аппроксимации множества точек линией были, скорее всего, стимулированы потребностями ученых-экспериментаторов; простейший путь объяснить совокупность наблюдений состоит в том, чтобы связать зависимые и независимые переменные посредством уравнения прямой линии. Подбор линии по минимуму суммы квадратов ошибок и по собственному вектору дает два классических решения этой классической задачи. Мы должны отметить, что подбор линий по МСКО переходит также в ветвь статистики, называемую регрессионным анализом. [31]
При синтезе параметрически оптимизируемых систем для оценки качества управления удобно использовать какой-либо единственный показатель. Следует отметить, что критерий суммы квадратов ошибок управления предпочтительнее с математической точки зрения, кроме того, он может быть интерпретирован как средняя мощность и в связи с этим использоваться в других методах проектирования регуляторов. Таким образом, в дальнейшем для параметрической оптимизации будут использоваться квадратичные критерии качества, представленные в следующем виде ( см. гл. [32]
![]() |
Блок-схема программы DALSFEK Для вычислений констант устойчивости по нелинейному методу наименьших квадратов. [33] |
Программа OBSERVABLE Пересчитывает значения зависимых переменных, используя уточненные значения параметров. Пересчитывает разности и слеЭовательно, сумму квадратов ошибок. [34]
Следует обратить внимание на то, что расчетные эквиваленты скоростей реакций, входящих в выражения для плотности источников q flc, вычислены с подстановкой экспериментальных концентраций. При такой постановке задачи минимизируется не сумма квадратов ошибок измерений, а сумма квадратов разностей между двумя функциями от этих ошибок. Поскольку г ( у, р) является нелинейной функцией концентраций, выборочные оценки, как и их усредненные статистические свойства, в каждом конкретном случае зависят не только от уровня ошибки в эксперименте, но и от вида кинетических уравнений. Уровень ошибки в оценке параметров становится непрогнозируемым, и это затрудняет принятие решения об адекватности модели. Таким образом, применение МНК для решения кинетических задач рассматриваемого типа, в сущности, является некорректным. [35]
Система уравнений, которая должна быть решена для получения оценки параметров ( parameters) по методу наименьших квадратов ( least squares) в регрессионном ( regression) анализе, содержащая суммы квадратов и произведения переменных регрессионного уравнения. Сами нормальные уравнения получаются в результате минимизации суммы квадратов ошибок значений параметров. [36]
После того как наилучшие значения геометрических параметров найдены, модель можно спроектировать на плоскость картинки и сравнить с изображением. Степень достигнутого соответствия ( измеряемая, скажем, суммой квадратов ошибок) представляет собой окончательный числовой результат процедуры и служит основой для принятия решения о том, подходит ли данная конкретная модель к представленным на изображении данным. [37]
Для получения наилучшего согласия между измеренными и рассчитанными структурными факторами задают небольшие изменения для этих параметров. Метод наименьших квадратов, который впервые описал Лежандр [96], сводит сумму квадратов ошибок FC к минимуму. Расчеты проводятся циклическим способом, после каждого цикла получают улучшенные значения каждого из параметров. [38]
Как было указано в предыдущей главе, определитель нормального уравнения ( 17.5 - 4) обычно бывает очень мал; поэтому решение относительно коэффициентов должно быть довольно неопределенным. Необходимо, однако, различать две вещи: точность коэффициентов и малость суммы квадратов ошибок. Если упомянутый определитель мал, то коэффициенты будут найдены плохо; тем не менее сумма квадратов ошибок может быть близка к минимуму. Вообще говоря, когда число определяемых коэффициентов не превосходит пяти-шести, прямое решение нормального уравнения обычно приемлемо; но при большем их числе скорее всего встретятся трудности. [39]
В табл. 1.2 дана типичная схема построения с помощью экспоненциально взвешенного среднего целочисленного прогноза ежемесячного спроса на некоторый товар. В некоторых программах для ЭВМ пользователю предоставляется возможность найти значение а исходя из минимума суммы квадратов ошибок. Для коротких временных рядов ( как в табл, 1 2) более значимым представляется выбор начальной оценки прогноза. [40]
Такой подход позволяет определить расхождения между наблюдаемыми и рассчитанными значениями светопоглощения и, следовательно, сумму квадратов ошибок. [41]
Два последних случая можно рассматривать совместно. Вместо того чтобы решать систему ( 41), коэффициенты находят таким образом, чтобы сделать сумму квадратов ошибок наименьшей. Если 1рп, этот минимум равен нулю. [42]
Этот вывод известен под названием принципа наименьших квадратов. Он означает, что наиболее вероятное значение величины X, полученное в результате п равноточных измерений, обращает в минимум сумму квадратов ошибок. [43]
Конечное решение не всегда достоверно, и статистическая задача проверки правильности группировки в основном не решена. Однако, предполагая, что даже некачественная проверка лучше, чем никакая, мы проведем следующий приблизительный анализ для простого критерия суммы квадратов ошибок. Предположим, чТо мы имеем множество SC из п выборок и хотим решить, есть ли какое-либо основание для предположения, что они образуют более одной группы. Если эта гипотеза правильна, то любые обнаруженные группы были сформированы случайно, и любое замеченное уменьшение суммы квадратов ошибок, полученное при группировке, не имеет значения. [44]
Эта программа [86] едва ли может быть рекомендована. В ней вычисление наилучшего совпадения для констант устойчивости производится методом примитивного поиска, в котором последовательно варьируется каждый параметр, а затем рассматривается влияние каждого сдвига на сумму квадратов ошибок. Последняя определяется по уравнениям материального баланса для общих аналитических концентраций так же, как и в предыдущей программе LEAST. Если вектор вариации параметров приводит к большему значению суммы квадратов ошибок, то изменяется величина сдвига или меняется знак до тех пор, пока не будет получено понижение. Процедура заканчивается, когда меньшее значение суммы квадратов разностей не может быть найдено за конечное число итераций. [45]