Сумма - квадрат - ошибка - Большая Энциклопедия Нефти и Газа, статья, страница 4
Рассказывать начальнику о своем уме - все равно, что подмигивать женщине в темноте, рассказывать начальнику о его глупости - все равно, что подмигивать мужчине на свету. Законы Мерфи (еще...)

Сумма - квадрат - ошибка

Cтраница 4


Если 2рп, то система ( 41) допускает единственное решение. Все ошибки Sp ( xt) - yt равны нулю. Сумма квадратов ошибок, очевидно, также равна нулю.  [46]

В уравнении (9.44) имеются два неизвестных АЯмь и К. Для решения таких уравнений применяют методы аппроксимации, в которых первоначально предполагаемые константы устойчивости К. Кп отбрасываются в процессе итерации до тех пор, пока сумма квадратов ошибок S, характеризуемая уравнением (9.45), не станет минимальной [151, 152], как уже обсуждалось в гл.  [47]

Большинство ранних работ по методам теории графов было сделано для целей информационного поиска. Они же дают экспериментальное сравнение некоторых методов теории графов, предназначенных для целей информационного поиска, и обширную библиографию работ в этой области. Холл, Теппинг и Болл ( 1971) вычислили, как сумма квадратов ошибок изменяется в зависимости от размерности данных и предполагаемого числа групп для однородных данных, и предложили эти распределения в качестве полезного стандарта для сравнения. Вольф ( 1970) предлагает тест для оценки значимости групп, основанный на предполагаемом распределении хи-квадрат для логарифмической функции правдоподобия.  [48]

49 Процесс обучения нейронной сети. [49]

После многократного предъявления примеров веса сети стабилизируются, причем сеть дает правильные ответы на все ( или почти все) примеры из базы данных. В таком случае говорят, что сеть обучена. В программных реализациях можно видеть, что в процессе обучения величина ошибки ( сумма квадратов ошибок по всем выходам) постепенно уменьшается.  [50]

Оказывается, что после многократного предъявления примеров веса сети стабилизируются, причем сеть дает правильные ответы на все ( или почти все) примеры из базы данных. В таком случае говорят, что сеть выучила все примеры, сеть обучена, или сеть натренирована. В программных реализациях можно видеть, что в процессе обучения величина ошибки ( сумма квадратов ошибок по всем выходам) постепенно уменьшается. Когда величина ошибки достигает нуля или приемлемого малого уровня, тренировку останавливают, а полученную сеть считают натренированной и готовой к применению на новых данных. Важно отметить, что вся информация, которую сеть имеет о задаче, содержится в наборе примеров.  [51]

Как было указано в предыдущей главе, определитель нормального уравнения ( 17.5 - 4) обычно бывает очень мал; поэтому решение относительно коэффициентов должно быть довольно неопределенным. Необходимо, однако, различать две вещи: точность коэффициентов и малость суммы квадратов ошибок. Если упомянутый определитель мал, то коэффициенты будут найдены плохо; тем не менее сумма квадратов ошибок может быть близка к минимуму. Вообще говоря, когда число определяемых коэффициентов не превосходит пяти-шести, прямое решение нормального уравнения обычно приемлемо; но при большем их числе скорее всего встретятся трудности.  [52]

О формировании жаргона специалистами в области социальных наук свидетельствует, например, разнообразная терминология, относящаяся к методу Уорда. Метод Уорда в литературе называется по-разному. Известны по крайней мере еще четыре его названия: метод минимальной дисперсии, метод суммы квадратов ошибок, иерархическая группировка, минимизирующая trW и HGROUP. Первые два названия указывают просто на критерий, оптимум которого определяется в методе Уорда, тогда как третье связано с суммой квадратов ошибок, являющейся монотонным преобразованием следа матрицы W, внутригрупповой ковариационной матрицы.  [53]



Страницы:      1    2    3    4