Cтраница 3
Таким образом, приведенный метод аппроксимации дискриминантных функций по обучающей выборке с большим весом в окрестности нулевых значений может дать значительное улучшение оценок границ по сравнению с обычным адаптивным байесовым подходом. Это ведет, в частности, к повышению эффективности линейных решающих правил, применение которых существенно упрощает систему контроля. Описанный метод использования весовых функций ошибок особенно целесообразен в тех многочисленных на практике случаях, когда следует по возможности воспользоваться более короткой обучающей выборкой, ибо получение самой обучающей последовательности наблюдаемых точек и соответствующих им событий сопряжено со значительно большими трудностями и затратами, чем обработка полученной обучающей выборки указанными методами на вычислительной машине. [31]
Бокс и Хилл предложили улучшенный вариант дискриминантных функций Кульбака, в котором учитывается априорная вероятность. [32]
Структурный коэффициент показывает, насколько тесно связаны переменные и дискриминантные функции. Когда абсолютная величина такого коэффициента велика, вся информация о дискриминантной функции заключена в этой переменной. Если же коэффициент близок к нулю - их зависимость мала. [33]
Расчет указанным путем аппроксимаций выбранных т - 1 дискриминантных функций в пространстве наблюдений У позволяет использовать их для текущего обнаружения событий в системе контроля. [34]
Эти формулы сводятся к тому, что значение дискриминантной функции для каждого объекта получается путем умножения значений дискриминантных переменных на соответствующие коэффициенты, а затем сложения полученных произведений с некоторой постоянной. [35]
Выход из создавшегося положения мы видим в разработке собственных дискриминантных функций для каждой отрасли, которые бы учитывали специфику нашей действительности. Более того, эти функции должны тестироваться каждый год на новых выборках с целью уточнения ихдискриминантной силы. [36]
Нормальным распределениям с равными ковариационными матрицами методика вычисления оптимальных дискриминантных функций изложена в предыдущем параграфе. [37]
![]() |
Блок-схема классификатора. [38] |
Функцию g ( xi, xz) называют дискриминантной функцией, а техническое устройство, определяющее знак g ( x, х2) - блоком распознавания образов пли классификатором. На рис. 1.3 изображена блок-схема классификатора в гс-мерном пространстве. [39]
![]() |
Блок-схема классификатора. [40] |
Функцию g ( xi, xz) называют дискриминантной функцией, а техническое устройство, определяющее знак g ( x, х) - блоком распознавания образов или классификатором. На рис. 1.3 изображена блок-схема классификатора в гс-мерном пространстве. [41]
Таким образом, на множестве Xt j - я дискриминантная функция gj ( х) принимает наибольшее значение. [42]
Предполагая Я1 Я2 Я31 / 3, требуется найти дискриминантные функции, которые определяют классификатор. [43]
При диагностическом анализе, и в частности при вычислении дискриминантной функции g ( x), необходимо учитывать тот факт, что наличие частот вибрации, или, что то же самое, превышения амплитудами спектральных составляющих определенного порогового значения носит случайный характер. Поэтому при классификации - диагностике ввели вероятность появления группы частот х при условии, что объект принадлежит к определенному классу. [44]
Учитывая, что для обнаружения событий важны лишь знаки дискриминантных функций fhj ( y), целесообразно несколько переформулировать решаемую задачу аппроксимации дискриминантных функций: производить необходимую аппроксимацию с возможно наибольшей точностью в окрестности гиперповерхности fhj ( y) 0 за счет уменьшения точности аппроксимации вдали от этой гиперповерхности. [45]