Cтраница 1
Ошибки классификации ( в процентах) для различных значений порядка полинома г и настраиваемо. [1]
![]() |
Условная выборка из 1950 человек, подвергавшихся и не подвергавшихся действию вредных факторов на рабочем месте, принятых на работу в момент То и проходивших обследование в момент Т2. [2] |
Ошибка классификации в этом примере зависит от схемы исследования и характеристик исследуемой популяции, но не от технических ограничений при проведении измерений. [3]
Оценка ошибки классификации двух совокупностей осуществляется по контрольной выборке путем опознания пластов KB с помощью контролируемого РП. [4]
Частота ошибок классификации на обучающей выборке является смещенной в том смысле, что она недооценивает ошибки классификации. Существуют методы, позволяющие получить несмещенные оценки вероятностей ошибочной классификации на основании только обучающей выборки, однако в общей постановке они чересчур громоздки в вычислительном отношении. Именно поэтому для контроля часто используется независимая ( экзаменующая) выборка. [5]
![]() |
Зависимость правильной классификации от числа сохраняемых признаков ( испытательное множество. [6] |
Кроме того, ошибка классификации может возникать из-за относительно простого алгоритма классификации. Однако в данном случае важным является выбор признаков, а не процедура классификации. Из рис. 10.11 видно, что для получения 88 % верной классификации число сохраняемых признаков, необходимых для ДПФ, ПУА с упорядочением по Адамару и преобразования Хаара, должно равняться 25, 35 и 50 соответственно. [7]
Параметру ICK ( число ошибок классификации) присваивается значение, равное нулю. [8]
Эти условия соответствуют минимальному уровню ошибки неправильной классификации. [9]
За критерий разделимости классов принимается вероятность ошибки классификации или же берутся другие, более удобные для вычислений, критерии. Если вернуться к рисунку, о котором мы до этого говорили, то вероятность ошибки тем меньше, чем дальше находятся друг от друга в плоскости ( га (, щ) области, отвечающие классам. Если же эти области пересекающиеся, как показано на рисунке рядом, то вероятность ошибки заведомо будет большей. [10]
Статистические методы преимущественно основываются на минимизации рассчитываемой ошибки классификации. [11]
Полезно рассмотреть ошибки, которые отображены в матрице ошибок классификации. Это можно сделать, изобразив разделяющие границы, которые соответствуют приведенному классификатору. [12]
Система изменяет положение этой поверхности, только если делает ошибки классификации. В конце процесса обучения она допускает ошибки только тогда, когда поверхность расположена вблизи правильной позиции. [13]
При проведении индексации векторов рабочей выборки дальнейшее уменьшение числа ошибок классификации с помощью линейных решающих правил может быть достигнуто за счет селекции выборки и отыскания информативного пространства признаков. [14]
Управляющий параметр GAM RK ( 5) позволяет изменять соотношение ошибок классификации первого и второго родов. В частности, при GAM 1 векторы исключаются только из первого класса, при GAM 0 ( или 2) векторы исключаются только из второго класса. Если при этом группа выделенных пар окажется пустой, подпрограмма VIXR формирует новую группу. [15]