Cтраница 2
![]() |
Условная выборка из 1950 человек, подвергавшихся и не подвергавшихся действию вредных факторов на рабочем месте, принятых на работу в момент То и проходивших обследование в момент Т2. [16] |
Однако может произойти как недооценка, так и переоценка интересующей нас взаимосвязи, если ошибка классификации воздействия распределена по группам участников исследования неравномерно. В вышеописанном примере может возникнуть не просто размытость этиологических связей, но и систематическая ошибка, если классификация воздействия зависит от состояния здоровья участника. [17]
Частота ошибок классификации на обучающей выборке является смещенной в том смысле, что она недооценивает ошибки классификации. Существуют методы, позволяющие получить несмещенные оценки вероятностей ошибочной классификации на основании только обучающей выборки, однако в общей постановке они чересчур громоздки в вычислительном отношении. Именно поэтому для контроля часто используется независимая ( экзаменующая) выборка. [18]
Подпрограмма NMIN предназначена для выбора в исходном тгространстве оптимальной совокупности признаков, обладающей минимальной гарантированной вероятностью ошибок классификации. Она реализует алгоритм, описанный в гл. Подпрограмма NMIN имеет общую часть и три ветви, каждая из которых реализует один из режимов поиска оптимальной совокупности признаков. [19]
Алгоритм NMIN предназначен для выделения в исходном пространстве признаков такого подпространства, в котором построенная гиперплоскость обладает минимальной гарантированной вероятностью ошибок классификации. [20]
Требуется с помощью линейного решающего правила F ( x, a) так индексировать точки рабочей выборки, чтобы Минимизировать число ошибок классификации. [21]
Нетрудно показать, что для каждого из таких нейронов существует, по крайней мере, одна из 14 логических функций, обеспечивающая минимальное число ошибок классификации. В этом слое достаточно выбрать только те нейроны, эффективность которых в результате усложнения искомого правила удалось повысить. [22]
Как известно [2], спектральная плотность нормального процесса и его клипированной функции связаны однозначной зависимостью, следовательно, такое нелинейное преобразование не внесет увеличения ошибок классификации, но существенно упрощает аппаратурную реализацию. [23]
В первом столбце таблицы указаны векторы, задающие систему окрестностей, затем наилучшая по данной системе окрестностей классификация векторов и, наконец, гарантированная оценка числа ошибок классификации. [24]
Вьщеление и выбор существенных признаков упрощает реализацию сформированной разделяющей функции и последующее проведение дискриминантного анализа, а в некоторых случаях позволяет определить комоинацию признаков, минимизирующих ошибку классификации. [25]
В первом столбце таблицы указан номер эксперимента, во втором - длина обучающей последовательности, в третьем - длина рабочей выборки, в четвертом столбце указано число ошибок классификации рабочей выборки с помощью линейного решающего правила, минимизирующего эмпирический риск ( метод обобщенного портрета см. гл. [26]
Таким образом, для каждого вектора xt полной выборки (11.40) может быть указана классификация некоторых ( попавших в окрестность) векторов рабочей выборки и получена оценка mi - R ki числа ошибок классификации. [27]
Таким образом, для заданной системы разделения пространства X на р областей алгоритм построения кусочно-линейной разделяющей поверхности состоит в том, чтобы в каждой области XW пространства X построить разделяющую гиперплоскость, минимизирующую число ошибок классификации на векторах обучающей последовательности, принадлежащих этой области. Таким образом, проблема состоит в том, чтобы задать разделения пространства X на р непересекающихся областей. [28]
Если общий объем ВО и KB мал, то РП целесообразно строить по выборке, объединяющей всю информацию, не исключая из нее КВ. Ошибка классификации оценивается в этом случае по правилу скользящего контроля. Оно заключается в поочередном исключении из выборки каждого наблюдения пласта и опознания его по РП, достроенному по оставшимся наблюдениям. Ошибка вычисляется по формуле (1.34), в которой Ci - общее число пластов / - и совокупности в объединенной выборке. [29]
Для того чтобы формализовать слово ошибка, мы будем считать, что существует ( хотя оно нам и не известно) некоторое правило Ф, определяющее для каждого вектора ж классификацию ( й Ф ( х), которую назовем истинной. Ошибкой классификации вектора х с помощью правила F ( x) мы назовем такую классификацию, при которой Fix) и Ф х) не совпадают. [30]