Ошибка - классификация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Мы не левые и не правые, потому что мы валенки Законы Мерфи (еще...)

Ошибка - классификация

Cтраница 2


16 Условная выборка из 1950 человек, подвергавшихся и не подвергавшихся действию вредных факторов на рабочем месте, принятых на работу в момент То и проходивших обследование в момент Т2. [16]

Однако может произойти как недооценка, так и переоценка интересующей нас взаимосвязи, если ошибка классификации воздействия распределена по группам участников исследования неравномерно. В вышеописанном примере может возникнуть не просто размытость этиологических связей, но и систематическая ошибка, если классификация воздействия зависит от состояния здоровья участника.  [17]

Частота ошибок классификации на обучающей выборке является смещенной в том смысле, что она недооценивает ошибки классификации. Существуют методы, позволяющие получить несмещенные оценки вероятностей ошибочной классификации на основании только обучающей выборки, однако в общей постановке они чересчур громоздки в вычислительном отношении. Именно поэтому для контроля часто используется независимая ( экзаменующая) выборка.  [18]

Подпрограмма NMIN предназначена для выбора в исходном тгространстве оптимальной совокупности признаков, обладающей минимальной гарантированной вероятностью ошибок классификации. Она реализует алгоритм, описанный в гл. Подпрограмма NMIN имеет общую часть и три ветви, каждая из которых реализует один из режимов поиска оптимальной совокупности признаков.  [19]

Алгоритм NMIN предназначен для выделения в исходном пространстве признаков такого подпространства, в котором построенная гиперплоскость обладает минимальной гарантированной вероятностью ошибок классификации.  [20]

Требуется с помощью линейного решающего правила F ( x, a) так индексировать точки рабочей выборки, чтобы Минимизировать число ошибок классификации.  [21]

Нетрудно показать, что для каждого из таких нейронов существует, по крайней мере, одна из 14 логических функций, обеспечивающая минимальное число ошибок классификации. В этом слое достаточно выбрать только те нейроны, эффективность которых в результате усложнения искомого правила удалось повысить.  [22]

Как известно [2], спектральная плотность нормального процесса и его клипированной функции связаны однозначной зависимостью, следовательно, такое нелинейное преобразование не внесет увеличения ошибок классификации, но существенно упрощает аппаратурную реализацию.  [23]

В первом столбце таблицы указаны векторы, задающие систему окрестностей, затем наилучшая по данной системе окрестностей классификация векторов и, наконец, гарантированная оценка числа ошибок классификации.  [24]

Вьщеление и выбор существенных признаков упрощает реализацию сформированной разделяющей функции и последующее проведение дискриминантного анализа, а в некоторых случаях позволяет определить комоинацию признаков, минимизирующих ошибку классификации.  [25]

В первом столбце таблицы указан номер эксперимента, во втором - длина обучающей последовательности, в третьем - длина рабочей выборки, в четвертом столбце указано число ошибок классификации рабочей выборки с помощью линейного решающего правила, минимизирующего эмпирический риск ( метод обобщенного портрета см. гл.  [26]

Таким образом, для каждого вектора xt полной выборки (11.40) может быть указана классификация некоторых ( попавших в окрестность) векторов рабочей выборки и получена оценка mi - R ki числа ошибок классификации.  [27]

Таким образом, для заданной системы разделения пространства X на р областей алгоритм построения кусочно-линейной разделяющей поверхности состоит в том, чтобы в каждой области XW пространства X построить разделяющую гиперплоскость, минимизирующую число ошибок классификации на векторах обучающей последовательности, принадлежащих этой области. Таким образом, проблема состоит в том, чтобы задать разделения пространства X на р непересекающихся областей.  [28]

Если общий объем ВО и KB мал, то РП целесообразно строить по выборке, объединяющей всю информацию, не исключая из нее КВ. Ошибка классификации оценивается в этом случае по правилу скользящего контроля. Оно заключается в поочередном исключении из выборки каждого наблюдения пласта и опознания его по РП, достроенному по оставшимся наблюдениям. Ошибка вычисляется по формуле (1.34), в которой Ci - общее число пластов / - и совокупности в объединенной выборке.  [29]

Для того чтобы формализовать слово ошибка, мы будем считать, что существует ( хотя оно нам и не известно) некоторое правило Ф, определяющее для каждого вектора ж классификацию ( й Ф ( х), которую назовем истинной. Ошибкой классификации вектора х с помощью правила F ( x) мы назовем такую классификацию, при которой Fix) и Ф х) не совпадают.  [30]



Страницы:      1    2    3    4