Ошибка - классификация - Большая Энциклопедия Нефти и Газа, статья, страница 3
Если сложить темное прошлое со светлым будущим, получится серое настоящее. Законы Мерфи (еще...)

Ошибка - классификация

Cтраница 3


Допускается ошибка классификации до 10 % типичной загрузки.  [31]

Вероятность правильной классификации плоскостных и объемно-плоскостных дефектов приблизительно одинакова. При этом ошибка классификации в основном направлена в сторону перебраковки дефектов. Это позволяет уменьшить степень риска того, что наиболее опасные плоскостные дефекты останутся в изделии в процессе эксплуатации.  [32]

33 Отбрасывание сомнительных областей ( область перекрытия классов, область с низкой плотностью. [33]

Имеется несколько критериев, используемых для оценки набора признаков. Естественный критерий состоит в вычислении ошибки классификации, отвечающей каждому из допустимых наборов признаков, которую можно определить, воспользовавшись одной из дискриминационных функций.  [34]

35 Геофизические параметры, используемые для построения правил классификации. [35]

Теоретическими исследованиями [10] установлено, что оптимальная стратегия классификации нескольких классов должна соответствовать иерархии классов. Оптимальность такой стратегии в том, что она дает приемлемую итоговую ошибку классификации и экономична по числу вычислительных процедур.  [36]

Ошибки, которые возможны при решении этих задач, могут весьма сильно сказаться на итоговых оценках подсчетных параметров залежи. Поскольку ошибки разного знака имеют разную цену, а корректная оценка ошибок классификации неоднородных совокупностей проблематична, построение решающих правил в данном случае опирается на принцип минимума потерь от ошибочной классификации. Этот принцип продиктован стремлением получить максимальные гарантированные оценки запасов в залежи при заданной степени ее разведанности.  [37]

С подходом принятия направленных решений связаны некоторые очевидные опасности. Если начальный классификатор не достаточно хорош или если встретилась неудачная последовательность выборок, ошибки классификации непомеченных выборок могут привести к неправильному построению классификатора, что в свою очередь приведет к решению, очень приблизительно соответствующему одному из меньших максимумов функции правдоподобия. Даже если начальный классификатор оптимален, результат пометки не будет соответствовать истинной принадлежности классам; классификация исключит выборки из хвостов желаемого распределения и включит выборки из хвостов других распределений. Таким образом, если имеется существенное перекрытие между плотностями компонент, можно ожидать смещения оценок и неоптимальных результатов.  [38]

В предыдущей главе были изложены результаты классификации ex ante ( т.е. наперед) в задаче оценки привлекательности фирм с точки зрения размещения кредитов, которую выполняли несколько польских специалистов в области кредитного дела на материале гипотетических заявок на предоставление кредита; также были рассмотрены результаты классификации ex post ( т.е. задним числом) на материале реального инвестиционного портфеля Голландского инвестиционного банка. В обеих задачах имеющихся данных было недостаточно для того, чтобы проанализировать цену ошибок классификации. В этой главе мы займемся оценкой ошибок классификации 1-го и 2-го родов в задаче прогнозирования банкротства корпораций и исследуем возможные результаты применения нейронных сетей. Материалом для конкретной задачи послужат данные по ряду британских компаний - производителей комплектующих для автомобилей. В основе конструкции сети лежат семь входных моделей, использующих показатели, которые входят в так называемое дзета Альтмана.  [39]

Оператор Ф ищется в некотором классе операторов G, причем оператор учителя Ф может принадлежать или не принадлежать классу G. Будем полагать, что на множестве ( х, Фх существует вероятностная мера и ошибка классификации Д, определенная на этом множестве, является измеримой функцией. Понятие близости Ф0 и Ф определяется в узком и широком смысле.  [40]

Этот критерий хорошо работает тогда, когда различия между классами в первую очередь определяются различиями в некоторых средних значениях. Это принципиальная трудность работы со всеми критериями для выявления и отбора признаков, которые основаны на ошибке классификации: они могут давать максимальные значения в неоптимальных ситуациях и могут оказаться минимальными в полезных ситуациях.  [41]

В этом случае задаются некоторым классом решающих правил и стремятся отыскать в нем правило, обеспечивающее минимальную вероятность ошибки классификации на всей генеральной совокупности. Но поскольку при обучении доступны лишь данные, содержащиеся в обучающей выборке, то непосредственно решить эту задачу нельзя.  [42]

В главе 10 рассматривается применение ортогональных преобразований с целью отбора признаков при распознавании образов. Главная задача данной главы в том, чтобы показать, как использование ортогональных преобразований позволяет существенно уменьшить количество необходимых признаков при сравнительно незначительном увеличении ошибок классификации. В связи с этим приводятся некоторые простые алгоритмы классификации и рассматривается возможность их реализации.  [43]

Во многих алгоритмах поиск минимума вероятности ошибки заменяется поиском решающего правила заданного вида, минимизирующего число ошибок на обучающей последовательности. Однако часто оказывается, что, построив более сложное решающее правило, можно добиться уменьшения числа ошибок на обучающей выборке, тогда как вероятность ошибки классификации векторов генеральной совокупности не падает, а наоборот, возрастает. Поэтому, в соответствии с теоретическими положениями части первой, в предлагаемом комплексе алгоритмов решающее правило выбирается по более сложному критерию, учитывающему соотношение числа ошибок на обучающей выборке, сложности правила и длины выборки.  [44]

Результаты работы пакета прикладных программ тематической классификации визуализируются на полутоновом дисплее в виде тематических карт. Полученная карта по желанию интерпретатора может сопровождаться выводом на принтере таблицы с данными о площадях, занимаемых каждым классом, вероятности ошибочной классификации класса и средней вероятности ошибки классификации анализируемого изображения.  [45]



Страницы:      1    2    3    4