Cтраница 4
Следовательно, с теоретической точки зрения вероятность ошибки является наилучшим критерием эффективности признаков. Кроме того, на практике одним из наиболее распространенных критериев является вероятность ошибки, полученная экспериментально; а именно, интуитивно выбрав набор признаков, строят байесовский классификатор и экспериментально подсчитывают число ошибок классификаций. Эта процедура является гибкой, не зависит от вида распределения и теоретически позволяет найти оптимальное решение. Кроме того, с точки зрения машинного времени она может успешно конкурировать с процедурами минимизации многих других критериев, которые задаются явными математическими выражениями, но оказываются сложными для минимизации. [46]
Следовательно, с теоретической точки зрения вероятность ошибки является наилучшим критерием эффективности признаков. Кроме того, на практике одним из наиболее распространенных критериев является вероятность ошибки, полученная экспе - риментально; а именно, интуитивно выбрав набор признаков, строят байесовский классификатор и экспериментально подсчитывают число ошибок классификаций. Эта процедура является гибкой, не зависит от вида распределения и теоретически позволяет найти оптимальное решение. Кроме того, с точки зрения машинного времени она может успешно конкурировать с процедурами минимизации многих других критериев, которые задаются явными математическими выражениями, но оказываются сложными для минимизации. [47]
Проверки анормальности результатов наблюдений основываются на двух предположениях: результаты подчинены нормальному закону распределения; отсутствуют систематические погрешности. Так как эти предположения выполняются не строго, реальный уровень засорения выборки анормальными результатами неизвестен, а их выявление выполняется по одной и той же выборке, то обнаружение анормального результата наблюдения является случайным событием и сопровождается ошибками классификации. Появление таких ошибок приводит к искажению результатов и их точностных характеристик. [48]
В предыдущей главе были изложены результаты классификации ex ante ( т.е. наперед) в задаче оценки привлекательности фирм с точки зрения размещения кредитов, которую выполняли несколько польских специалистов в области кредитного дела на материале гипотетических заявок на предоставление кредита; также были рассмотрены результаты классификации ex post ( т.е. задним числом) на материале реального инвестиционного портфеля Голландского инвестиционного банка. В обеих задачах имеющихся данных было недостаточно для того, чтобы проанализировать цену ошибок классификации. В этой главе мы займемся оценкой ошибок классификации 1-го и 2-го родов в задаче прогнозирования банкротства корпораций и исследуем возможные результаты применения нейронных сетей. Материалом для конкретной задачи послужат данные по ряду британских компаний - производителей комплектующих для автомобилей. В основе конструкции сети лежат семь входных моделей, использующих показатели, которые входят в так называемое дзета Альтмана. [49]
Развитие проблем распознавания связано с созданием оптимальных распознающих алгоритмов. Оптимизацию и процедуру построения распознающей модели реализуют в процессе обучения по обучающим или эталонным данным. При этом находят некоторые параметры модели, позволяющие свести к минимуму ошибки классификации ситуаций в признаковом пространстве. В зависимости от применяемого метода распознавания осуществляют наибольшее отделение классов друг от друга или ищут параметры модели, наилучшим образом характеризующие близость объектов в классах. [50]
Обученная нейронная сеть содержит все возможные связи между входными нейронами и нейронами скрытого слоя, а также между последними и выходными нейронами. Полное число этих связей обычно столь велико, что из анализа их значений невозможно извлечь обозримые для пользователя классифицирующие правила. Прореживание заключается в удалении излишних связей и нейронов, не приводящем к увеличению ошибки классификации сетью. Результирующая сеть обычно содержит немного нейронов и связей между ними и ее функционирование поддается исследованию. [51]
Важной является задача классификации сигналов, под которой понимается определение принадлежности параметров сигнала к одному из возможных распределений. Сто-хастичность сигнала и наличие помех требуют последовательной процедуры классификации, при этом алгоритм классификации должен минимизировать ошибки классификации. [52]
Интуитивно можно предположить, что по мере уменьшения числа входов классификатора его расчет и реализация упрощаются. Таким образом, вторым этапом выбора признаков является понижение размерности, после чего получаем подмножество М признаков гь z2, , 2Jf из У ( т), так что M N. Понижать размерность следует таким образом, чтобы сопутствующее этому увеличение ошибки классификации была относительно невелико. [53]
Главы 3 - 7 посвящены задаче построения классификатора. В главе 3 отыскивается теоретически наилучший способ построения классификатора в предположении, что распределения случайных векторов, подлежащих классификации, известны. В этом - случае задача превращается в обычную задачу статистической проверки гипотез. Доказывается, что байесовский классификатор является оптимальным, в смысле минимизации вероятности ошибки классификации или минимизации риска, если возможным решениям приписываются определенные стоимости. Рассматриваются также критерий Неймана - Пирсона и минимаксный критерий. [54]