Разделяющая гиперплоскость - Большая Энциклопедия Нефти и Газа, статья, страница 4
Жизнь, конечно, не удалась, а в остальном все нормально. Законы Мерфи (еще...)

Разделяющая гиперплоскость

Cтраница 4


Каждая из полученных групп классов вновь делится на две подгруппы, содержащие примерно равное число классов. Для этих подгрупп также проверяется условие линейной разделимости, и в случае его выполнения строится разделяющая гиперплоскость способом, указанным выше. Этот процесс продолжается до тех пор, пока в каждой из подгрупп не останется по одному классу.  [46]

Если оптимальная совокупность признаков соответствует исходному пространству, выдается диагностическое сообщение. Если же число признаков N0 удалось уменьшить и при этом CRN CRopt, то сообщается состав найденной оптимальной совокупности признаков и построенная в ней разделяющая гиперплоскость считается оптимальной. Если же CRN CRoPt, то сообщается состав найденной совокупности признаков, но оптимальной считается исходная совокупность признаков.  [47]

Получение оценок емкости для конкретных семейств алгоритмов является отдельной, зачастую довольно трудной, задачей. Практически сразу было доказано, что емкость семейства линейных решающих правил равна числу свободных параметров или, что то же самое, размерности линейного пространства, в котором строится разделяющая гиперплоскость. Оценки емкости получены также для нейронных сетей [31, 33, 60, 73]; решающих деревьев [8], корректных алгебраических замыканий подмодели АВО [16], комитетных решающих правил [71], и других семейств.  [48]

Наряду с приведенной конструкцией блока VOP в алгоритмах комплекса используется его модификация, в которой отсутствует подблок VIBR. Модифицированный блок VOP либо строит обобщенный портрет ( в том случае, если существует гиперплоскость, безошибочно разделяющая векторы обучающей выборки), либо устанавливает тот факт, что разделяющей гиперплоскости не существует, и прекращает вычислительную процедуру.  [49]

Настройка классификатора обычно бывает основана на пороговых правилах и / или сравнении расстояний между значениями целевых показателей. Нужно помнить, что нейронная сеть с прямой связью и сигмоидными выходами выдает ответ в непрерывном виде, обычно в интервале от 0 до 1 в зависимости от того, как располагаются разделяющие гиперплоскости скрытых элементов. Однако, даже если на выходе используются не апостериорные вероятности, а какая-либо более простая решающая функция, имеется возможность выдать надежный ответ.  [50]

Итак, множества Л и В являются выпуклыми, открытыми и непересекающимися. По свойству единогласия линия уровня функции W, проходящая через точку да ( а именно EN ( А и в)), имеет пустую внутренность. Из теоремы о разделяющей гиперплоскости следует, что эта линия уровня являются гиперплоскостью, разделяющей множества А я В.  [51]

Это означает, что вектор-строки матрицы А линейно независимы. При этом справедливость уравнения ( Е) становится очевидной. Попутно мы изложили вариант доказательства леммы Фаркаша с помощью теоремы о разделяющей гиперплоскости для выпуклого множества.  [52]

В этом разделе мы перенесем некоторые факты, справедливые для восстановления значений функции, на восстановление функции. При построении кусочно - линейной разделяющей поверхности пространство векторов X делится на р непересекающихся областей, в каждой из которых строится своя разделяющая гиперплоскость.  [53]

Все алгоритмы первой группы реализуются одной программой FOP. Алгоритм NMIN для заданного интервала обучения осуществляет поиск оптимального набора признаков из числа исходных. Окончательный вариант разделяющей гиперплоскости строится в подпространстве, определяемом найденной оптимальной комбинацией признаков. Различные режимы этого алгоритма соответствуют нескольким эвристическим процедурам перебора комбинаций.  [54]

Существуют пути значительного улучшения работы такой опознающей системы. Понятно, что все они могут входить в одну и ту же машину. Каждая из таких систем работает независимо и, так как разделяющие гиперплоскости подбираются случайно, в каждой системе они пройдут по-разному. По окончании процесса обучения каждая ассоциирующая система будет меть свои, не похожие на другие границы областей классов, более или менее удачно построенные. В рабочем режиме опознания решение о том, к какому классу отнести воспринятый образ, принимается по большинству голосов. Запараллеливание семи систем и некоторые другие меры, улучшающие ход процесса обучения, привели к тому, что опознающая система правильно опознавала 98 5 % всех предъявленных цифр.  [55]



Страницы:      1    2    3    4