Cтраница 1
Разбиение выборки на подмножества (10.13) осуществляется с помощью следующего алгоритма таксономии. [1]
После разбиения выборок на подвыборки на основе найденного значения с к каждой паре подвыборок применяется аналогичная процедура. В результате работы алгоритма формируется дерево решений, конечным вершинам которого либо сопоставлены подвыборки, для которых существует обобщенное конъюнктивное понятие, либо подвыборка обратилась в пустое множество. [2]
Алгоритм основан на разбиении выборок частных примеров на подвыборки в соответствии с наличием в них разделяющих значений признаков ( см. ниже) и позволяет получать логическую функцию принадлежности ценой небольшого числа просмотров этих выборок. [3]
Таксонная структура представляет собой последовательность разбиений выборки на непересекающиеся классы - таксоны. На первом уровне вся выборка объединена в один таксон. На каждом следующем уровне один из таксонов предыдущего уровня расщепляется на два. Это расщепление и номер разбиваемого таксона выбираются так, чтобы расстояние между вновь возникающими таксонами было наибольшим. [4]
Одним из возможных путей решения задачи является разбиение выборки X на подмножества, однозначно соответствующие порождающим их объектам. [5]
Основа построения рассмотренных алгоритмов БПУ - последова тельное разбиение выборок сигнала пополам. Однако такой подход явля ется не единственным. Можно строить БПУ, представляя N в виде про изведения других - двоично-рациональных чисел ( используя друпн основания), что в конечном счете позволяет получить друиге быстрьц алгоритмы, отличающиеся по времени анализа - спектра. [6]
Из-за малого количества имеющихся наблюдений мы не использовали разбиение выборки на части, служащие для оценивания параметров и для проверки прогноза. [7]
Внутренняя сумма равна C Cl - sm - числу разбиений выборки длины L на две подвыборки таких, что из т ошибок в подвыборку длины / попадают s ошибок. [8]
Внутренняя сумма равна C Cl - sm - числу разбиений выборки длины L на две подвыборки таких, что из га ошибок в подвыборку длины / попадают s ошибок. [9]
Если выборка достаточно велика, то мы можем при обосновании процедуры классификации взять случайное разбиение выборки на два подмножества. Одно подмножество необходимо для получения функций, а другое - только для проверки классификаций. Поскольку подмножества имеют различные выборочные ошибки, тестовое подмножество даст лучшую оценку способности предсказания свойств генеральной совокупности. [10]
Вначале имеющиеся объекты разбивают на две группы и используют одну из них для синтеза классификатора, а другую - для проверки его качества. Этот метод называют методом разбиения выборки. Основной вопрос, характерный для этого метода, заключается в том, как разделить объекты. [11]
Таким образом, можно вводить некоторые ( взвешенные) поправки для выборок, которым свойственна неоднородность, например из-за наличия поглощающей пыли или систематических ошибок подсчетов галактик на разных участках фотопластинок. Возможны более изощренные методы подсчета - путем разбиения выборки многими разными способами и последующего усреднения полученных значений W ( fS) по всей совокупности. [12]
На первом этапе была проанализирована выборка из 155 больных, для которых были известны значения для всех 10-ти участвовавших в рассмотрении функциональных признаков. Основываясь на значениях функции правдоподобия (4.25) в точках 6 для различных моделей связи, были отобраны признаки и проверена устойчивость полученного решения для нескольких вариантов разбиения выборки на учебную и контрольную. [13]
Алгоритмы KLOP и SUMKL, использующие таксонную структуру, реализуются последовательно вызываемыми программами ТАКСОН и FOP. Программа ТАКСОН строит таксонную структуру в признаковом пространстве. Для этого строится ряд уровней разбиения выборки на таксоны. [14]
Для реализации метода структурной минимизации риска на множестве кусочно-постоянных индикаторных функций необходимо задать на этом множестве структуру. В нашем случае это разбиение будет порождаться разбиением выборки наблюдении с помощью алгоритма таксономии, аналогично тому, как это делалось для кусочно-линейных решающих правил в гл. В известном смысле требование априорности разбиения цри этом удовлетворяется, так как алгоритм таксономии не использует информацию о принадлежности к тому или ипому классу векторов выборки. [15]