Разбиение - выборка - Большая Энциклопедия Нефти и Газа, статья, страница 1
Если вам долго не звонят родственники или друзья, значит у них все хорошо. Законы Мерфи (еще...)

Разбиение - выборка

Cтраница 1


Разбиение выборки на подмножества (10.13) осуществляется с помощью следующего алгоритма таксономии.  [1]

После разбиения выборок на подвыборки на основе найденного значения с к каждой паре подвыборок применяется аналогичная процедура. В результате работы алгоритма формируется дерево решений, конечным вершинам которого либо сопоставлены подвыборки, для которых существует обобщенное конъюнктивное понятие, либо подвыборка обратилась в пустое множество.  [2]

Алгоритм основан на разбиении выборок частных примеров на подвыборки в соответствии с наличием в них разделяющих значений признаков ( см. ниже) и позволяет получать логическую функцию принадлежности ценой небольшого числа просмотров этих выборок.  [3]

Таксонная структура представляет собой последовательность разбиений выборки на непересекающиеся классы - таксоны. На первом уровне вся выборка объединена в один таксон. На каждом следующем уровне один из таксонов предыдущего уровня расщепляется на два. Это расщепление и номер разбиваемого таксона выбираются так, чтобы расстояние между вновь возникающими таксонами было наибольшим.  [4]

Одним из возможных путей решения задачи является разбиение выборки X на подмножества, однозначно соответствующие порождающим их объектам.  [5]

Основа построения рассмотренных алгоритмов БПУ - последова тельное разбиение выборок сигнала пополам. Однако такой подход явля ется не единственным. Можно строить БПУ, представляя N в виде про изведения других - двоично-рациональных чисел ( используя друпн основания), что в конечном счете позволяет получить друиге быстрьц алгоритмы, отличающиеся по времени анализа - спектра.  [6]

Из-за малого количества имеющихся наблюдений мы не использовали разбиение выборки на части, служащие для оценивания параметров и для проверки прогноза.  [7]

Внутренняя сумма равна C Cl - sm - числу разбиений выборки длины L на две подвыборки таких, что из т ошибок в подвыборку длины / попадают s ошибок.  [8]

Внутренняя сумма равна C Cl - sm - числу разбиений выборки длины L на две подвыборки таких, что из га ошибок в подвыборку длины / попадают s ошибок.  [9]

Если выборка достаточно велика, то мы можем при обосновании процедуры классификации взять случайное разбиение выборки на два подмножества. Одно подмножество необходимо для получения функций, а другое - только для проверки классификаций. Поскольку подмножества имеют различные выборочные ошибки, тестовое подмножество даст лучшую оценку способности предсказания свойств генеральной совокупности.  [10]

Вначале имеющиеся объекты разбивают на две группы и используют одну из них для синтеза классификатора, а другую - для проверки его качества. Этот метод называют методом разбиения выборки. Основной вопрос, характерный для этого метода, заключается в том, как разделить объекты.  [11]

Таким образом, можно вводить некоторые ( взвешенные) поправки для выборок, которым свойственна неоднородность, например из-за наличия поглощающей пыли или систематических ошибок подсчетов галактик на разных участках фотопластинок. Возможны более изощренные методы подсчета - путем разбиения выборки многими разными способами и последующего усреднения полученных значений W ( fS) по всей совокупности.  [12]

На первом этапе была проанализирована выборка из 155 больных, для которых были известны значения для всех 10-ти участвовавших в рассмотрении функциональных признаков. Основываясь на значениях функции правдоподобия (4.25) в точках 6 для различных моделей связи, были отобраны признаки и проверена устойчивость полученного решения для нескольких вариантов разбиения выборки на учебную и контрольную.  [13]

Алгоритмы KLOP и SUMKL, использующие таксонную структуру, реализуются последовательно вызываемыми программами ТАКСОН и FOP. Программа ТАКСОН строит таксонную структуру в признаковом пространстве. Для этого строится ряд уровней разбиения выборки на таксоны.  [14]

Для реализации метода структурной минимизации риска на множестве кусочно-постоянных индикаторных функций необходимо задать на этом множестве структуру. В нашем случае это разбиение будет порождаться разбиением выборки наблюдении с помощью алгоритма таксономии, аналогично тому, как это делалось для кусочно-линейных решающих правил в гл. В известном смысле требование априорности разбиения цри этом удовлетворяется, так как алгоритм таксономии не использует информацию о принадлежности к тому или ипому классу векторов выборки.  [15]



Страницы:      1    2