Разделяющая гиперплоскость - Большая Энциклопедия Нефти и Газа, статья, страница 3
"Подарки на 23-е февраля, это инвестиции в подарки на 8-е марта" Законы Мерфи (еще...)

Разделяющая гиперплоскость

Cтраница 3


Задача построения разделяющей гиперплоскости, минимизирующей число неправильно классифицируемых векторов, принципиально может быть решена, коль скоро решена задача построения разделяющей гиперплоскости, но точное ее решение требует большого перебора вариантов. Поэтому используем эвристический прием, позволяющий сократить перебор.  [31]

Этот под - блок реализует модифицированный метод сопряженных градиентов, с помощью которого для группы выделенных пар векторов ( xt, Xi) он либо строит разделяющую гиперплоскость, либо устанавливает, что разделение векторов этой группы невозможно.  [32]

Этот метод используется в качестве базового во всех алгоритмах комплекса, которые конструктивно различаются между собой лишь тем, в каком подпространстве и на какой подвыборке строится разделяющая гиперплоскость.  [33]

Показать затем, что М совпадает с множеством точек X, для которых ( С, X) а, где ( С, X) а - уравнение разделяющей гиперплоскости.  [34]

Таким образом, для заданной системы разделения пространства X на р областей алгоритм построения кусочно-линейной разделяющей поверхности состоит в том, чтобы в каждой области XW пространства X построить разделяющую гиперплоскость, минимизирующую число ошибок классификации на векторах обучающей последовательности, принадлежащих этой области. Таким образом, проблема состоит в том, чтобы задать разделения пространства X на р непересекающихся областей.  [35]

Одним из самых важных следствий развития критериальных методов, появившихся в 60 - х гг., является понятие о разделяющем пространстве / гиперплоскости / функции. Разделяющая гиперплоскость ( она же решающее правило) - это некоторая геометрическая интерпретация, появившаяся изначально для задачи дифференциальной медицинской диагностики. Вид и сама возможность построения такой функции сильно зависят от конфигурации тех самых областей, которые нужно разделить, и их взаимного положения. Если между областями можно провести некоторую прямую так, что все точки разных областей окажутся по разные стороны от прямой, то говорят о линейной разделимости. Первые перцептроны ( прообраз нейронных сетей) были основаны на этом принципе.  [36]

Для этой задачи, имеющей размерность d - 1, вновь применяется метод разделяй и властвуй. В частности, ищется разделяющая гиперплоскость /, существование которой гарантируется теоремой 5.4, при этом б считается заданным ( каким оно получено на шаге 2 процедуры БПАРАсО, а с равна разреженности множества S 2, только что полученной нами.  [37]

Индукция начинается со значения d 2, для которого, как уже было показано, гиперкуб со стороной 26 содержит не более 12 точек. Тем самым доказывается, что разделяющая гиперплоскость / существует. Путем простого просмотра за время 0 ( dN) получившихся в результате сортировки упорядоченных последовательностей определяем интервалы такие, что по обе стороны от них содержится по N / 4d точек.  [38]

Эффективность этой процедуры можно оценить аналитически, если объекты генерируются в соответствии с двумя нормальными распределениями. Мы найдем условия, при которых разделяющая гиперплоскость сходится к гиперплоскости, перпендикулярной к вектору разности средних векторов этих распределений.  [39]

Алгоритм KLOP разбивает пространство векторов на IT непересекающихся областей. В каждой из областей строится своя разделяющая гиперплоскость. Построенные IT гиперплоскостей образуют кусочно-линейную поверхность. Для классификации вектора экзаменационной выборки сначала определяется область, которой он принадлежит, а затем с помощью гиперплоскости, построенной в этой области, производится его классификация. Оценка качества построенной гиперповерхности определяется величиной CR по формуле 4 табл. 7.1. Суть алгоритма KLOP состоит в том, чтобы для фиксированного способа построения IT непересекающихся областей выбрать такое их число IT, для которого гарантированная вероятность ошибок классификации с помощью кусочно-линейных решающих правил была бы минимальна.  [40]

Эффективность этой процедуры можно оценить аналитически, если объекты генерируются в соответствии с двумя нормальными распределениями. Мы найдем условия, при которых разделяющая гиперплоскость сходится к гиперплоскости, перпендикулярной к вектору разности средних векторов этих распределений.  [41]

При IKL 6 реализуется алгоритм LOKOP. Подпрограмма LOKOP строит ( используя вспомогательную подпрограмму ОКРЕСТ) локально-линейную разделяющую гиперплоскость и с ее помощью классифицирует заданные точки.  [42]

Алгоритм для каждой из к заданных точек отыскивает наилучшую окрестность, строит в ней разделяющую гиперплоскость и классифицирует с ее помощью эту точку. Наилучшая окрестность определяется минимумом гарантированной вероятности ошибки при классификации точек окрестности с помощью разделяющей гиперплоскости.  [43]

44 Выделение областей в двухмерном пространстве. [44]

В этом случае запоминание примеров выполняется путем формирования нейронной сети и заданием весов входов. Изменение весов входов, числа нейронов, графа межнейронных связей меняет набор и положение разделяющих гиперплоскостей, разбивающих многомерное пространство на области.  [45]



Страницы:      1    2    3    4