Cтраница 2
Исключим из обучающей последовательности первую пару хг, у и найдем функцию, минимизирующую эмпирический риск на оставшихся / - 1 элементах обучающей последовательности. [16]
Поэтому обработка обучающей последовательности ведется итеративно. [17]
По элементам обучающей последовательности строится оптимальная разделяющая гиперплоскость. [18]
![]() |
Область диагнозов ( состояний в пространстве признаков. [19] |
Они образуют обучающую последовательность. Точки, входящие в области диагнозов, обычно располагаются более плотно в центральной части области, Примем в качестве типичного изделия с данным диагнозом среднюю точку, которую назовем эталоном. [20]
Точку z из обучающей последовательности назовем опорной в данном классе значений отклика Т, если существует некоторая окрестность этой точки радиуса R 0, в которой процент точек класса v больше или равен наперед заданной величины v0, являющийся параметром алгоритма выбора опорных точек. В частности, если v0 100 %, то точка считается опорной, когда существует R-окрестность, содержащая точки обучающей последовательности только из ее же класса. [21]
Комитет строится по обучающей последовательности объектов. После построения комитета объекты, попадающие на распознавание, относятся в тот класс, к которому их относит большая часть плоскостей. [22]
В соответствии с обучающей последовательностью для каждого признака вырабатывается характеристич. [23]
Если безошибочное разделение векторов обучающей последовательности невозможно, то после удаления из обучающей выборки векторов, препятствующих разделению, организуется поиск оптимальной совокупности признаков. [24]
Предлагаемые изменения методов построения обучающих последовательностей намного улучшают функционирование распознающих устройств в режиме простого обучения. Для режима же самообучения эти изменения имеют принципиальное значение, поскольку лишь на таком пути можно надеяться, что классификация изображений, производимая самообучающимися устройствами, будет соответствовать исходной классификации, производимой Человеком. Ясно, что описание процессов подобного рода требует гораздо более сложного математического аппарата, чем тот, который был использован в настоящем параграфе. [25]
Чему равна минимальная длина обучающей последовательности & при полном обучении и насколько можно сократить полный перебор в данном случае. [26]
Эти две группы составили обучающую последовательность, которая была проанализирована с помощью алгоритма диагностики и прогнозирования по общей близости признаков заболевания [ э ] в предположении, что все 29 признаков имеют одинаковое влияние на диагноз. [27]
Коэффициенты регрессионных моделей определяются по обучающей последовательности. [28]
Часто, однако, длина обучающей последовательности настолько велика, что обработка сразу всего материала обучения приводит к необходимости решать двойственную задачу слишком большой размерности. [29]
![]() |
Иллюстрация к по - приемлемую величину. Однако у этого. [30] |