Обучающийся алгоритм - Большая Энциклопедия Нефти и Газа, статья, страница 1
Скупой платит дважды, тупой платит трижды. Лох платит всю жизнь. Законы Мерфи (еще...)

Обучающийся алгоритм

Cтраница 1


Обучающийся алгоритм Михальского [15] имеет четыре основных этапа: 1) выбрать начальную популяцию гипотез; 2) создать новые гипотезы путем обобщения старых; 3) выбрать лучшие гипотезы и использовать снова этап 2; 4) просмотреть результаты каждого этапа 3, чтобы решить, следует ли прекратить этот итерационный процесс.  [1]

В условиях, когда априори мало что известно о конкретных особенностях задач, разработка хорошей стратегии представляет трудную задачу и обучающиеся алгоритмы иногда не дают желаемого эффекта, особенно если речь идет о коротких по времени задачах, в ходе решения которых трудно собрать хорошую статистику.  [2]

Наши недостатки, как известно - продолжения наших достоинств. И упомянутая выше универсальность персептронов превращается одновременно в одну из главных проблем обучающихся алгоритмов, известную как проблема переобучения.  [3]

Если под непрерывностью в случае дискретной функции понимать то, что небольшие изменения в области определения функции ведут к небольшим изменениям в области ее значений, то алгоритм обучения системы PERCEPTRON можно рассматривать как поиск по непрерывной дискретной функции. Такой непрерывности G ( A), однако, недостаточно для сходимости обучающегося алгоритма. Достаточными являются условие унимодальности G ( A) и движение вверх по градиенту обучающегося алгоритма. Те же самые характеристики могут оказаться важными и для алгоритма, который обучается самим со.  [4]

Алгоритмы принятия решений, относящиеся к низшим уровням вплоть до выделения локальных признаков, могут строиться на основе классических методов распознавания. На этой стадии обработки изображения могут использоваться и детерминированные, и статистические, и обучающиеся алгоритмы. Трудности, однако, возникают обычно в связи с проблемой выбора системы основных признаков, образующей словарь языка описания образов. Процедура оптимизации вполне осуществима, если определен критерий оптимальности. Последнее, однако, само по себе является трудной задачей.  [5]

Если под непрерывностью в случае дискретной функции понимать то, что небольшие изменения в области определения функции ведут к небольшим изменениям в области ее значений, то алгоритм обучения системы PERCEPTRON можно рассматривать как поиск по непрерывной дискретной функции. Такой непрерывности G ( A), однако, недостаточно для сходимости обучающегося алгоритма. Достаточными являются условие унимодальности G ( A) и движение вверх по градиенту обучающегося алгоритма. Те же самые характеристики могут оказаться важными и для алгоритма, который обучается самим со.  [6]

Его задача состоит в сравнении выходных сигналов всех опознавательных элементов и в выборе из них того, который имеет наибольшее значение. В начале работы пандемониума характеристики его элементов выбираются случайным образом. В процессе обучения эти характеристики уточняются. После проведения серии распознаваний и изображений обучающийся алгоритм вычисляет значение критерия качества распознавания. Таким критерием может служить, например, процент правильно опознанных образов.  [7]

В подобных случаях соответствующие квадраты в таблице обозначены знаком О. В результате необходимого статистического анализа измеряемых величин должна быть заполнена табл. 3 - 6, дающая все необходимые данные для выполнения процесса алгоритмизации. Она предназначена для информации об исходных величинах, требуемой для реализации алгоритмов контроля. Во всех остальных графах располагаются значения соответствующих характеристик, смысл большинства из которых понятен из таблицы. В некоторых графах таблицы могут помещаться не сами характеристики, а лишь ссылки на документы, в которых эти характеристики содержатся. Например, в графе 10 следует указать, для каких двух исходных величин вычисляется взаимно-корреляционная функция, и записать саму функцию. Если эта информация не умещается в клетке таблицы, то она выносится отдельно, а в клетке таблицы помещается соответствующая ссылка. Взаимно-корреляционная функция и матрица коэффициентов корреляции между несколькими исходными величинами могут, например, понадобиться при выявлении некоторых сложных событий. Статистический материал Р виде обучающей последовательности бывает необходим при реализации различного рода обучающихся алгоритмов.  [8]



Страницы:      1