Cтраница 1
Большинство алгоритмов имеют главный параметр 7V, который значительно влияет на время их выполнения. [1]
Большинство алгоритмов, реализуемых в ЭВМ, используют рекурсию. Рекурсивные алгоритмы могут быть конечными и итерационными. [2]
Большинство алгоритмов при описании можно разбить на отдельные смысловые части, которые обеспечивают как наглядность самой программы, так и возможность разделения работы при программировании крупных задач. Чтобы выполнить такое разделение, программист может использовать DO-rpynny первого типа. Как мы уже видели, операторы, входящие в группу, выполняются в естественном порядке ( они как будто не входят в DO-группу), но, с другой стороны, DO-группа представляет собой один оператор ( так называемый составной оператор), ограниченный операторными скобками DO и END. Целесообразность такого средства языка понятна. Оно облегчает написание отдельных ветвей программы. [3]
Большинство алгоритмов обучения использует эвристические приемы формирования графов сетей и весов ребер. При использовании многоуровневых персептронных сетей обучение начинается с выбора начальной сети с задаваемым в постановке задачи числом входов и выходов и эвристически выбираемом графе нейронной сети, связывающей входы с выходами. Например, в [39] рекомендуется взять трехслойную сеть с числом нейронов внутреннего слоя, равным полусумме числа входов и выходов сети. Каждый нейрон внутреннего слоя должен быть связан с выходами всех входных нейронов сети. Каждый выходной нейрон должен быть связан с выходами всех нейронов внутреннего слоя. [4]
Большинство алгоритмов автоматического выбора шага основано на контроле локальных погрешностей интегрирования. Локальные погрешности включают в себя погрешности методические, обусловливаемые приближенностью формул интегрирования, и округления, обусловливаемые представлением чисел с помощью ограниченного количества разрядов. [5]
Большинство алгоритмов удаления невидимых граней и поверхностей тесно связано с различными методами сортировки. Некоторые алгоритмы проводят сортировку явно, в некоторых она присутствует в скрытом виде. Приближенные методы отличаются друг от друга фактически только порядком и способом проведения сортировки. [6]
Большинство алгоритмов поиска кратчайшего пути начинают с пустого дерева и затем добавляют к дереву по одному ребру то тех пор, пока дерево не будет построено. Эти алгоритмы можно разделить на две категории по способу выбора следующего ребра, которое прибавляется кдереву. [7]
Большинство алгоритмов решения многошаговых процессов управления являются либо итерационными, либо основанными на схемах погружения. [8]
Для большинства алгоритмов их сложность по времени Т ( п) по меньшей мере порядка О ( п), так как почти все они считывают все свои входы, что требует п шагов. Сначала представим алгоритм проверки принадлежности для F-зависимостей, сложность которого не имеет порядок О ( п), но который прост для понимания. [9]
Для большинства алгоритмов их сложность по времени Т ( п) по меньшей мере порядка О ( п), так как почти все они считывают все свои входы, что требует л шагов. Сначала представим алгоритм проверки принадлежности для F-зависимостей, сложность которого не имеет порядок О ( п), но который прост для понимания. [10]
Для большинства алгоритмов точные значения упомянутых характеристик определить трудно. Поэтому пользуются средними, наиболее вероятными или экстремальными характеристиками. [11]
Для большинства алгоритмов в качестве аксиом выступают элементарные свойства целых чисел. Разумеется, нет оснований полагать, что правильность рецепта пирога можно в этом смысле доказать. [12]
Почему большинство алгоритмов случайного поиска и стохастической аппроксимации малоэффективны в районе экстремума функции, подверженной помехам. [13]
Поэтому большинство алгоритмов оптимизации сложных систем являются эвристическими. Тем не менее они позволяют достаточно эффективно находить искомое экстремальное значение. [14]
В большинство общепринятых алгоритмов метода наименьших квадратов для расчета констант устойчивости входит уравнение (5.9); алгоритмы основаны на методах Ньютона - Гаусса - Рафсона. Эти методы подразделяются на две группы в зависимости от способа, которым обеспечивается уменьшение суммы квадратов S на каждой итерации. Это безусловно обеспечивает сходимость. [15]