Cтраница 2
Эта часть предварительной статистической обработки исходного массива данных, представленных в виде (1.4), включает в себя вычисление основных числовых характеристик распределения: среднего значения, дисперсии, коэффициентов асимметрии и эксцесса, а в многомерном случае - и элементов выборочной ковариационной матрицы. Кроме того, исследователь проводит численный и графический анализ одномерных законов распределения рассматриваемых показателей, заключающийся в построении соответствующих полигонов частот, гистограмм, эмпирических функций распределения. Результаты этого экспериментального анализа, дополненные априорными сведениями о природе анализируемой генеральной совокупности, зачастую оказываются достаточными для формулировки одной или нескольких конкурирующих гипотез об общем ( параметрическом) виде закона распределения вероятностей, задающего эту генеральную совокупность. [16]
Преимущество второго состоит в возможности длительного хранения исходного массива данных и многократного его использования ( без повторного считывания информации с перфокарт) для реализации нескольких вариантов программы GRAD, отличающихся различными входными параметрами. [17]
Чтобы решить задачу, необходимо ввести в машину исходный массив данных, содержащий N ( p - - 1) чисел, по которому можно сформировать матрицу системы нормальных уравнений, в которую войдет р X Р чисел. Далеко не всегда мы располагаем необходимым объемом оперативной памяти. [18]
![]() |
Распределение точек для классов Ки и Kq в пространстве параметров xl, х2. [19] |
Процедура выработки покрытий рассмотрена Н. Г. Загоруйко и состоит в последовательной серии попыток описания множества обучающих реализаций способом, усложняющимся до тех пор, пока не покрываются все реализации. При этом для образа Kq определяют сферы минимального радиуса, охватывающие все реализации исходного массива данных. [20]
Как уже отмечалось, важной задачей при формировании уравнений (4.291) является получение наиболее разреженной матрицы я, чего достигают выбором дерева по весовому приоритету ветвей. При этом вес ветви графа определяется суммарной кратностью инцидентных ей вершин и оценивается с помощью исходных массивов данных о начальном НУ конечном КУ узлах включения компонентов схемы. [21]
Преимущество такого способа прогнозирования при применении линейных бинарных классификаторов состоит в том, что он допускает проверку. Для этого в качестве обучающей выборки берут случайно выбранную совокупность известных данных, а на остальной части исходного массива данных проверяют прогнозы после завершения обучения. Результаты проверки служат мерой прогнозирующей способности, поскольку данные, взятые для экзамена, не использовались при обучении. Разумеется, всегда существует вероятность того, что необычно высокая прогнозирующая способность есть следствие артефакта, однако не исключено, что бинарный классификатор образов с высокой прогнозирующей способностью отражает фундаментальные свойства изучаемого явления. [22]
На первой строчке программы, как всегда, приведены массив данных и диапазонная переменная. Рядом помещены генераторы двух независимых случайных последовательностей, позволяющие получить нормально распределенные значения ( гпогт) последовательности чисел длиной, равной исходному массиву данных L ( первое число в скобках), со средним, равным нулю ( второе число в скобках), и дисперсией ( последнее число в скобках), равной единице. Сами случайные последовательности, одна из которых ( А) сигнал, а вторая ( А1) шум, показаны строчкой ниже. На этом графике точка, соответствующая максимальному отклику согласованного фильтра, принята равной нулю, чтобы она не влияла на вид гистограммы. [23]
Лишь отдельные точки выходят за указанные пределы. Однако увеличение погрешности незначительно, и, как показала статистическая обработка, все оптимизируемые параметры, входящие в уравнение (5.14), статистически значимы, и это уравнение адекватно [ ( F ( 9 90) 1 6 ] описывает исходный массив данных [33-35, 37] в указанном выше диапазоне параметров. На рисунке также показаны отклонения расчетных данных от экспериментальных [234], которые не были использованы при определении подгоночных коэффициентов. И здесь наблюдается вполне удовлетворительное согласие между сопоставляемыми данными. [24]
Вассерман [214] разработал методику составления единого равнения состояния, главной особенностью которой является строгая схема выбора весов экспериментальных точек, обеспечивающая надежное аналитическое описание термодинамической поверхности. Для достижения указанной цели автор рекомендует учитывать правило Максвелла и не считает обязательным привлекать, например, данные о теплоте испарения и об энтальпии. Включение в исходный массив данных о теплоемкости Cv обеспечивает их лучшее аналитическое описание, но несколько уменьшает точность расчета термических величин. По прежнему вопрос об описании термодинамических функций в критической области остался вне рамок рассмотрения, хотя и отмечается, что в ней обнаруживается нестабильность отклонений экспериментальных значений плотности от расчетных, полученных по различным вариантам уравнений состояния. [25]
Как видно из этой таблицы, 1 - е уравнение в целом удовлетворительно описывает исходную термическую поверхность, однако, как показали расчеты, недостаточно хорошо описывает данные об изохорной теплоемкости. При введении критических условий ( 2 - е уравнение) несколько увеличиваются средние квадратические отклонения от отдельных групп данных и не улучшается точность описания значений Cv. Включение последних в исходный массив данных и обеспечение соблюдения правила Максвелла приводят к лучшей сходимости, однако отклонения Расчетных значений Cv от опытных в критической области выедят далеко за пределы экспериментальных погрешностей, и наблюдаемая закономерность качественно остается неизменной я всех четырех уравнений. [26]
В результате расчетов ЭВМ выдает исходный массив данных, интервальный. [27]