Cтраница 2
Далее по формуле ( VI 56) находим весовую матрицу логарифмов скоростей, которая является общей для серии опытов при постоянных подачах и температуре. [16]
Матрица W ( К х А) называется весовой матрицей. [17]
В версиях ДАН, рассматриваемых до сих пор, весовая матрица вычисляется в виде суммы произведений пар векторов. Эти вычисления полезны, поскольку они демонстрируют функции, которые может выполнять ДАН. Однако это определенно не тот способ, посредством которого производится определение весов нейронов мозга. [18]
Так как ограничения (6.125) и (6.131) предполагаются независимыми, а весовая матрица W невырожденная, то матрицы коэффициентов ц, в уравнении (6.139) и v в уравнении (6.140) также невырожденны. [19]
Это выражение для Г выведено для общего случая, когда весовая матрица W и матрица, обратная корреляционной матрице измерений Г, не равны между собой. Однако на практике матрицы W и IV1 стараются сделать как можно более близкими между собой, выбирая при этом такую систему измерений, которая исключает автокорреляцию, в результате чего все недиагональные элементы матрицы Гг становятся равными нулю. В худшем случае матрица Г2 и, следовательно, матрица W содержат небольшие недиагональные блоки, определяющие взаимную корреляцию между различными типами измерений. Обычно все же в уравнении ( 6) принимают FZ W - l, имея в виду, что полученное выражение для Гх справедливо в той же степени, в которой удалось сформировать соответствующую весовую матрицу. [20]
Система задана своими характеристиками вход - выход, под которыми понимается весовая матрица G ( t) ( gij ( t)) nxm или передаточная матрица G ( p) gtj ( p)) nxm - При этом элементы последней являются рациональными функциями р и имеют вид правильных дробей. [21]
Электронно-оптический векторно-матричный умножитель. [22] |
Выход каждого фотодетектора является сверткой между входным вектором и соответствующим столбцом весовой матрицы. Таким образом, набор выходов представляет собой вектор, равный произведению входного вектора на весовую матрицу. [23]
Указание исходных данных для работы СТО. [24] |
Непосредственно генетический алгоритм работает на 4 - м этапе для вычисления весовой матрицы сети. Предварительно на этапе 3 пользователь, обучив с помощью BrainMaker несколько сетей, выбирает две лучшие, которые составляют исходную популяцию алгоритма. Таким образом, размер популяции равен двум. [25]
Это показывает, что двухслойная линейная сеть эквивалентна одному слою с весовой матрицей, равной произведению двух весовых матриц. Следовательно, любая многослойная линейная сеть может быть заменена эквивалентной однослойной сетью. Таким образом, для расширения возможностей сетей по сравнению с однослойной сетью необходима нелинейная активационная функция. [26]
Допустим, что ковариационная матрица наблюдаемых величин, а следовательно, и весовая матрица выбраны плохо. Возникает вопрос, можно ли предугадать, как это скажется на результатах лшв-анализа и при последующей проверке гипотез. [27]
Таким образом, мы получили замечательный результат - оптимальная оценка не зависит от весовой матрицы. [28]
При этом хорошо реализована схема организации связей: можно задать одну векторную связь с заданной весовой матрицей, а не набор скалярных связей с весовыми коэффициентами. [29]
Для многомерных линейных операторов верны при соответствующем матричном обобщении приведенные выше формулы связи между передаточными и весовыми матрицами. [30]