Минимум - вероятность - ошибка - Большая Энциклопедия Нефти и Газа, статья, страница 1
Если вы спокойны, а вокруг вас в панике с криками бегают люди - возможно, вы что-то не поняли... Законы Мерфи (еще...)

Минимум - вероятность - ошибка

Cтраница 1


Минимум вероятности ошибки Р0 оптимальной системы можно оценить следующим образом: оптимальная стратегия Торпа для упрощенной игры дает выигрыш в 49 5 % игр. В большинстве разыгранных партий вначале делаются 3 правильных решения.  [1]

Во многих алгоритмах поиск минимума вероятности ошибки заменяется поиском решающего правила заданного вида, минимизирующего число ошибок на обучающей последовательности. Однако часто оказывается, что, построив более сложное решающее правило, можно добиться уменьшения числа ошибок на обучающей выборке, тогда как вероятность ошибки классификации векторов генеральной совокупности не падает, а наоборот, возрастает. Поэтому, в соответствии с теоретическими положениями части первой, в предлагаемом комплексе алгоритмов решающее правило выбирается по более сложному критерию, учитывающему соотношение числа ошибок на обучающей выборке, сложности правила и длины выборки.  [2]

Таким образом, система, оптимальная в смысле критерия минимума вероятности ошибки, оказывается частным случаем байесо-вой системы при простой функции потерь.  [3]

Во всех таких случаях оптимальной моделью распознавания образов двух классов считают такую модель, которая реализует минимум вероятности ошибки одного вида при данном значении вероятности ошибки другого вида. Условие минимума вероятности ошибки одного вида при заданной вероятности ошибки другого вида обычно называется критерием Неймана-Пирсона.  [4]

Из формулы (1.4.3) следует, что для заданных исходных величин N, V, т, г существует величина попт, которая обеспечивает минимум вероятности ошибки. При заданной вероятности ошибки Ра можно из формулы (1.4.4) найти необходимую величину мопт, а затем из формулы (1.4.3) длительность импульса т0, при которой получается необходимое значение погт.  [5]

Начало развитию теории оптимизации нелинейных систем положила работа В. А. Котельникова [73], в которой впервые была решена задача обнаружения сигнала, зависящего от конечного числа неизвестных параметров, на фоне белого шума по критерию минимума вероятности ошибки, а также задача оценки параметров сигнала, принимаемого на фоне белого шума.  [6]

Во всех таких случаях оптимальной моделью распознавания образов двух классов считают такую модель, которая реализует минимум вероятности ошибки одного вида при данном значении вероятности ошибки другого вида. Условие минимума вероятности ошибки одного вида при заданной вероятности ошибки другого вида обычно называется критерием Неймана-Пирсона.  [7]

Почему такое правило обеспечивает минимум вероятности ошибки при выборе гипотез.  [8]

Условием ( 20) критическое множество определяется неоднозначно. Выбирают ту из возможностей, которая обеспечивает минимум вероятности ошибки второго рода, или, что то же самое, максимум мощности критерия.  [9]

В [1,4] получены зависимости д ( z), характеризующие эффективность систем на оптимальных режимах работы. Оптимальными режимами работы называются такие режимы, которые обеспечивают минимум вероятности ошибки при условии, что величина z принимает заданное значение. На рис. 1 представлены зависимости q ( z), характеризующие эффективность сравниваемых систем на оптимальных режимах. На рис. 1 показаны кривые 3, 4 ( и 0 5, х - 0), свидетельствующие о больших возможностях повышения эффективности в системах со сравнением.  [10]

В § 8.3 дан эвристический вывод выражения для пропускной способности канала с фильтром и аддитивным стационарным гауссовым шумом. В § 8.4 и 8.5 это исследование продолжено со строгим анализом пропускной способности и верхних границ для минимума достижимой вероятности ошибки. Однако проведенный анализ не был полным; в нем не учитывалась интерференция между последовательными кодовыми словами. Последняя задача остается открытой для исследования.  [11]

Пропуск сигнала и ложная тревога являются ошибками при обнаружении. В соответствии с критерием так называемого идеального наблюдателя системой оптимальной фильтрации при обнаружении считается такая система обработки, с помощью которой обеспечивается минимум вероятности ошибок. При таком критерии в приемном устройстве должно осуществляться определение вероятностей наличия и отсутствия сигнала на входе приемника и сравнение между собой этих вероятностей. В соответствии с тем, какая из вероятностей больше, и принимается решение о наличии или отсутствии сигнала. Вероятность совершить ошибку при этом, естественно, оказывается наименьшей. Под входным напряжением приемника обычно понимается напряжение на нагрузке антенны. Здесь же под входным понимается напряжение на входе оптимального фильтра.  [12]

В задачах обнаружения сигналов имеет значение не величина ошибки, а сам факт ее наличия или отсутствия. Сигнал W считается обнаруженным, если величина его на выходе системы не меньше некоторого порогового значения С и наоборот. Тогда минимум вероятности ошибки системы ( обнаружение сигнала, когда его нет, и наоборот - фиксация его отсутствия при наличии сигнала) служит критерием оптимальности обнаружения сигнала.  [13]

Здесь логарифм отношения правдоподобия играет во многом ту же самую роль, как в гл. При декодировании по максимуму правдоподобия сообщение 1 декодируется, когда rlt 2 ( у) 0, а сообщение 2 - в противном случае. При декодировании по минимуму вероятности ошибки с априорными вероятностями qt и qz сообщение 1 декодируется, когда rlt 2 ( У) ln ( 9a / 9i) - Заметим, что при п N величины уп опускаются из рассмотрения, так как эти величины не зависят от посланного сообщения и не влияют на значение логарифма отношения правдоподобия. Даже если W бесконечно в (8.2.12), r1: 2 ( у) вполне определено, хотя предел условных плотностей вероятностей в (8.2.14) не существует.  [14]

Для простоты в теореме рассматриваются лишь дискретные каналы без памяти. Она, очевидно, остается справедливой всегда, когда С может быть выражена как максимум средней взаимной информации и вместе с тем интерпретирована с помощью теоремы кодирования. Весьма примечательно, что этот минимум вероятности ошибки может быть однозначно определен с помощью столь малого числа параметров.  [15]



Страницы:      1    2