Cтраница 3
При этом значение Mt () является дисперсией апостериорного распределения. [31]
Если число сообщений невелико, говорить об узости апостериорного распределения по сравнению с априорным уже нельзя, однако и здесь в силе остается исходное соображение о том, что ценность априорных данных уменьшается при увеличении точности оценок. В оптимальном обнаружителе решение выносится по результату сравнения величины с порогом, равным Q / 2 - G0ln [ р / ( 1 - р) ], где р - вероятность наличия сигнала в наблюдаемой смеси. [32]
К задаче нелинейной филь-трации. [33] |
Если рассматриваемая задача решена в первом варианте - определено апостериорное распределение / ( A, t / X It0, t ]), то можно легко получить и оптимальную оценку при любом критерии Q. Например, для критерия Q М [ v7E ( t) ET ( f) х ], принятого при решении задачи Колмогорова - Винера в параграфе 4 гл. IV, найдено, что наилучшая оценка есть условное апостериорное математическое ожидание оцениваемого вектора ( см. стр. [34]
Это упражнение может быть истолковано как утверждение, что апостериорное распределение припишет истинному значению W малую вероятность лишь с малой же вероятностью. [35]
Как мы видели в предыдущих параграфах, интересующие нас апостериорные распределения параметров часто являются приближенно нормальными. [36]
Замечательным свойством байесовского подхода является возможность получения на основе апостериорного распределения не только точечных оценок параметров, но и доверительных интервалов для оцениваемых параметров. [37]
В остальной части этой главы мы изучим некоторые предельные-свойства апостериорных распределений, когда число наблюдений в повторной выборке стремится к бесконечности. [38]
Подходы к оценке неизвестного параметра, при которых не используется апостериорное распределение, называются в литературе непараметрическими [22, 41, 101] в отличие от подходов ( в частности, байесова), при которых оцениваемое сообщение является неизвестным параметром известного апостериорного распределения. [39]
Как уже отмечалось, это указывает на то, что апостериорное распределение, полученное на основе большого количества информации, не должно очень сильно зависеть от точной формы априорного распределения. [40]
Сама оценка при этом выражается через те или иные параметры апостериорного распределения, которое предполагается известным. Таким образом, результаты следующих параграфов применимы во всех случаях, когда апостериорное распределение может быть найдено. [41]
Оценку величины 100р0 можно получить, вычислив математическое ожидание л апостериорного распределения вероятностей. [42]
Ввиду этого из теоремы 2 следует, что коэффициент вариации апостериорного распределения W убывает определенным заранее известным образом, когда объем выборки возрастает. [43]
D после окончания наблюдений используется только байесовское решение, отвечающее апостериорному распределению параметра W. Поэтому далее при рассмотрении процедур последовательного решения мы не будем явно указывать решающее правило. [44]
Результат удается получить, только предположив, что с течением времени апостериорное распределение становится гауссовым и достаточно узким, так что нелинейные относительно параметра функции Ki, Ki, F могут быть линеаризованы. Так как при симметричной функции потерь и гауссовом априорном распределении оценка совпадает с апостериорным средним х ( t) хапост ( t), полученная система уравнений непосредственно определяет структуру системы оценки в виде нелинейного замкнутого устройства. Разумеется, такое приближенное решение не позволяет судить о том, насколько быстро наступает нормализация апостериорного распределения ( и наступает ли она вообще) и какой должна быть структура системы оценки на начальном периоде наблюдения. [45]