Мера - неопределенность - Большая Энциклопедия Нефти и Газа, статья, страница 3
Если сложить темное прошлое со светлым будущим, получится серое настоящее. Законы Мерфи (еще...)

Мера - неопределенность

Cтраница 3


Таким образом, энтропия является мерой неопределенности источника и удобной оценкой количества информации.  [31]

В теории информации энтропия рассматривается как мера неопределенности случайной величины.  [32]

Выясним, при каком распределении вероятностей мера неопределенности полной системы событий, состоящей из п событий, максимальна.  [33]

Ограничиваясь только этим условием, за меру неопределенности можно было бы взять число состояний, предположив, что они равновероятны. Однако в этом случае при N 1, когда неопределенность отсутствует, такая мера давала бы значение, равное единице. Кроме того, она не отвечает требованию аддитивности, состоящему в следующем.  [34]

Точно так же малый вклад в меру неопределенности должно вносить событие, вероятность которого очень мала, так как с большой степенью уверенности можно предсказать, что это событие не случится.  [35]

В теоретическом отношении информация представляет собой меру неопределенности ( энтропию) того или иного объекта или события.  [36]

Таким образом, при фиксированном п наибольшую меру неопределенности имеет система событий, в которой вероятности всех событий одинаковы.  [37]

ЭНТРОПИЯ ( в теории информации) - мера неопределенности какого-либо опыта ( испытания), к-рый в зависимости от случая может заканчиваться различными исходами. При этом предполагают, что имеются определенные вероятности появления того или иного исхода.  [38]

Именно средйбгквадратическое отклонение чаще всего используется как абсолютная мера неопределенности, связанная с конкретной деятельностью. Иногда для упрощения расчетов используют в этом качестве размах вариации - разность между максимальным и минимальным значениями показателя эффективности.  [39]

Наши интуитивные представления подсказывают, что такая целесообразно выбранная мера неопределенности является функцией указанных вероятностей и должна удовлетворять, по крайней мере, следующим очевидным требованиям: изменяться непрерывно при монотонном изменении аргументов - указанных вероятностей; быть максимальной при равной вероятности всех возможных исходов в данной ситуации; обращаться в нуль, если один из исходов является полностью достоверным, а остальные невозможны; при независимых ситуациях неопределенность должна быть равна сумме неопределенностей отдельных ситуаций.  [40]

41 Информация в химических исследованиях. [41]

В статистическом подходе информация рассматривается только как мера неопределенности источника сообщений. При этом смысл ( семантика) информации не затрагивается. В семантическом подходе делается попытка учитывать ценность информации.  [42]

Статистическая теория оценивает информацию с точки зрения меры неопределенности, снимаемой при получении информации. В статистической теории основное внимание обращается на распределение вероятностей отдельных квантов информации и построение на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации в каком-то кванте.  [43]

Обратимся поэтому к другой характеристике случайной величины - мера неопределенности, введенной Хартли в 1929 г. Смысл этого понятия заключается в следующем. Пусть некоторая случайная величина я - имеет k равновероятных исходов.  [44]

Использование величины Я ( а) в качестве меры неопределенности опыта а оказывается очень удобным для весьма многих целей; раскрытию этого обстоятельства и посвящена, в основном, последующая часть книги. Следует, однако, иметь в виду, что мера Шеннона, как и мера Хартли, не может претендовать на полный учет всех факторов, определяющих неопределенность опыта в любом смысле, какой может встретиться в жизни.  [45]



Страницы:      1    2    3    4