Cтраница 3
Таким образом, энтропия является мерой неопределенности источника и удобной оценкой количества информации. [31]
В теории информации энтропия рассматривается как мера неопределенности случайной величины. [32]
Выясним, при каком распределении вероятностей мера неопределенности полной системы событий, состоящей из п событий, максимальна. [33]
Ограничиваясь только этим условием, за меру неопределенности можно было бы взять число состояний, предположив, что они равновероятны. Однако в этом случае при N 1, когда неопределенность отсутствует, такая мера давала бы значение, равное единице. Кроме того, она не отвечает требованию аддитивности, состоящему в следующем. [34]
Точно так же малый вклад в меру неопределенности должно вносить событие, вероятность которого очень мала, так как с большой степенью уверенности можно предсказать, что это событие не случится. [35]
В теоретическом отношении информация представляет собой меру неопределенности ( энтропию) того или иного объекта или события. [36]
Таким образом, при фиксированном п наибольшую меру неопределенности имеет система событий, в которой вероятности всех событий одинаковы. [37]
ЭНТРОПИЯ ( в теории информации) - мера неопределенности какого-либо опыта ( испытания), к-рый в зависимости от случая может заканчиваться различными исходами. При этом предполагают, что имеются определенные вероятности появления того или иного исхода. [38]
Именно средйбгквадратическое отклонение чаще всего используется как абсолютная мера неопределенности, связанная с конкретной деятельностью. Иногда для упрощения расчетов используют в этом качестве размах вариации - разность между максимальным и минимальным значениями показателя эффективности. [39]
Наши интуитивные представления подсказывают, что такая целесообразно выбранная мера неопределенности является функцией указанных вероятностей и должна удовлетворять, по крайней мере, следующим очевидным требованиям: изменяться непрерывно при монотонном изменении аргументов - указанных вероятностей; быть максимальной при равной вероятности всех возможных исходов в данной ситуации; обращаться в нуль, если один из исходов является полностью достоверным, а остальные невозможны; при независимых ситуациях неопределенность должна быть равна сумме неопределенностей отдельных ситуаций. [40]
![]() |
Информация в химических исследованиях. [41] |
В статистическом подходе информация рассматривается только как мера неопределенности источника сообщений. При этом смысл ( семантика) информации не затрагивается. В семантическом подходе делается попытка учитывать ценность информации. [42]
Статистическая теория оценивает информацию с точки зрения меры неопределенности, снимаемой при получении информации. В статистической теории основное внимание обращается на распределение вероятностей отдельных квантов информации и построение на его основе некоторых обобщенных характеристик, позволяющих оценить количество информации в каком-то кванте. [43]
Обратимся поэтому к другой характеристике случайной величины - мера неопределенности, введенной Хартли в 1929 г. Смысл этого понятия заключается в следующем. Пусть некоторая случайная величина я - имеет k равновероятных исходов. [44]
Использование величины Я ( а) в качестве меры неопределенности опыта а оказывается очень удобным для весьма многих целей; раскрытию этого обстоятельства и посвящена, в основном, последующая часть книги. Следует, однако, иметь в виду, что мера Шеннона, как и мера Хартли, не может претендовать на полный учет всех факторов, определяющих неопределенность опыта в любом смысле, какой может встретиться в жизни. [45]