Cтраница 1
Определение количества информации на синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния ( энтропии) системы. Действительно, получение информации связано с изменением степени неосведомленности получателя о состоянии системы. До получения информации получатель мог иметь некоторые предварительные ( априорные) сведения о системе а; мера неосведомленности о системе - Я ( а) - и является для него мерой неопределенности состояния системы. [1]
Определение количества информации, данное в гл. Существенно, что при таком преобразовании выполняется закон сохранения количества информации. Полезно провести аналогию с законом сохранения энергии. Этот закон является главным основанием для введения понятия энергии. [2]
Наше определение количества информации в прикладном отношении имеет то преимущество, что оно относится к индивидуальным объектам, а не к объектам, рассматриваемым в качестве включенных в множество объектов с заданным на нем распределением вероятностей. [3]
Для определения количества информации по формулам (5.4) и (5.5) требуется знание многомерных функций распределения, что делает их практически малопригодными для расчетов. В связи с этим удобно пользоваться формулой (5.8), которую следует рассматривать как оценку сверху количества информации. [4]
Для определения количества информации используется единица измерения - бит. [5]
Для определения количества информации нужно найти способ представить любую ее форму ( см. рис. 1.1) в едином виде. [6]
Такое определение количества информации отвечает задачам с некоторым числом п различных независимых выборов, каждый из которых сводится к двоичной альтернативе. [7]
При определении количества информации имеется возможность учесть влияние ненадежности статистики не путем указания доверительных уровней, а непосредственно уменьшением соответствующих величин информации. Единичный скалярный критерий - количество информации - позволяет принимать во внимание влияние различных факторов / в том числе и объема статистики /, не затрагивая самой структуры анализа. [8]
При определении количества информации, которую нужно сообщить пользователю в ответ на его вопрос как возникают некоторые трудности. Действительно ли пользователь хочет увидеть все дерево, и если это так, то в каком порядке он желает получать имеющиеся выводы. [9]
Отправляясь от определения количества информации, Колмогоров [7] дает определение к-знтропии случайного объекта. Суть дела состоит в следующем. [10]
Одно из наиболее известных определений внутреннего количества информации в сообщении принадлежит великому русскому математику XX в. Идея этого определения очень простая. Предположим, что нужно передать сообщение по телеграфу, и, безотносительно к содержанию телеграммы, оплачивается каждая переданная буква. [11]
![]() |
Функциональная схема операций измерения. [12] |
Очевидно, для определения количества информации, полученного при измерении, может использоваться несколько иной подход. [13]
Так, для определения количества информации, проходящей по каналу связи, нужно знать статистические свойства как шума, так и сообщения. Как можно оценить это количество, если сначала сама информация недоступна и ее можно получить только путем последовательных наблюдений и их обработки. [14]
![]() |
Функциональная схема операций измерения. [15] |