Мера - информация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Каждый подумал в меру своей распущенности, но все подумали об одном и том же. Законы Мерфи (еще...)

Мера - информация

Cтраница 2


В экспериментальной психологии мера информации, содержащейся в предъявляемых испытуемым стимулах, позволяет отвлечься от качеств, разнообразия стимулов и ввести формальные модели процессов восприятия информации человеком и процессов памяти, допускающие применение матем. Это стало возможным после того, как Хиком было установлено, что время реакций выбора Tf и энтропия стимулов Н связаны между собой простой линейной зависимостью: ТуТа - - ЬН, где Т0 - время простой реакции, когда т - 1 и выбор отсутствует, а Ъ - величина, обратно пропорциональная макс, скорости переработки информации человеком в данных условиях эксперимента.  [16]

Количество информации - мера информации, зависящая от выбранного принципа измерения.  [17]

Теряется основное значение меры информации - возможность сравнивать различные источники информации, различные методы передачи.  [18]

Лин дли Д. В. О мере информации даваемой экспериментом.  [19]

В свою очередь мерой информации, содержащейся в сообщении, является изменение энтропии.  [20]

Поэтому иногда для обозначения меры информации пользуются термином нег-энтропия, неопределенность или просто информация.  [21]

В соответствии с нашей мерой информации числитель определяет здесь количество информации, содержащейся в п выборах, так что левая часть есть информация в единицу времени, или скорость связи. Она равна показателю затухания контура. Отсюда мы заключаем, что в данном частном случае возможная скорость связи определяется только показателем затухания контура и не зависит от числа символов, которыми мы располагаем при каждом выборе. Но, конечно, правильно, что чем это число больше, тем в большей мере система будет чувствительна к эффектам внешних помех.  [22]

При передаче дискретной информации простейшей мерой информации может служить число кодовых комбинаций, отображающих передаваемые сообщения. Недостатком данной меры является нелинейная зависимость между числом кодовых комбинаций и числом элементов в коде. Обычно по каналу связи передается последовательность п символов, поэтому целесообразно иметь характеристику, линейно связанную с числом элементов в коде.  [23]

24 Зависимость относительного отклонения порядковых статистик от ранга. [24]

Как известно, уменьшение энтропии является мерой информации, поступившей в систему.  [25]

Рассмотрим теперь вопрос о том, какова мера квантовой информации в запутанном состоянии.  [26]

Однако выражение (4.1) неудобно использовать в качестве меры информации, так как если есть два независимых источника информации и каждый дает NI и N2 сообщений, то общее число возможных сообщений от двух источников будет определяться произведением N NI 7V2, тогда как количества информации должны складываться.  [27]

Очевидно, что естественным является требование аддитивности получаемой меры информации.  [28]

Сигматические оценки не имеют прямого отношения к мерам информации. Поэтому остается рассмотреть семантические и прагматические оценки информации.  [29]

Отсюда понятно утверждение Больцмана, что энтропия есть мера недостающей информации.  [30]



Страницы:      1    2    3    4