Cтраница 2
В экспериментальной психологии мера информации, содержащейся в предъявляемых испытуемым стимулах, позволяет отвлечься от качеств, разнообразия стимулов и ввести формальные модели процессов восприятия информации человеком и процессов памяти, допускающие применение матем. Это стало возможным после того, как Хиком было установлено, что время реакций выбора Tf и энтропия стимулов Н связаны между собой простой линейной зависимостью: ТуТа - - ЬН, где Т0 - время простой реакции, когда т - 1 и выбор отсутствует, а Ъ - величина, обратно пропорциональная макс, скорости переработки информации человеком в данных условиях эксперимента. [16]
Количество информации - мера информации, зависящая от выбранного принципа измерения. [17]
Теряется основное значение меры информации - возможность сравнивать различные источники информации, различные методы передачи. [18]
Лин дли Д. В. О мере информации даваемой экспериментом. [19]
В свою очередь мерой информации, содержащейся в сообщении, является изменение энтропии. [20]
Поэтому иногда для обозначения меры информации пользуются термином нег-энтропия, неопределенность или просто информация. [21]
В соответствии с нашей мерой информации числитель определяет здесь количество информации, содержащейся в п выборах, так что левая часть есть информация в единицу времени, или скорость связи. Она равна показателю затухания контура. Отсюда мы заключаем, что в данном частном случае возможная скорость связи определяется только показателем затухания контура и не зависит от числа символов, которыми мы располагаем при каждом выборе. Но, конечно, правильно, что чем это число больше, тем в большей мере система будет чувствительна к эффектам внешних помех. [22]
При передаче дискретной информации простейшей мерой информации может служить число кодовых комбинаций, отображающих передаваемые сообщения. Недостатком данной меры является нелинейная зависимость между числом кодовых комбинаций и числом элементов в коде. Обычно по каналу связи передается последовательность п символов, поэтому целесообразно иметь характеристику, линейно связанную с числом элементов в коде. [23]
![]() |
Зависимость относительного отклонения порядковых статистик от ранга. [24] |
Как известно, уменьшение энтропии является мерой информации, поступившей в систему. [25]
Рассмотрим теперь вопрос о том, какова мера квантовой информации в запутанном состоянии. [26]
Однако выражение (4.1) неудобно использовать в качестве меры информации, так как если есть два независимых источника информации и каждый дает NI и N2 сообщений, то общее число возможных сообщений от двух источников будет определяться произведением N NI 7V2, тогда как количества информации должны складываться. [27]
Очевидно, что естественным является требование аддитивности получаемой меры информации. [28]
Сигматические оценки не имеют прямого отношения к мерам информации. Поэтому остается рассмотреть семантические и прагматические оценки информации. [29]
Отсюда понятно утверждение Больцмана, что энтропия есть мера недостающей информации. [30]