Cтраница 1
Мера количества информации в виде (6.3) впервые была предложена К. [1]
Кроме рассмотренной меры количества информации были предложены другие. [2]
Пользуясь мерой количества информации источника, можно легко найти разумную меру количества информации, переданной через канал, и информации, потерянной в канале. [3]
У, или мера количества информации об источнике, когда известно, что принимается У. [4]
Теория информации вводит меру количества информации. Допустим, что имеется Р0 различных равновероятных событий. Чем больше РО, тем больше неопределенность до получения сообщения о событии и тем больше количество информации ( далее называемое просто информацией) при получении сообщения. [5]
Различные подходы к оценке синтаксической меры количества информации предложены К. [6]
Какие основные требования предъявляются к мере количества информации. [7]
Для этих задач энтропия стала мерой количества информации, необходимой для определения системы в некотором положении г. Другими словами, она является мерой нашего незнания о системе. [8]
Какие: основные требования предъявляются к мере количества информации. [9]
Оказалось, что такая правильная по преимуществу мера количества информации существует и позволяет решить до конца широкий класс задач... Хотя это высказывание относилось к шенноновской теории передачи информации, оно едва ли не в большей степени применимо к колмогоровскому понятию энтропии динамической системы, появившемуся годом позже. В самом деле, в начале 30 - х годов в фундаментальных работах Купмана и фон Неймана были построены основы спектральной теории динамических систем и определены спектральные инварианты - объекты весьма тонкие, неустойчивые, сложно вычисляемые. После 25 лет успешного развития спектральной теории было трудно предположить, что появится грубый числовой инвариант, позволяющий столь радикально переустроить всю теорию. Именно таким инвариантом оказалась энтропия. [10]
Из уравнения ( 1 3) следует, что мера количества информации обладает свойством аддитивности, так как в скобках стоит сумма количеств информации отдельных событий. Другими словами, уравнение энтропии информации, включающее ряд возможных событий и известные их вероятности, указывает на исход совокупности событий. [11]
Пользуясь мерой количества информации источника, можно легко найти разумную меру количества информации, переданной через канал, и информации, потерянной в канале. [12]
Из уравнения ( I, 3) следует, что мера количества информации обладает свойством аддитивности, так как в скобках стоит сумма количеств информации отдельных событий. Другими словами, уравнение энтропии информации, включающее ряд возможных событий и известные их вероятности, указывает на исход совокупности событий. [13]
![]() |
Зависимость времени зрительного поиска от общего объема информации. [14] |
Средняя пропускная способность человека-оператора около 6 бит / с ( бит - мера количества информации), повышение скорости поступления информации приводит к его утомлению и перегрузкам, а слишком низкий темп - к снижению активности оператора вследствие длительного ожидания сигнала. [15]