Cтраница 2
В [165] была сделана попытка цвести количественную меру квантовой информации. Эта величина обладает рядом свойств, резко отличающихся от количества информ щии по Шеннону. В частности, она может превосходить энтропию вход дого и выходного сигналов. [16]
![]() |
Схема, реализующая на выходе значение я2. [17] |
С энтропией в теории информации тесно связано понятие количественной меры информации. [18]
Фундаментальным вопросом для теории информации является вопрос о количественной мере информации. Сообщение, получаемое на приемной стороне, несет полезную информацию лишь в том случае, если имеется неопределенность относительно состояния источника сообщений. [19]
Фундаментальным вопросом для теории информации является вопрос о количественной мере информации. Сообщение, получаемое i приемной стороне, несет полезную информацию лишь в том ел чае, если имеется неопределенность относительно состояния источ ника сообщений. [20]
На основе физических ( а не физиологических) соображений установлена количественная мера информации. С точки зрения переходного режима обсуждается, насколько ограничена скорость передачи этой информации через систему помехами, происходящими из-за накопления энергии. Рассмотрена связь между стационарным и переходным режимами. Показано, что когда накопление энергии накладывает ограничение при стационарной передаче на предельную полосу частот, то количество информации, которое может быть передано, пропорционально произведению полосы частот на полезное время. Включены некоторые приложения этого принципа к системам, применяемым в практике. В случае передачи изображений и телевидения изменения интенсивности анализируются стационарными методами, аналогичными обычно используемым для анализа изменений во времени. [21]
Количество информации в неравновероятных дискретных сообщениях может быть получено с учетом аддитивности количественной меры информации. [22]
Говоря о пропускной способности системы передачи информации, мы молчаливо предполагаем какую-то количественную меру информации. В обычном понимании термин информация слишком эластичен; необходимо прежде всего установить для него специфический смысл, подразумеваемый в настоящем исследовании. С этой целью рассмотрим, с какими факторами мы имеем дело в связи, осуществляется ли она по проводу, путем устной речи, письма или каким-либо другим способом. В любой данной передаче отправитель мысленно выбирает тот или иной символ и путем какого-либо материального процесса ( bodily motion), например своим голосовым аппаратом, направляет на этот символ внимание получателя. В результате последовательных выборов вниманию получателя предлагается последовательность символов. [23]
Именно с этих позиций в приложениях теории информации к проблемам автоматики решается вопрос о количественной мере информации. Она определяется односторонне, только с точки зрения требований, предъявляемых источником сообщений к каналу связи или запоминающему устройству. Смысл и важность передаваемой информации совершенно игнорируются. [24]
Шеннона состоит в том, что его теория информации позволила ввести в науку и практику количественную меру информации и явилась созданием новой отрасли знания - теории информации. [25]
Понятия информации и связи в нашем мире являются слишком широкими и емкими, чтобы можно было ожидать какую-либо универсально применимую количественную меру информации. Однако, как это было объяснено в предыдущей главе, имеется множество ситуаций в связи ( в особенности таких, которые включают в себя передачу и обработку данных), для которых информация ( или данные) и канал адекватно представляются вероятностными моделями. Меры информации, которые будут определены в этой главе, соответствуют этим вероятностным ситуациям, и вопрос о том, насколько адекватны эти меры, зависит в общем от адекватности вероятностной модели. [26]
Так как точность информации зависит от того, какие другие последовательности символов могли быть выбраны, то можно надеяться найти количественную меру информации в общем числе таких последовательностей. Число символов, возможных в каждом отдельном выборе, меняется, очевидно, в широких пределах в зависимости от типа используемых символов, от корреспондентов и от степени предшествующего их взаимопонимания. Для двух лиц, говорящих на различных языках, число возможных символов пренебрежимо мало по сравнению с их числом для людей, говорящих на одном и том же языке. Желательно поэтому исключить привходящие психологические факторы и установить меру информации в терминах чисто физических величин. [27]
![]() |
Взаимосвязи. информация, сообщение, сигнал, данные. [28] |
Обзор взаимосвязей представлен в табл. 1.3. Для изображения структурного построения цифровых данных и расчета параметров систем по обработке и передаче информации необходима количественная мера информации. [29]
В последние годы в арсенал средств научной психологии входят данные из исследований количественных соотношений в психических процессах на основе разработанной в кибернетике количественной меры информации. [30]