Cтраница 3
После приведенного выше определения единицы количества информации принципиально возможно определить количество информации, заключающееся в любом, сколь угодно сложном сигнале. Для этого нужно лишь представить сложную операцию выбора в виде совокупности ( или последовательности) / элементарных операций выбора; каждая из этих элементарных операций представляет собой выбор только между двумя одинаковыми возможностями. [31]
В теории информации за единицу количества информации принято число сведений, которое передается двумя равновероятными символами, или сообщениями. Эта единица называется двоичной единицей информации. [32]
Как известно из теории информации, единицей количества информации является двоичная единица бит. [33]
Бит ( бит) () - единица количества информации, равная количеству информации, получаемому при осуществлении одного из двух равновероятных событий. [34]
Бит - [ бит; bit ] - единица количества информации. [35]
Один разряд двоичного кода называется Оц и является единицей количества информации. [36]
Бит ( сокращение английских слов binary digit) - единица количества информации в двоичном исчислении. Один бит содержится в одном бинарном решении. [37]
Каждая посылка двоичного кода ( или пропуск посылки) несет единицу количества информации; пятизначная же группа содержит пять единиц информации. [38]
Яг-i на язык -, который показывает степень изменения ценности информации на единицу количества синтаксической информации. [39]
Выбор основания логарифмов, очевидно, определяет только выбор единицы; при сделанном нами выборе единица количества информации называется двоичной единицей количества информации. Предположим, что ( X, х) и ( У, у) - два конечных абстрактных пространства. Обозначим через X У конечное абстрактное пространство всевозможных пар ( х, у) и через р (, ) - распределение вероятностей на X У. [40]
Максимальное количество информации, которое можно передать с помощью одного двоичного элемента, - бит - является единицей количества информации. [41]
Представляет большой принципиальный и практический интерес вопрос, какова минимальная энергия, необходимая при опт оделенных условиях для передачи единицы количества информации, i ли какова максимальная скорость передачи информации при заданной средней мощности сигнала. Было показано, что пропускная способность и ряд други с информационных свойств таких каналов с аддитивным статистическим независимым шумом могут быть определены на основе их термодиг гшического описания. Электромагнитные ( фотонные) идеальные канн чы исследовались в работах [158, 161, 162], где была выяснена роль квантовой структуры электромагнитного поля и устранен парадон. [42]
Наиболее широко в настоящее время в теории связи и в прикладных задачах применяются критерии, в соответствии с которыми системы связи оцениваются величиной затрат на передачу единицы количества информации при заданном качестве ее приема. [43]
Зависимость информации от времени ее получения или от стоимости вводится через коэффициент К. Единицами количества информации в этом выражении являются не биты, а питы, так как используются натуральные логарифмы неопределенности. [44]
Единицей количества информации считают такое ее количество, которое - содержится в некотором стандартном сообщении. Моделью такого сообщения является элементарная система, имеющая вполне определенное число возможных состояний ( исходов), не менее двух, так как единственно возможное состояние не несет никакой информации. [45]