Cтраница 2
Очевидно, для определения количества информации, полученного при измерении, может использоваться несколько иной подход. [16]
Экспериментальное подтверждение правильности определения количества информации было получено в результате дбсгаточно большого практического опыта. [17]
Кроме того, статистический метод определения количества информации практически не учитывает семантического и прагматического аспектов информации. [18]
И при других аксиоматических способах определения количества информации свойство аддитивности в той или иной ( может быть слабой и частной) форме приходится постулировать, чтобы выделить специальную логарифмическую меру. [19]
Расчет параметров информационной модели сводится к определению количества информации, передаваемой выходному параметру 7 от входного X и вычислению коэффициента информационной связи R, ( X - 7) по формулам 4.2 и 4.3, в которых энтропии параметров заменяются их оценками. [20]
Чтобы вывести характеристики этой функции, рассмотрим сначала определение количества информации. Мы пришли к этому определению, рассматривая последовательность п выборов, каждый из которых сделан из совокупности s выборов. Очевидно, что, если в некоторых селекциях мы имеем лишь s - j возможных выборов, мы передаем меньше информации, чем если бы s выборов имелись при каждой селекции. Об этом раньше ничего не говорилось, но следует иметь в виду, что величина s может не быть постоянной, а меняться со временем. [21]
NI, может быть произведена также на основе определения количества информации, которое получает система в процессе распознавания объектов в результате определения каждого из этих признаков. [22]
Структурные единицы информации используются в качестве меры при определении количества информации. [23]
![]() |
Амплитудно-модулированное колебание ( а. Выпрямленное колебание ( б. [24] |
Мы начнем этот параграф с того, что распространим определение количества информации ( данное в § 15.3 для сигналов, состоящих из дискретных символов) на сигналы, представляющие собой непрерывные функции времени. [25]
Квадратные скобки в этой формуле означают, что при определении количества информации нужно брать логарифмы целой части числа, полученного в скобках. Единица в квадратных скобках введена для учета исходного состояния: огонь выключен. [26]
Относительная энтропия не является самостоятельной эффективной величиной, пригодной для определения количества информации в последовательности случайных величин. Определение количества информации в последовательности рассмотрено в гл. [27]
В 1962 году А.Н. Колмогоровым был предложен чисто комбинаторный подход к определению количества информации, передаваемой речью. [28]
В работе Колмогорова [20] помимо комбинаторного и вероятностного подхода к определению количества информации рассматривается и алгоритмический подход, использующий аппарат теории, частично - рекурсивных функций, позволяющий описывать сложность значительно более широкой области явлений. [29]
Из вышеизложенного отнюдь не следует, однако, что рассмотренное выше определение количества информации является всесторонним и исчерпывающим н может служить орудием для решения любых задач, связанных с потоками информации. Разумеется, среднее значение случайной величины (5.11) не может характеризовать полностью распределение вероятностей, да и само распределение вероятностей еще не характеризует все свойства информации. Здесь можно лишь заметить, что в понятие количества информации не входит промежуток времени между посылкой и получением сигнала. Между тем в автоматических системах важна не просто передача, а своевременная, без запаздываний, передача информации. Ограниченность понятия энтропии ( в случае дискретных сигналов) состоит также в том, что она отнюдь не является, например, характеристикой неопределенности результата измерения. На рис. 5.11 показано распределение вероятностей для дискретных значений случайной величин ]: х, например результата измерения. Возможные значения х: - отложены в виде точек на оси абсцисс, а соответствующие им вероятности изображены дл. [30]