Определение - количество - информация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Поддайся соблазну. А то он может не повториться. Законы Мерфи (еще...)

Определение - количество - информация

Cтраница 2


Очевидно, для определения количества информации, полученного при измерении, может использоваться несколько иной подход.  [16]

Экспериментальное подтверждение правильности определения количества информации было получено в результате дбсгаточно большого практического опыта.  [17]

Кроме того, статистический метод определения количества информации практически не учитывает семантического и прагматического аспектов информации.  [18]

И при других аксиоматических способах определения количества информации свойство аддитивности в той или иной ( может быть слабой и частной) форме приходится постулировать, чтобы выделить специальную логарифмическую меру.  [19]

Расчет параметров информационной модели сводится к определению количества информации, передаваемой выходному параметру 7 от входного X и вычислению коэффициента информационной связи R, ( X - 7) по формулам 4.2 и 4.3, в которых энтропии параметров заменяются их оценками.  [20]

Чтобы вывести характеристики этой функции, рассмотрим сначала определение количества информации. Мы пришли к этому определению, рассматривая последовательность п выборов, каждый из которых сделан из совокупности s выборов. Очевидно, что, если в некоторых селекциях мы имеем лишь s - j возможных выборов, мы передаем меньше информации, чем если бы s выборов имелись при каждой селекции. Об этом раньше ничего не говорилось, но следует иметь в виду, что величина s может не быть постоянной, а меняться со временем.  [21]

NI, может быть произведена также на основе определения количества информации, которое получает система в процессе распознавания объектов в результате определения каждого из этих признаков.  [22]

Структурные единицы информации используются в качестве меры при определении количества информации.  [23]

24 Амплитудно-модулированное колебание ( а. Выпрямленное колебание ( б. [24]

Мы начнем этот параграф с того, что распространим определение количества информации ( данное в § 15.3 для сигналов, состоящих из дискретных символов) на сигналы, представляющие собой непрерывные функции времени.  [25]

Квадратные скобки в этой формуле означают, что при определении количества информации нужно брать логарифмы целой части числа, полученного в скобках. Единица в квадратных скобках введена для учета исходного состояния: огонь выключен.  [26]

Относительная энтропия не является самостоятельной эффективной величиной, пригодной для определения количества информации в последовательности случайных величин. Определение количества информации в последовательности рассмотрено в гл.  [27]

В 1962 году А.Н. Колмогоровым был предложен чисто комбинаторный подход к определению количества информации, передаваемой речью.  [28]

В работе Колмогорова [20] помимо комбинаторного и вероятностного подхода к определению количества информации рассматривается и алгоритмический подход, использующий аппарат теории, частично - рекурсивных функций, позволяющий описывать сложность значительно более широкой области явлений.  [29]

Из вышеизложенного отнюдь не следует, однако, что рассмотренное выше определение количества информации является всесторонним и исчерпывающим н может служить орудием для решения любых задач, связанных с потоками информации. Разумеется, среднее значение случайной величины (5.11) не может характеризовать полностью распределение вероятностей, да и само распределение вероятностей еще не характеризует все свойства информации. Здесь можно лишь заметить, что в понятие количества информации не входит промежуток времени между посылкой и получением сигнала. Между тем в автоматических системах важна не просто передача, а своевременная, без запаздываний, передача информации. Ограниченность понятия энтропии ( в случае дискретных сигналов) состоит также в том, что она отнюдь не является, например, характеристикой неопределенности результата измерения. На рис. 5.11 показано распределение вероятностей для дискретных значений случайной величин ]: х, например результата измерения. Возможные значения х: - отложены в виде точек на оси абсцисс, а соответствующие им вероятности изображены дл.  [30]



Страницы:      1    2    3    4