Информационная мера - Большая Энциклопедия Нефти и Газа, статья, страница 1
Дополнение: Магнум 44-го калибра бьет четыре туза. Законы Мерфи (еще...)

Информационная мера

Cтраница 1


Информационная мера Шеннона-Винера является универсальной статистикой. Так, в работе [137] доказана эквивалентность дисперсионного и информационного анализов и что мощность статистики Н не уступает мощности X2 -статистики.  [1]

Они связаны с введенными выше информационными мерами.  [2]

Еще более спорна возможность применения информационной меры учебного понятия. Последнее требует достаточно четкого определения, если мы хотим положить его в основу расчетов. Людвига [223], где оно является фундаментальным.  [3]

Естественным требованием, предъявляемым к информационной мере, должно быть требование аддитивности: количество информации, которое можно сохранить в двух однотипных ячейках, должно быть в 2 раза больше, а в п одинаковых ячейках в п раз больше, чем в одной ячейке.  [4]

Основание логарифмов в рассмотренных нами информационных мерах не является существенным и определяет лишь единицу измерения.  [5]

Таким образом, в случае непрерывного признака информационная мера равна логарифму отношения его плотностей вероятностей, вычисленных для данного конкретного значения этого признака.  [6]

И обратно, любому выражению такого вида соответствует информационная мера.  [7]

Для различных кодов можно легко оценить, используя информационную меру, так называемую информационную емкость. Информационная емкость кодов оценивается в двоичных единицах и показывает, какое максимальное количество информации в сообщениях может быть передано с помощью данного кода. Сопоставим по информационной емкости различные виды кодов при одинаковом среднем количестве качественных признаков. Пусть п - среднее число качественных признаков у всех кодов.  [8]

Если над параметром X продуктивного пласта выполнено достаточно большое число наблюдений ( ппред), информационная мера т погрешности среднего х может быть вычислена как функция Rn объема.  [9]

Естественно, что диагностический подход к оценке гидродинамической связи может быть основан и на других признаках: информационная мера идентичности, экспертные оценки, парные и множественные коэффициенты корреляции. Причем сопоставление коэффициентов корреляции с данными гидропрослушивания дали результаты аналогичные результатам применения корреляционного отношения.  [10]

Информационная мера в специальном контексте была использована Фишером ( Fisher ( 1925)), ср.  [11]

Другими словами, в этой книге принимается операционный или прагматический подход к понятию информации. Другой подход мог бы заключаться в установлении некоторых постулатов, вырабатываемых, на основе интуитивного представления об информации, которым должна удовлетворять информационная мера.  [12]

Одним из наиболее важных параметров канала является его пропускная способность. Пропускная способность будет определена в гл. Пропускная способность определяется с помощью информационной меры, подобной той, которая была использована при рассмотрении источников, и пропускная способность интерпретируется как максимальное среднее количество информации ( в битах в секунду), которое может быть передано по каналу. Оказывается, что пропускная способность недискретного канала может быть сколь угодно точно приближена пропускной способностью дискретного канала, который получается из исходного недискретного канала при соответствующем выборе модулятора дискретных данных и демодулятора дискретных данных.  [13]

Однако эта проблема уводит нас в область семантики, занимающейся изучением отношений между знаком и его значением, и мы не будем вдаваться в этот круг проблем более подробно. Анализ со стороны физики ограничивается элементарными, наивными аспектами проблем. Прежде всего для физика важно, если это возможно, рассматривать информационное содержание как измеримую величину, соответствующую некоторому действительному числу. Затем физика интересуют свойства такой информационной меры и ее связь с информационной энтропией источника. В духе физического мышления и ради сознательного упрощения проблемы в целом мы сосредоточим свои усилия на поиске величин, измеримых или вычислимых по результатам измерений ( например, последовательностей молекул), которые коррелированы с величиной, интуитивно воспринимаемой как информационное содержание. Начнем с вопроса о том, может ли мера информационного содержания быть независимой от способа кодирования и считывания информации. Довольно очевидно, что невозможно наряду с информационной емкостью найти вторую, не зависящую от нее, инвариантную относительно способа кодирования меру информации.  [14]

Тогда, помимо масштаба и размерности, необходимо вводить дополнительные параметры - анизотропию фрактальной размерности или обобщенную размерность, обобщенный масштаб. Для мулътифракталов характерна весьма сложная зависимость от параметра q и множественность фрактальных размерностей Dq. В [40,147] был развит мультифрактальный формализм, который используется в качестве меры различия исследуемых мер. Это позволят рассматривать мультифрактапьное описание объектов как результат исследования информационной меры и ввести новые количественные характеристики структуры: показатели степени однородности, периодичности структурных элементов, обусловленные наличием граничных слоев.  [15]



Страницы:      1    2