Информация - связь - Большая Энциклопедия Нефти и Газа, статья, страница 1
Психиатры утверждают, что психическими заболеваниями страдает каждый четвертый человек. Проверьте трех своих друзей. Если они в порядке, значит - это вы. Законы Мерфи (еще...)

Информация - связь

Cтраница 1


Информация связи (6.4.5), (6.4.6) является случайной величиной. Для некоторых целей, например для исследования вероятности ошибки при передаче сообщений по каналу с помехами ( § 7.2, 7.3), важно знать не только ее среднее значение 1ху - М / ( х, у), но и другие статистические характеристики.  [1]

В дополнение к предыдущему вычислим тройную информацию связи (6.3.19) трех гауссовых случайных величин.  [2]

По аналогии с формулой (6.3.19) строится информация связи и для большего числа случайных величин.  [3]

Итак, мы видим, что информация связи заданных случайных величин не меньше информации связи части указанных величин. Между тем соотношение Нх г Нх не имеет своего аналога для информации. Неравенство Ixy z Ixy в общем случае не имеет места.  [4]

В частности, легко найти дисперсию случайной информации связи гауссовых переменных.  [5]

В настоящей главе рассматривается введенное Шенноном количество информации связи двух случайных величин или двух групп случайных величин. Оно определяется как разность априорной и апостериорной ( условной) энтропии.  [6]

Последнее равенство можно принять за исходное определение информации связи независимо от использования понятия энтропии, что в принципе весьма удобно.  [7]

Вычислим для гауссовых переменных характеристический потенциал (6.4.10) случайной информации связи.  [8]

Итак, мы видим, что все статистические свойства случайной информации связи гауссовых переменных определяются лишь одной единственной матрицей В US 1 IFR 1 или В.  [9]

Если вершины соответствуют одиночным атрибутам, возможны только не порождающие информацию связи. Если же вершинам соответствуют хотя бы двумерные таблицы, то это ограничение снимается. Возможности задания связей замкнутыми формулами весьма ограничены, поэтому информационно-порождающие типы связей имеют важное значение в моделировании данных.  [10]

Таким образом, энтропии HP / Q также позволяют вычислять информацию связи как разность энтропии наподобие (6.4.3), но с другим знаком.  [11]

Итак, мы видим, что информация связи заданных случайных величин не меньше информации связи части указанных величин. Между тем соотношение Нх г Нх не имеет своего аналога для информации. Неравенство Ixy z Ixy в общем случае не имеет места.  [12]

Этими выражениями, выведенными без использования марковских свойств, удобно пользоваться для вычисления информации связи одной части компонент марковского процесса с другой частью его компонент.  [13]

В данном случае при определении зоны ячеек, в которых могут размещаться локальные переменные программы, учитываются ячейки, занятые информацией связи.  [14]

Подобно тому как в случае энтропии свойство иерархической аддитивности справедливо не только для средних энтропии (1.3.4), но и для случайных энтропии (1.3.6), так и в случае информации связи соотношения, аналогичные (6.3.5) - (6.3.8), могут быть записаны для случайных информации.  [15]



Страницы:      1    2