Средняя неопределенность - Большая Энциклопедия Нефти и Газа, статья, страница 1
Земля в иллюминаторе! Земля в иллюминаторе! И как туда насыпалась она?!... Законы Мерфи (еще...)

Средняя неопределенность

Cтраница 1


1 Последовательное соединение каналов. [1]

Средняя неопределенность Н ( X Z) относительно входа канала при заданном выходе называется неопределенностью для канала и, таким образом, неравенства (2.3.20) дают согласующийся с интуицией результат, что эта неопределенность для канала никогда не может уменьшаться при движении от входа по последовательно соединенным каналам.  [2]

Она является мерой средней неопределенности принятого сигнала.  [3]

Соотношение ( 1) можно интерпретировать как формулу для вычисления средней неопределенности ( условной энтропии) последующей буквы /, когда известны предыдущие N-1 букв.  [4]

Заметим, что утверждение теоремы 2.27 можно переформулировать так: если средняя неопределенность относительно исхода испытания конечна, то скорость, с которой создается информация при повторениях g с помощью преобразования Т, совпадает с неопределенностью относительно исхода g при.  [5]

Нт ( х) - Щх / у); Щх) - средняя неопределенность передаваемого сообщения ( априорная); Н - ( х / у) - средняя неопределенность принимаемого сообщения ( апостериорная); Т - время передачи информации; tf ( x), ff ( x / y) - априорная и апостериорная энтропии, приходящиеся на единицу времени.  [6]

Ят ( х) - Щх / у); Щх) - средняя неопределенность передаваемого сообщения ( априорная); Нг ( х / у) - средняя неопределенность принимаемого сообщения ( апостериорная); Т - время передачи информации; ff ( x), ff ( x / y) - априорная и апостериорная энтропии, приходящиеся на единицу времени.  [7]

Это равенство показывает, что / ( X; Y) можно интерпретировать как среднюю неопределенность X, которая снимается после... Y; Н ( X Y) представляет собой среднюю оставшуюся неопределенность Х после наблюдения.  [8]

H ( XY) - средняя условная энтропия ансамбля сигналов х при известных принятых сигналах у, характеризующая остаточную среднюю неопределенность передаваемых сигналов, если известны принимаемые.  [9]

Напрашивается предположение о том, что информационное содержание последовательности находится в тесной связи с информационной энтропией источника сообщений, определяемой как средняя неопределенность, устраняемая на один символ. Так как информационная энтропия определяется свойствами источника, а с другой стороны информационное содержание возрастает с увеличением длины последовательности, однако эти меры не тождественны. Итак, мы отчетливо видим, что информационное содержание является мерой информации, отличной от информационной энтропии. В то время как информационная емкость книги объемом в 500 страниц, согласно приведенным выше расчетам, составляет около 5 106 битов, реальное информационное содержание такой книги, как правило, существенно меньше. Например, если наша книга состоит только из повторений высказывания Фауста В начале было дело, то ее информационное содержание, несомненно, не идет ни в какое сравнение с информационным содержанием научного труда того же объема.  [10]

Я ( S / ljj), это есть среднее количество информации, созданной источником за время от 0 до га-1, минус средняя неопределенность об источнике, оставшаяся после получения выходных сигналов канала за этот промежуток времени. Делением этой величины на п придем к средней скорости, с которой информация об источнике обрабатывается каналом за соответствующий промежуток времени.  [11]

Ят ( х) - Щх / у); Щх) - средняя неопределенность передаваемого сообщения ( априорная); Нг ( х / у) - средняя неопределенность принимаемого сообщения ( апостериорная); Т - время передачи информации; ff ( x), ff ( x / y) - априорная и апостериорная энтропии, приходящиеся на единицу времени.  [12]

Нт ( х) - Щх / у); Щх) - средняя неопределенность передаваемого сообщения ( априорная); Н - ( х / у) - средняя неопределенность принимаемого сообщения ( апостериорная); Т - время передачи информации; tf ( x), ff ( x / y) - априорная и апостериорная энтропии, приходящиеся на единицу времени.  [13]

Зависимости (6.3) и (6.4) выражают среднее на одно событие ( сообщение) количество информации и энтропии. Термин энтропия заимствован из термодинамики, где аналогичное выражение характеризует среднюю неопределенность состояния системы молекул вещества.  [14]

Зависимости (4.3) и (4.4) выражают среднее на одно событие ( сообщение) количество информации и энтропии. Термин энтропия заимствован из термодинамики, где аналогичное выражение характеризует среднюю неопределенность состояния системы молекул вещества.  [15]



Страницы:      1    2