Cтраница 1
![]() |
Зависимость Тпе. р - F ( H для трех испытуемых 1 - 7 0 43 0 248Я. 2 - Тпер0 38 - - 0 213Я ( средняя. 3 - Гпер0 227 0 257 / /. 4 - Тпер 0 205 W. [1] |
Количественная мера информации, полученная для слепого поиска и использующая структурные схемы, пригодна и для одновременного предъявления всей информации. [2]
Принята следующая количественная мера информации. [3]
Важность введения количественной меры информации Н состоит в том, что она определяет возможную экономию времени, затрачиваемого на передачу, экономию, достижимую при соответствующем выборе системы кодирования, учитывающей статистические свойства источника сообщений. Для иллюстрации рассмотрим язык, в котором имеются лишь четыре буквы: А, В, С и D; пусть эти буквы имеют вероятности / а. [4]
Очевидно, что описанная количественная мера информации совершенно не связана с ее ценностью для человека. [5]
С понятием информации связана количественная мера информации. Данные - это сырье для получения информации согласно определенным целям обработки. Термин информация означает устранение неопределенности путем преобразования данных. Противоположный по смыслу термин - энтропия, являющаяся мерой этой неопределенности. Информативность сообщений тем выше, чем более определенным становится для получателя информации состояние системы. Семантическая мера информации - содержательность основана на наличии тезауруса системы. Тезаурус содержит взаимоувязанные понятия, термины, определения, согласованные структуры данных логического уровня представления ( базы данных, формы документов, технико-экономические показатели. Тезаурус выражает знания о системе. Новая информация воспринимается через тезаурус, который может пополняться новыми элементами. При этом информативность сообщений зависит во многом от получателя, способного расширить свой тезаурус. [6]
Такой подход к определению количественной меры информации, когда в основу определения количества информации положены статистические ( вероятностные) характеристики событий имеет определенные достоинства и недостатки. [7]
В теории информации за количественную меру информации принята информационная энтропия Su, вычисляемая применительно к неравновероятностным событиям по формуле К. [8]
В теории информации за количественную меру информации принята информационная энтропия S, вычисляемая применительно к неравновероятностным событиям по формуле К. [9]
В теории информации за количественную меру информации принята информационная энтропия Su, вычисленная применительно к неравновероятностным событиям по формуле К. [10]
Теория информации дает и количественную меру информации. [11]
В теории информации за количественную меру информации принята информационная энтропия Sa, вычисляемая применительно к неравновероятностным событиям по формуле К. [12]
В кибернетике энтропия используется в качестве количественной меры информации, которую несет данный набор сигналов. Набор сигналов можно отождествить с физической системой, состоящей из дискретных подсистем, которые с некоторой вероятностью могут находиться в одном из нескольких структурных состояний. [13]
В кибернетике энтропия используется в качестве количественной меры информации, которую несет данный набор сигналов. Набор сигналов можно отождествить с физической системой; состоящей из дискретных подсистем, которые с некоторой вероятностью могут находиться в одном из нескольких структурных состояний. [14]
В кибернетике энтропия используется в качестве количественной меры информации, которую несет данный набор сигналов. [15]