Cтраница 3
Такой подход к определению количественной меры информации, когда в основу определения количества информации положены статистические ( вероятностные) характеристики событий имеет определенные достоинства и недостатки. [31]
Если вероятности всех возможных событий не равны, то пользуются энтропийной формой определения количества информации, учитывающей не только дискретность информации, но и вероятностный характер случайного появления событий. [32]
На основе этих двух требований можно показать, что ( 1) является единственным возможным определением количества информации. [33]
Введенное Фишером понятие доверительной вероятности для предположительных высказываний ( гипотез) и предложенное им одно из определений количества информации легли в основу общего теоретико-информационного подхода к проблемам математической статистики и в определенной мере подготовили почву для последующего развития термодинамического подхода к информационным процессам. [34]
В другой статье [ Проблемы передачи информации, 1, ( 1965), 3 - 11 ] Колмогоров рассмотрел задачу об определении количества информации последовательности, и эта работа привела Мар-тин - Лефа к интересному определению конечных случайных последовательностей через нерегулярность [ IEEE Trans. [35]
Не противоречит оно и концепциям количества ( асемантической, как иногда говорят) информации, очерченным во втором параграфе данной главы; так, алгоритмическое определение количества информации ( по А. Н. Колмогорову) содержит идею, что программа ( алгоритм), позволяющая построить некоторый объект, тем самым содержит информацию об этом объекте. [36]
Однако в своей практической деятельности человек часто сталкивается именно с этими свойствами информации, и поэтому в рамках математической теории информации стали разрабатываться другие, нестатистические подходы к определению количества информации. В настоящее время известен целый ряд так называемых теоретико-множественных подходов: алгоритмический, динамический, комбинаторный, топологический. Наряду с этим в последнее время развиваются математические исследования возможности измерения не только количественных, но и качественных свойств информации - ее смысла, ценности, полезности. Развиваются так называемые семантическая и прагматическая концепции информации. [37]
Если выбрана такая совокупность моментов времени t, что, располагая значениями и ( tn) и v ( tm), можно восстановить однозначно значения процессов и ( t) и и ( /), то для определения количества информации, содержащейся в процессе v ( t) относительно процесса и ( t), достаточно определить количество информации, содержащейся в последовательности значений v ( tm) относительно последовательности значений и ( tn), или, что то же самое, достаточно определить количество информации, содержащейся в векторе и относительно вектора v, причем координаты векторов образованы значениями параметров процессов в указанные моменты времени. [38]
Относительная энтропия не является самостоятельной эффективной величиной, пригодной для определения количества информации в последовательности случайных величин. Определение количества информации в последовательности рассмотрено в гл. [39]
Задача определения количества информации, содержащейся в измерениях диагностических параметров, является чрезвычайно важной. При диагностировании существенное значение имеют соотношения между параметрами, поскольку они определяют степень перекачки информации от косвенных параметров к параметрам технического состояния. [40]
Используется для определения количества информации в сообщении. Так, количество информации при равновероятности всех значений сообщения определяется по формуле Н k X X Iog2m, где Я - энтропия, k - число знаков в сообщении, m - число знаков в алфавите. [41]
Такая оценка параметров используется при определении количества информации в потоках. [42]
Она отмечает, что статистический подход к понятию информации оказывается связанным с определенными условиями, предполагающимися выполненными, когда происходит выявление информации, поступающей в биогеоценоз и перерабатываемой в нем. Так, для определения количества информации естественно постулируется дискретный ряд событий. В качестве носителей информации, поступающей на вход биогеоценоза, рассматриваются поток вещества и энергии, вливающийся в биогеоценоз и перерабатываемый в нем, а также стимулы, которые создаются при изменении условий среды биогеоценоза. Большинство этих явлений не имеет, так сказать, дискретной природы, и изменение их происходит скорее непрерывно; при информационной трактовке эти непрерывные изменения приводятся к дискретному виду. [43]
Единицей измерения емкости накопителя является бит ( двоичная единица), равная емкости накопителя с двумя состояниями. При этом было принято, что определение количества информации в накопителе связано с некоторыми психологическими факторами, которые, однако, не имеют отношения к инженерной стороне вопроса. [44]
В отличие от технических каналов связи, в случае передачи информации между людьми действительно передаваемая информация ( количество информации) зависит от общей совокупности сведений, которыми располагают приемник и передатчик относительно сообщений определенной категории. Передаваемая информация ( количество информации) в каждом данном случае зависит от алфавита знаков, интересующих получателя - элементов определенного рода ( образов, форм), заранее известных адресату-приемнику. Это означает, что задача однозначного информационного описания процесса восприятия ( например, определения количества информации, содержащейся в восприятии данного объекта) в общей постановке теряет смысл. Моль) - эта важная черта процесса восприятия вообще имеет непосредственное значение для экспериментальной психологии, стремящейся применить теоретико-информационный подход. [45]