Cтраница 2
Прежде всего можно выдвинуть те или иные естественные аксиоматические требования, которым мера количества информации должна удовлетворять. [16]
Имеется немало косвенных причин для того, чтобы трактовать величину (6.2.1) как меру количества информации ( например неотрицательность, аддитивность и пр. Об этом говорит рассматриваемая в дальнейшем теорема Шеннона ( см. гл. Без этого использование (6.2.1) в качестве меры информации носило бы более умозрительный, нежели практический характер. [17]
![]() |
Принцип построения модели. [18] |
Значение ршах, полученное в результате обучения модели, может использоваться в качестве меры количества информации, накопленной в модели. Совместно с числом запомненных ассоциаций Р она дает оценку качества проведенного процесса обучения. [19]
Перечисленные до сих пор свойства энтропии уже оправдывают выбор этой функции в качестве меры количества информации. [20]
Величина Д / [ N, р ( 04, 0) ] называется мерой количества информации, приобретенной в эксперименте. Так как она зависит не только от плана, но и от результатов опытов, то при планировании опираются на среднее от величины ( IX, 31) по возможным результатам измерений. [21]
Разумно предположить, что малые изменения частот градаций яркости приводят лишь к небольшим изменениям значения меры количества информации в изображениях. [22]
Количество неопределенности на одну букву сообщения, измеряемое энтропией Н, в то же время является мерой количества информации, содержащейся в одной букве сообщения. [23]
Для измерения степени неопределенности исхода какого-либо случайного события ( например, подбрасывания монеты) используют меру математически совпадающую с мерой количества информации. [24]
Величина Н обладает рядом интересных свойств, которые также подтверждают, что она является разумной количественной мерой возможности выбора или мерой количества информации. [25]
Поскольку судить об эффективности такой системы можно только в терминах количества информации, обрабатываемой системой, принципиальное значение для этой задачи имеет выбор меры количества информации, передаваемой по системе. В определении же количества информации основную роль играет использование понятия энтропии, основанное на приравнивании устраненной неопределенности к приращению количества информации. Поскольку энтропия является численной мерой неопределенности, эта интерпретация понятия количества информации ставит энтропию на центральное место. [26]
Одним из основных положений современной теории связи является известная теорема о том, что произведение длительности сигнала на ширину его частотного спектра служит мерой количества информации, которая может быть передана в этом сигнале. Обычно ширина спектра импульса обратно пропорциональна его длительности. Для увеличения объема информации искусственно расширяют спектр и переходят, следовательно, к более сложным формам сигналов. [27]
Функция f / S называется опорной функцией изображения, или опорным изображением, для S. Мера количества информации, содержащейся в изображении /, базируется на минимальном числе изменений уровня яркости пиксела, необходимом для преобразования исходного изображения в изображение с постоянной яркостью. [28]
После проведения, когда исход стал известен, неопределенность исчезла. За меру количества информации, содержащейся в знании исхода опыта А, принимают количество снятой неопределенности. Если в результате поступления информации неопределенность в исходе осталась, естественно считать, что количество поступившей информации равно разности априорной ( доопытной) и апостериорной ( пос-леопытной) неопределенности. [29]
После проведения, когда исход стал известен, неопределенность исчезла. За меру количества информации, содержащейся в знании исхода опыта А, принимают количество снятой неопределенности. Если в результате поступления информации неопределенность в исходе осталась, естественно считать, что количество поступившей информации равно разности априорной ( доопытной) и апостериорной ( пос-леопытной) неопределенности. [30]