Мера - количество - информация - Большая Энциклопедия Нефти и Газа, статья, страница 2
Сказки - это страшные истории, бережно подготавливающие детей к чтению газет и просмотру теленовостей. Законы Мерфи (еще...)

Мера - количество - информация

Cтраница 2


Прежде всего можно выдвинуть те или иные естественные аксиоматические требования, которым мера количества информации должна удовлетворять.  [16]

Имеется немало косвенных причин для того, чтобы трактовать величину (6.2.1) как меру количества информации ( например неотрицательность, аддитивность и пр. Об этом говорит рассматриваемая в дальнейшем теорема Шеннона ( см. гл. Без этого использование (6.2.1) в качестве меры информации носило бы более умозрительный, нежели практический характер.  [17]

18 Принцип построения модели. [18]

Значение ршах, полученное в результате обучения модели, может использоваться в качестве меры количества информации, накопленной в модели. Совместно с числом запомненных ассоциаций Р она дает оценку качества проведенного процесса обучения.  [19]

Перечисленные до сих пор свойства энтропии уже оправдывают выбор этой функции в качестве меры количества информации.  [20]

Величина Д / [ N, р ( 04, 0) ] называется мерой количества информации, приобретенной в эксперименте. Так как она зависит не только от плана, но и от результатов опытов, то при планировании опираются на среднее от величины ( IX, 31) по возможным результатам измерений.  [21]

Разумно предположить, что малые изменения частот градаций яркости приводят лишь к небольшим изменениям значения меры количества информации в изображениях.  [22]

Количество неопределенности на одну букву сообщения, измеряемое энтропией Н, в то же время является мерой количества информации, содержащейся в одной букве сообщения.  [23]

Для измерения степени неопределенности исхода какого-либо случайного события ( например, подбрасывания монеты) используют меру математически совпадающую с мерой количества информации.  [24]

Величина Н обладает рядом интересных свойств, которые также подтверждают, что она является разумной количественной мерой возможности выбора или мерой количества информации.  [25]

Поскольку судить об эффективности такой системы можно только в терминах количества информации, обрабатываемой системой, принципиальное значение для этой задачи имеет выбор меры количества информации, передаваемой по системе. В определении же количества информации основную роль играет использование понятия энтропии, основанное на приравнивании устраненной неопределенности к приращению количества информации. Поскольку энтропия является численной мерой неопределенности, эта интерпретация понятия количества информации ставит энтропию на центральное место.  [26]

Одним из основных положений современной теории связи является известная теорема о том, что произведение длительности сигнала на ширину его частотного спектра служит мерой количества информации, которая может быть передана в этом сигнале. Обычно ширина спектра импульса обратно пропорциональна его длительности. Для увеличения объема информации искусственно расширяют спектр и переходят, следовательно, к более сложным формам сигналов.  [27]

Функция f / S называется опорной функцией изображения, или опорным изображением, для S. Мера количества информации, содержащейся в изображении /, базируется на минимальном числе изменений уровня яркости пиксела, необходимом для преобразования исходного изображения в изображение с постоянной яркостью.  [28]

После проведения, когда исход стал известен, неопределенность исчезла. За меру количества информации, содержащейся в знании исхода опыта А, принимают количество снятой неопределенности. Если в результате поступления информации неопределенность в исходе осталась, естественно считать, что количество поступившей информации равно разности априорной ( доопытной) и апостериорной ( пос-леопытной) неопределенности.  [29]

После проведения, когда исход стал известен, неопределенность исчезла. За меру количества информации, содержащейся в знании исхода опыта А, принимают количество снятой неопределенности. Если в результате поступления информации неопределенность в исходе осталась, естественно считать, что количество поступившей информации равно разности априорной ( доопытной) и апостериорной ( пос-леопытной) неопределенности.  [30]



Страницы:      1    2    3    4