Понятие - информация - Большая Энциклопедия Нефти и Газа, статья, страница 2
В истоке каждой ошибки, за которую вы ругаете компьютер, вы найдете, по меньшей мере, две человеческие ошибки, включая саму ругань. Законы Мерфи (еще...)

Понятие - информация

Cтраница 2


Понятие информации помогает осветить по-новому некоторые стороны теории следящих систем, так как следящие системы предназначены для передачи информации 2 при усилении мощности. Работу следящих систем трудно точно представить, пользуясь только абстрактными понятиями вследствие многочисленных конструктивных соображений; однако применение теории информации все же часто может быть очень плодотворным.  [16]

Понятие информации является одним из основных понятий науки. С понятием информации связано изучение любого явления, происходящего в природе, техническом объекте или в обществе.  [17]

Такое понятие информации хорошо объясняет ее природу и успешно используется для решения многих научных и прикладных задач. Понятие информации является, как видно, более широким, чем понятие сложности, упорядоченности или организации.  [18]

Через понятие информации и относящиеся к нему точные математические теории - прежде всего через восходящую главным образом к К. Шеннону статистическую теорию информации и ее аналоги, основанные на комбинаторном, топологическом или алгоритмическом определениях информации ( количества информации) - находят свое уточнение и конкретизацию философские представления о свойстве отражения.  [19]

Какое понятие информации используется документоведами и где оно закреплено.  [20]

Определяя понятие информации с наиболее общей точки зрения, прежде всего отмечают, что процесс получения информации есть не что иное, как процесс снятия неопределенности, в результате чего из некоторой совокупности возможных в данной конкретной ситуации явлений выделяется явление, фактически имевшее место. Важно отметить, что в понятии информации существенно не само происходящее явление, а лишь его отношение к совокупности явлений, которые могли произойти.  [21]

Сложность понятий информации и информатизации заключается в том, что помимо известных экспериментов, которыми мы можем объяснять и доказывать существование элементарных частиц, необходимо строить логические модели и мысленные эксперименты, помогающие упорядочивать, изучать и прогнозировать, если не всю гамму, то хотя бы часть сложных 10п - кратных соотношений, соотношений, отношений, полуотношений, четвертьотношений, 10 п долиотношений, а отсюда в аналогичной ( отношениям) последовательности и взаимодействий тех же элементарных частиц, создающих атомные кирпичики материи. Логическое моделирование и мысленные эксперименты пусть окончательно не обеспечивают решения информационной проблемы, но помогают понять роль пока не изученных многих элементарных частиц ( с массами покоя, равными или близкими к нулю) и уяснить, обладают ли они хоть какой-нибудь структурой и другими свойствами. Но это будет грубый ( не информационный) подсчет, если не будут учтены малые слагаемые - энергия ( как эквивалент массы) всех отношений и соотношений, энергия линейных, нелинейных, ковариантных и реляционных связей, взаимосвязей и взаимодействий элементарных и гипотетических частиц, полей и спин-спиновых взаимодействий. На этом уровне, очевидно, существует не только дефект массы ( или полное ее отсутствие), но и энергии, т.е. нарушается закон ее сохранения, - все это, очевидно, можно определить такой категорией как информационный континуум, который, вероятно является иной нематериальной формой проявления информации и убедительным доказательством информационной природы материи, обеспечивающей материальные формы пространства и времени, которые уже имеют информационно-атомную форму проявления в виде кодовых структур атомов и молекул. Материя, время и пространство Вселенной в целом имеют информационную природу, являющуюся авторегенерационным источником кодирования и декодирования атомов, как информационно-генетических кирпичиков мироздания, обеспечивающих сложные комбинации, группы, соединения и объединения в молекулы.  [22]

С понятием информации связаны такие понятия, как сигнал, сообщение и данные.  [23]

С понятием информации не связано никаких принципиальных трудностей, обусловленных мнимым нарушением принципов материалистического монизма. Это и не удивительно, если вспомнить, какую метаморфозу испытало в кибернетике общежитейское представление о сообщении: интуитивно усматриваемый смысл слова сообщение получил уточнение с помощью кибернетических, математических, логико-семиотических средств.  [24]

С понятием информации тесно связаны понятия вероятности и случайности. Получить информацию - это значит узнать то, что нам не было известно ранее, или узнать больше, чем было известно.  [25]

С понятием информации тесно связаны понятия вероятности и случайности.  [26]

С понятием информации связана количественная мера информации. Данные - это сырье для получения информации согласно определенным целям обработки. Термин информация означает устранение неопределенности путем преобразования данных. Противоположный по смыслу термин - энтропия, являющаяся мерой этой неопределенности. Информативность сообщений тем выше, чем более определенным становится для получателя информации состояние системы. Семантическая мера информации - содержательность основана на наличии тезауруса системы. Тезаурус содержит взаимоувязанные понятия, термины, определения, согласованные структуры данных логического уровня представления ( базы данных, формы документов, технико-экономические показатели. Тезаурус выражает знания о системе. Новая информация воспринимается через тезаурус, который может пополняться новыми элементами. При этом информативность сообщений зависит во многом от получателя, способного расширить свой тезаурус.  [27]

Но наше понятие информации / как раз и является статистическим понятием, характеризующим соотношения, имеющие место в среднем; поэтому для него всегда будет выполняться выписанная выше цепь неравенств. Ясно, что с точки зрения наглядных представлений о передаче информации это обстоятельство также можно считать очевидным.  [28]

И хотя понятие информации остается интуитивным, в некоторых статистических задачах можно указать величину I, которая естественно выступает в качестве информативности. Такая величина удовлетворяет аксиомам А и Б и описывает асимптотику средней точности выводов в задаче при росте числа наблюдений. Она может быть как числовой, так и матричной величиной.  [29]

В кибернетике понятие информации является весьма широким. Так, читая книгу, газету, слушая радио и т.о., мы получаем информацию. Сведения о внешней среде и ее изменениях, получаемые нашим мозгом, являются информацией. Нервные импульсы, передаваемые от мозга на определенные мышцы, с тем чтобы мышцы сократились или расслабились и данный орган произвел определенное движение, тоже представляют собой информацию. Исходные данные задачи, вводимые в вычислительную машину, равно как и промежуточные или окончательные результаты решения задачи, - также не что иное, как информация.  [30]



Страницы:      1    2    3    4