Cтраница 3
Смысловое определение понятия информации позволяет отказаться от неэффективно представления времени как функции необратимости [32] и показать его как средсп реализации сетевого графика развития Вселенной. Синхронизация различных процессе предназначенных для реализации обобщающего их процесса осуществляется изменением скорости за счет информации. [31]
Разные стороны понятия информации отображаются в целом спектре теорий. Эти теории, как правило, не противоречат, а дополняют друг друга, развивая разные количественные меры, связанные с той или иной стороной феномена информации. При этом всегда имеется в виду задача - если не полного, то частичного - синтеза этих теорий. [32]
Положение с понятием информации в этом смысле в точности подобно положению с понятием системы, о о котором мы говорили в гл. В этом и состоит относительность понятия системы. Аналогично этому разнообразие, структурность, организованность, выделяемые в процессе познания действительности и понимаемые ( и измеряемые) как потенциальная информация, относительны - относительны как в смысле изменчивости, подвижности, текучести граней любых областей реальности, так и о смысле ограниченности человеческого знания на каждом данном этапе человеческой истории. Эта сторона - субъективность в кавычках - определяется тем, что получаемая приемником информация всегда зависит от свойств самого приемника. [33]
Таким образом, понятие информации является одним из основных для многих направлений современной науки, а технологию накопления, переработки и передачи информации изучает информатика. [34]
Можно ли распространять понятие информации на абиотические компоненты, также иногда реагирующие на внешние воздействия с неадекватной приходящему импульсу силой ( например, триггерный эффект в геофизических процессах), остается неясным. [35]
Теория информации определяет понятие информации на основе теории вероятности как меру неопределенности наступления событий. Информацию составляет не какое-либо высказывание само по себе, а лишь устраняемая им неопределенность. [36]
![]() |
Последовательность и формы модельных построений на различных этапах системного исследования ( а-г - в тексте. [37] |
В качестве частнонаучного понятие информации восходит к широкому философскому понятию отражения. [38]
В этой главе понятие информации употребляется в самом широком смысле. С одной стороны, имеется изолированный факт. В простейшем случае это двоичная информация типа все-ничего, нуль-один, да-нет. Информация может существовать вне мозга человека, например, в компьютере или в головке голубой синицы. На самом деле, информация может заключаться просто даже в организованных структурах окружающего мира, например в молекуле ДНК. Однако этот аспект информации, раскрытый в другой нашей работе [ Стониер, 1984 ], не является содержанием настоящей главы. [39]
В свою очередь понятие информации основывается на наличии некоторой априорной неопределенности поступающих данных - заранее точно известные данные не несут никакой информации. В последнем случае необходимость в автоматическом управлении отпадает, так как точное априорное знание воздействий делает принципиально возможным воспроизведение результата управления в надлежащем месте системы. [40]
Для простейшего определения понятия информации рассматривают ряд равновероятных событий. Какова вероятность того, что она примет точно некоторое заданное значение. Нетрудно сообразить, что вероятность будет равна нулю, так как число возможных значений бесконечно велико. Если же мы потребуем, чтобы величина принимала значение, лежащее в известном интервале ошибки ( а, Ь), то вероятность будет уже конечной величиной, и, чем меньше этот интервал, тем меньше будет и вероятность. [41]
Для того чтобы пояснить понятие информации, рассмотрим следующий пример. Допустим, что в данное время объект имеет равные вероятности быть в исправном и неисправном состоянии. Если поступает сообщение от датчика температуры, что изменение температуры меньше 40 С, то объект с вероятностью 60 % находится в исправном состоянии; при поступлении сообщения от датчика давления, что давление больше 0 15 МПа, можно гарантировать ( с вероятностью единица. [42]
Для теории познания значение понятия информации состоит в раскрытии новых граней отражения, в кибернетической его спецификации, предполагающей уточнение ( экспликацию) отражения-в его развитых формах - на его синтаксическом, семантическом и прагматическом уровнях, экспликацию, предполагающую введение соответствующих количественных характеристик ( подробнее об этом см. в гл. [43]
Несмотря на то, что понятие информации часто относят только к передаче, приему и обработке каких-либо сигналов, при описании поведения во времени подобных сложных систем, как биосфера, определяющей становится их неравновесная и необратимая эволюция при взаимодействии с окружающим внешним миром. Под управлением здесь понимается способность открытой системы избирательно воспринимать внешние воздействия, что означает наличие в ней некоторых генетических навыков быть устойчивой по отношению к определенным помехам как отображение предшествующих этапов ее эволюционного развития. [44]
В соответствии с шенноновской теорией понятие информации определялось на вероятностной основе: информация - это лишь такие сведения, которые уменьшают или снимают существовавшую до их получения неопределенность полностью или частично. [45]