Понятия - энтропия - Большая Энциклопедия Нефти и Газа, статья, страница 2
Нет ничего быстрее скорости света. Чтобы доказать это себе, попробуй открыть дверцу холодильника быстрее, чем в нем зажжется свет. Законы Мерфи (еще...)

Понятия - энтропия

Cтраница 2


Мозера, Я. Г. Синая и др. Именно в рамках этого круга идей возникли понятия полного перемешивания, теория Колмогорова - Арнольда - Мозера ( КАМ) о наличии интегральных торов у гамильтоновых динамических систем, понятия энтропии динамической системы и символическое описание ее движений, топологической марковской цепи, открывающие пути к статистическому описанию детерминированных динамических систем.  [16]

Из вышеизложенного необходимо заключить, что принцип существования энтропии не предусматривает существования тепловой миграции и что тепловая миграция не вписывается в рамки этого принципа. Учитывая расчетно-методическую целесообразность идеи введения особых функций состояния в качестве средства более широкого выражения соотношений между переменными состояния и внешними воздействиями, ниже излагается попытка реализовать указанную идею применительно к рабочему телу переменной массы помимо понятия энтропии.  [17]

Клаузиус впервые четко сформулировал второй закон термодинамики: в 1850 г. - в виде положения о невозможности самопроизвольной передачи теплоты от более холодного тела к более теплому, а в 1865 г. - с помощью введенного им же понятия энтропии.  [18]

Клаузиус впервые четно сформулировал второй еакон термодинамики: в 1850 г. - в виде положения о невозможности самопроизвольной передачи теплоты от более холодного тела к более теплому, о, в 1865 г - с помощью введенного им же понятия энтропии.  [19]

Для них сформулированы основные гипотезы и указаны методы их проверки, описана логарифмически-линейная параметризация, приведены различные меры зависимости между строками и столбцами таблицы. Вводятся понятия энтропии случайной величины и информации, содержащейся в одной случайной величине относительно другой случайной величины, представляющие самостоятельный интерес.  [20]

Однако без понятия энтропии изложение становится гораздо менее ясным и доступным.  [21]

Для характеристики степени необратимости энергетических переходов при различных физических и химических процессах применяют особую величину, введенную Клаузиусом ( 1854) и называемую энтропией ( греч. Другими словами, энтропия - мера перехода энергии в том или ином процессе в такую форму, из которой она уже не может самопроизвольно переходить в другие формы. Следовательно, понятия энтропии и связанной энергии близки между собой.  [22]

Существует, однако, другой метод установления соотношения (2.13), более общий и непосредственно вытекающий из второго начала термодинамики ( точнее из второй формулировки этого начала), не вызывающий необходимости обращения к циклу Карно. Очевидно, что цикл Карно в сфере развития понятий и приложений второго начала термодинамики имеет всего лишь частное значение и поэтому не вполне логично обосновывать с его помощью существование энтропии. Более убедительным является анализ цикла Карно на основе введенного независимо от него понятия энтропии. Как это можно сделать, ясно из нижеследующего.  [23]

Во второй части статьи рассматривается проблема теоретической секретности. Насколько легко некоторая система поддается раскрытию при условии, что для анализа перехваченной криптограммы противник располагает неограниченным количеством времени и специалистов. Эта проблема тесно связана с вопросами связи при наличии шумов, и понятия энтропии и неопределенности, введенные в теории связи, находят прямое применение в этом разделе криптографии.  [24]

Вопрос о взаимопревращении теплоты и работы впервые был изучен в 1824 г. французским инженером С. Карно в произведении Размышления о движущей силе огня. Им получены основные результаты, которые в настоящее время известны в связи с циклом Карно. Понятия энтропии в то время не существовало, и Карно подходил к изучению вопроса с позиций теплорода. Тем не менее полученные им результаты являются правильными и сохраняют свое значение до сих пор.  [25]

Точные понятия энтропии и информации, появившиеся в конце 40 - х годов и утвердившиеся вначале в прикладных областяях, а именно в теории связи ( К. Быстрое, почти мгновенное проникновение этих понятий в различные разделы математики было обусловлено тем, что соответствующий математический аппарат для их анализа был уже подготовлен, и, главное, имелись задачи, словно ожидавшие понятия энтропии в той или иной форме и решенные вскоре с его помощью.  [26]

В первой дается понятие об информационных системах, основой функционирования которых являются процессы передачи и преобразования информации; раскрываются роль и место информационных систем в народном хозяйстве, роль отечественных ученых и инженеров в развитии информационных систем и теории информации; излагаются основные определения и понятия, касающиеся основ теории прохождения сигналов в целом и теории информации в частности. Во второй и третьей главах рассмотрен сигнал как носитель информации. Приводятся характеристики основных типов детерминированных и случайных сигналов, способы их математического описания и преобразования. В четвертой и пятой главах изложены основные положения теории квантования сигналов по времени и уровню, а также основы теории эффективного и помехоустойчивого кодирования. В шестой и седьмой главах изложены информационные модели сигналов и процессов передачи информации, даны понятия энтропии как меры неопределенности и количества информации, приведены способы количественной оценки энтропии и информации, способы оценки скорости передачи информации и пропускной способности информационного канала, способы согласования сигналов с каналом. В восьмой главе изложены основы оптимального приема и обработки информации, различные методы фильтрации и накопления, информации. Девятая глава посвящена основам оценки эффективности информационных систем и методам ее повышения. В десятой главе рассматриваются помехоустойчивость информационных систем и способы ее повышения. В одиннадцатой главе излагаются методы информационной оценки эффективности и качества работы автоматизированных систем контроля и управления, практического использования аппарата теории информации для решения отдельных задач контроля и управления. Основным математическим аппаратом, используемым в книге, является аппарат теории информации, теории вероятностей, а также теории случайных процессов.  [27]

Оказалось, что такая правильная по преимуществу мера количества информации существует и позволяет решить до конца широкий класс задач... Хотя это высказывание относилось к шенноновской теории передачи информации, оно едва ли не в большей степени применимо к колмогоровскому понятию энтропии динамической системы, появившемуся годом позже. В самом деле, в начале 30 - х годов в фундаментальных работах Купмана и фон Неймана были построены основы спектральной теории динамических систем и определены спектральные инварианты - объекты весьма тонкие, неустойчивые, сложно вычисляемые. После 25 лет успешного развития спектральной теории было трудно предположить, что появится грубый числовой инвариант, позволяющий столь радикально переустроить всю теорию. Именно таким инвариантом оказалась энтропия. Аровым - см. работу А. Н. Колмогорова [69]), однако для проведения ее в жизнь требовался развитый аппарат, который им не был известен и который фактически был использован Колмогоровым. Речь идет о теории измеримых разбиений, разработанной В. А.Рохлиным в 40 - х годах. Дело в том, что основным инструментом энтропийной теории является условная энтропия относительно некоторого разбиения, а также последовательности измеримых разбиений; на этом понятии в значительной степени основан технический аппарат и вычисления энтропии. Вообще, как неоднократно подчеркивалось, понятие условной энтропии, или количества информации в одном объекте о другом, важнее, чем понятия безусловной энтропии и информации. Поэтому использование аппарата условных мер здесь неизбежно.  [28]



Страницы:      1    2