Cтраница 1
Связь энтропии с другими термодинамическими параметрами можно установить, основываясь на свойствах полного дифференциала, поскольку энтропия как функция состояния является полным дифференциалом и обладает всеми его свойствами. [1]
Установленная выше связь энтропии с информацией подчеркивает статистический характер энтропии. Энтропия, как и всякая величина, определяемая статистически через вероятности, имеет относительный характер. [2]
Современная точка зрения на связь энтропии и информации базируется на широком развитии и приложении понятия энтропии к реальным техническим задачам. [3]
Это обусловлено отмеченной ранее связью энтропии с понятием числа квантовых состояний. [4]
Наиболее простое объяснение вытекает из признания связи энтропии с неупорядоченностью движения молекул. Действительно, энтропию можно трактовать как меру неупорядоченности системы. При такой трактовке возрастание энтропии характеризует увеличение неупорядоченности системы. Выравнивание температур тел при теплообмене напоминает, что превратить порядок в беспорядок просто, но нелегко обратить этот процесс. Легко нарушить порядок, при котором сахар и соль лежат порознь в банках, смешав их вместе, но практически весьма сложно вернуть их к прежнему порядку. Точно так же легко превратить электрическую энергию в тепло, но практически невозможно превратить это же тепло обратно в прежнее количество электроэнергии. [5]
В работах А. Ф. Капустинского [1260] и В. А. Киреева [1261] проанализирована связь энтропии с периодическим законом. [6]
В работах А. Ф. Капустинского [ 12601 и В. А. Киреева [ 12611 проанализирована связь энтропии с периодическим законом. [7]
Группа уравнений [ в ] имеет большое значение в определении свойств чистого вещества, поскольку они определяют связь энтропии с давлением, объемом и температурой. Эти уравнения называются соотношениями Максвелла. [8]
Мы также обсудим связь энтропии с теорией информации. [9]
Однако физический смысл энтропии стал понятен лишь после того, как Больцман показал связь энтропии и вероятности состояния. Наряду с энергией энтропия является важнейшей характеристикой состояния системы. [10]
Термодинамическая вероятность макросостояния представляет собой число микросостояний, которые реализуют данное макросостояние, и выражается очень большим числом. Термодинамическая и математическая вероятность связаны друг с другом. Впервые связь энтропии S с термодинамической вероятностью состояния W была высказана немецким физиком Больцманом. Вид аналитической зависимости S f ( W) может быть получен следующим образом. [11]
Особое значение имеет статистич. Число An этих существ, состояний поэтому естественно определить, ограничив суммирование в ф-ле ( 8) интервалом Ди, заменив Еп на ср. С др. стороны, согласно термодинамике, F Е - TS, что дает связь энтропии с числом микроскопич. [12]
В отличие от термодинамики, где энтропия представляется как один из термодинамических параметров, подобный внутренней энергии или термодинамическому потенциалу, однозначно определяющих объективное состояние системы, в статистической физике энтропия является статистической характеристикой состояния, зависящей от совокупности сведений о системе. Иначе говоря, статистическая энтропия системы зависит от информации о системе, имеющейся в нашем распоряжении. Рассмотрим эту связь энтропии и информации более детально. [13]
Следующий важнейший шаг как с точки прения построения кинетической теории газов, так и одновременно с точки зрения развития общей проблемы статистических закономерностей в физике был сделан Больцманом, который, исходя из конкретных представлений механики о взаимодействии молекул газа посредством парных столкновений, вывел свое основное интегро-дифференциальное уравнение для функции распределения частиц по скоростям. Это уравнение, называемое кинетическим уравнением Больцмана, представляет собой математическую формулировку статистического закона изменения во времени и пространстве распределения молекул газа но скоростям, обусловленное как внешними воздействиями сил и нолей па газ, так и взаимодействием молекул газа между собой благодаря их столкновениям. При этом был вскрыт статистический смысл понятия энтропии, установлена связь энтропии с вероятностью состояний ансамбля частиц газа. [14]
Такие же слова я слышал из уст выдающихся физиков в эпоху расцвета квантовой теории, когда казалось, что теоретическая основа физики дана в общих положениях квантовой механики. Диалектический материализм не допускает таких прогнозов. Пытаясь вывести спектр абсолютно черного излучения из общей формы связи энтропии с энергией, Планк пришел к формуле Вина и ошибочно заявил, что пределы справедливости ее совпадают с пределами справедливости второго начала термодинамики. [15]