Неорганическая
Органическая
Коллоидная
Биологическая
Биохимия
Токсикологическая
Экологическая
Химическая энциклопедия
Советская энциклопедия
Справочник по веществам
Гетероциклы
Теплотехника
Углеводы
Квантовая химия
Моделирование ХТС
Номенклатура
Таблица Менделеева
Неорганические реакции
Органические реакции
Молярные массы
Форматирование формул
Редактор формул
Уравнивание реакций
Электронное строение атомов
Игра «Таблица Менделеева»
Термодинамические свойства
Конвертер величин
Гальванопара
Форум
Лекарства
Фармацевтика
Термины биохимии
Коды загрязняющих веществ
Стандартизация
Каталог предприятий


Энтропия

Энтропия (от греч. entropía — поворот, превращение), понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Эти трактовки энтропии имеют глубокую внутреннюю связь. Например, на основе представлений об информационной энтропии можно вывести все важнейшие положения статистической физики.

  В термодинамике понятие «энтропия» было введено Р. Клаузиусом (1865), который показал, что процесс превращения теплоты в работу следует общей физической закономерности — второму началу термодинамики. Его можно сформулировать строго математически, если ввести особую функцию состояния — энтропию.

  Так, для термодинамической системы, совершающей квазистатически (бесконечно медленно) циклический процесс, в котором система последовательно получает малые количества теплоты dQ при соответствующих значениях абсолютной температуры Т, интеграл от «приведенного» количества теплоты dQ/ Т по всему циклу равен нулю

(, т. н. равенство Клаузиуса).

  Это равенство, эквивалентное второму началу термодинамики для равновесных процессов, Клаузиус получил, рассматривая произвольный циклический процесс как сумму очень большого, в пределе бесконечного, числа элементарных обратимых Карно циклов. Математически равенство Клаузиуса необходимо и достаточно для того, чтобы выражение

dS = dQ/T           (1)

представляло собой полный дифференциал функции состояния S, названное «энтропией» (дифференциальное определение энтропии). Разность энтропии системы в двух произвольных состояниях А и В (заданных, например, значениями температур и объемов) равна

  (2)

  (интегральное определение энтропии). Интегрирование здесь ведется вдоль пути любого квазистатического процесса, связывающего состояния А и В, при этом, согласно равенству Клаузиуса, приращение энтропии DS = SB — SA не зависит от пути интегрирования.

  Т. о., из второго начала термодинамики следует, что существует однозначная функция состояния S, которая при квазистатических адиабатных процессах (dQ = 0) остаётся постоянной. Процессы, в которых энтропия остаётся постоянной, называются изоэнтропийными. Примером может служить процесс, широко используемый для получения низких температур, — адиабатное размагничивание (см. Магнитное охлаждение). При изотермических процессах изменение энтропии равно отношению сообщенной системе теплоты к абсолютной температуре. Например, изменение энтропии при испарении жидкости равно отношению теплоты испарения к температуре испарения при условии равновесия жидкости с её насыщенным паром.

  Согласно первому началу термодинамики (закону сохранения энергии), dQ = dU+pdV, т. е. сообщаемое системе количество теплоты равно сумме приращения внутренней энергии dU и совершаемой системой работы pdV, где р — давление, V — объём системы. С учётом первого начала термодинамики дифференциальное определение энтропии принимает вид

,  (3)

  откуда следует, что при выборе в качестве независимых переменных внутренней энергии U и объёма V частные производные энтропии связаны с абсолютной температурой и давлением соотношениями:

 (4) и . (5)

  Эти выражения представляют собой уравнения состояния системы (первое — калорическое, второе — термическое). Уравнение (4) лежит в основе определения абсолютной температуры (см. также Температура, Температурные шкалы).

  Формула (2) определяет энтропию лишь с точностью до аддитивной постоянной (т. е. оставляет начало отсчёта энтропии произвольным). Абсолютное значение энтропии позволяет установить третье начало термодинамики, или Нернста теорему: при стремлении абсолютной температуры к нулю разность DS для любого вещества стремится к нулю независимо от внешних параметров. Поэтому: энтропию всех веществ при абсолютном нуле температуры можно принять равной нулю (эту формулировку теоремы Нернста предложил в 1911 М. Планк). Основываясь на ней, за начальную точку отсчёта энтропии принимают So = 0 при Т = 0.

  Важность понятия энтропии для анализа необратимых (неравновесных) процессов: также была показана впервые Клаузиусом. Для необратимых процессов интеграл от приведённой теплоты dQ / Т по замкнутому пути всегда отрицателен

  (,  т. н. неравенство Клаузиуса).

  Это неравенство — следствие теоремы Карно: кпд частично или полностью необратимого циклического процесса всегда меньше, чем кпд обратимого цикла. Из неравенства Клаузиуса вытекает, что

 (6)

  поэтому энтропия адиабатически изолированной системы при необратимых процессах может только возрастать.

  Т. о., энтропия определяет характер процессов в адиабатической системе: возможны только такие процессы, при которых энтропия либо остаётся неизменной (обратимые процессы), либо возрастает (необратимые процессы). При этом не обязательно, чтобы возрастала энтропия каждого из тел, участвующего в процессе. Увеличивается общая: сумма энтропий тел, в которых процесс вызвал изменения.

  Термодинамическому равновесию адиабатической системы соответствует состояние с максимумом энтропии. Энтропия может иметь не один, а несколько максимумов, при этом система будет иметь несколько состояний равновесия. Равновесие, которому соответствует наибольший максимум энтропии, называется абсолютно устойчивым (стабильным). Из условия максимальности энтропии адиабатические системы в состоянии равновесия вытекает важное следствие: температура всех частей системы в состоянии равновесия одинакова.

  Понятие «энтропия» применимо и к термодинамически неравновесным состояниям, если отклонения от термодинамического равновесия невелики и можно ввести представление о локальном термодинамическом равновесии в малых, но ещё макроскопических объёмах. Такие состояния можно охарактеризовать термодинамическими параметрами (температурой, давлением и т. д.), слабо зависящими от пространственных координат и времени, а энтропию термодинамически неравновесного состояния определить как энтропию равновесного состояния, характеризующегося теми же значениями параметров. В целом энтропия неравновесной системы равна сумме энтропий её частей, находящихся в локальном равновесии.

  Термодинамика неравновесных процессов позволяет более детально, чем классическая термодинамика, исследовать процесс возрастания энтропии и вычислить количество энтропии, образующейся в единице объёма в единицу времени вследствие отклонения системы от термодинамического равновесияпроизводство энтропии. Производство энтропии всегда положительно и математически выражается квадратичной формой от градиентов термодинамических параметров (температуры, гидродинамической скорости или концентраций компонентов смеси) с коэффициентами, называемыми кинетическими (см. Онсагера теорема).

  Статистическая физика связывает энтропию с вероятностью осуществления данного макроскопического состояния системы. Энтропия определяется через логарифм статистического веса W данного равновесного состояния

S= k ln W (E, N), (7)

  где k — Больцмана постоянная, W (E, N) — число квантовомеханических уровней в узком интервале энергии DЕ вблизи значения энергии Е системы из N частиц. Впервые связь энтропии с вероятностью состояния системы была установлена Л. Больцманом в 1872: возрастание энтропии системы обусловлено её переходом из менее вероятного состояния в более вероятное. Иными словами, эволюция замкнутой системы осуществляется в направлении наиболее вероятного распределения энергии по отдельным подсистемам.

  В отличие от термодинамики статистическая физика рассматривает особый класс процессов — флуктуации, при которых система переходит из более вероятного состояния в менее вероятное, и её энтропия уменьшается. Наличие флуктуаций показывает, что закон возрастания энтропии выполняется только в среднем для достаточно большого промежутка времени.

  Энтропия в статистической физике тесно связана с информационной энтропией, которая служит мерой неопределённости сообщений данного источника (сообщения описываются множеством величин х1, x2,..., xn, которые могут быть, например, словами какого-либо языка, и соответствующих вероятностей p1, p2,..., pn появления величин x1, x2,..., xn в сообщении). Для определённого (дискретного) статистического распределения вероятностей рк информационной энтропии называют величину

  при условии

 (8)

  Значение Ни равно нулю, если какое-либо из pk равно 1, а остальные — нулю, т. е. неопределённость в информации отсутствует. Энтропия принимает наибольшее значение, когда pk равны между собой и неопределённость в информации максимальна. Информационная энтропия, как и термодинамическая, обладает свойством аддитивности (энтропия нескольких сообщений равна сумме энтропий отдельных сообщений). К. Э. Шеннон показал, что энтропию источника информации определяет критическое значение скорости «помехоустойчивой» передачи информации по конкретному каналу связи (см. Шеннона теорема). Из вероятностной трактовки информационной энтропии могут быть выведены основные распределения статистической физики: каноническое Гиббса распределение, которое соответствует максимальному значению информационной энтропии при заданной средней энергии, и большое каноническое распределение Гиббса — при заданных средней энергии и числа частиц в системе.

  Понятие энтропии, как показал впервые Э. Шрёдингер (1944), существенно и для понимания явлений жизни. Живой организм с точки зрения протекающих в нём физико-химических процессов можно рассматривать как сложную открытую систему, находящуюся в неравновесном, но стационарном состоянии. Для организмов характерна сбалансированность процессов, ведущих к росту энтропии, и процессов обмена, уменьшающих её. Однако жизнь не сводится к простой совокупности физико-химических процессов, ей свойственны сложные процессы саморегулирования. Поэтому с помощью понятия энтропии нельзя охарактеризовать жизнедеятельность организмов в целом.

  Д. Н. Зубарев.

  Энтропия, характеризуя вероятность осуществления данного состояния системы, согласно (7) является мерой его неупорядоченности. Изменение энтропии DS обусловлено как изменением р, V и Т, так и процессами, протекающими при р, Т = const и связанными с превращением веществ, включая изменение их агрегатного состояния, растворение и химическое взаимодействие.

  Изотермическое сжатие вещества приводит к уменьшению, а изотермическое расширение и нагревание — к увеличению его энтропии, что соответствует уравнениям, вытекающим из первого и второго начал термодинамики (см. Термодинамика):

; (9)

; (10) . (11)

  Формулу (11) применяют для практического определения абсолютного значения энтропии при температуре Т, используя постулат Планка и значения теплоёмкости С, теплот и температур фазовых переходов в интервале от 0 до Т К.

  В соответствии с (1) энтропия измеряется в кал/(моль· К) (энтропийная единица — э. е.) и дж/(моль·К). При расчётах обычно применяют значения энтропии в стандартном состоянии, чаще всего при 298,15 К (25 °С), т. е. S0298;  таковы приводимые  ниже в статье значения энтропии.

  Энтропия увеличивается при переходе вещества в состояние с большей энергией. D S сублимации > DS парообразования >> DS плавления  >DS полиморфного превращения. Например, энтропия воды в кристаллическом состоянии равна 11,5, в жидком — 16,75, в газообразном — 45,11 э. е.

  Чем выше твёрдость вещества, тем меньше его энтропия; так, энтропия алмаза (0,57 э. е.) вдвое меньше энтропии графита (1,37 э. е.). Карбиды, бориды и другие очень твёрдые вещества характеризуются небольшой энтропией.

  Энтропия аморфного тела несколько больше энтропии кристаллического. Возрастание степени дисперсности системы также приводит к некоторому увеличению её энтропии.

  Энтропия возрастает по мере усложнения молекулы вещества; так, для газов N2О, N2O3 и N2O5 энтропия составляет соответственно 52,6; 73,4 и 85,0 э. е. При одной и той же молекулярной массе энтропия разветвленных углеводородов меньше энтропии неразветвлённых; энтропия циклоалкана (циклана) меньше энтропии соответствующего ему алкена.

  Энтропия простых веществ и соединений (например, хлоридов ACIn), а также её изменения при плавлении и парообразовании являются периодическими функциями порядкового номера соответствующего элемента. Периодичность изменения энтропии для сходных химических реакций типа 1/n Акрист + 1/2Сl2газ = 1/n ACln крист практически не проявляется. В совокупности веществ-аналогов, например АСl4газ (А — С, Si, Ge, Sn, Pb) энтропия изменяется закономерно. Сходство веществ (N2 и СО; CdCl2 и ZnCl2; Ag2Se и Ag2Te; ВаСОз и BaSiO3; PbWO4 и РЬМоО4) проявляется в близости их энтропий. Выявление закономерности изменения энтропии в рядах подобных веществ, обусловленного различиями в их строении и составе, позволило разработать методы приближённого расчёта энтропии.

  Знак изменения энтропии при химической реакции DS х. р. определяется знаком изменения объёма системы DV х. р.; однако возможны процессы (изомеризация, циклизация), в которых DS х. р. ¹ 0, хотя DV х. р. » 0. В соответствии с уравнением DG = DН — ТDS (G — гиббсова энергия, Н — энтальпия) знак и абсолютное значение DS х. р. важны для суждения о влиянии температуры на равновесие химическое. Возможны самопроизвольные экзотермические. процессы (DG < 0, DH < 0), протекающие с уменьшением энтропии (DS < 0). Такие процессы распространены, в частности, при растворении (например, комплексообразование), что свидетельствует о важности химических взаимодействий между участвующими в них веществами.

  М. X. Карапетьянц.

 

  Лит.: Клаузиус P., в кн.: Второе начало термодинамики, М.—Л., 1934, с. 71—158; Зоммерфельд А., Термодинамика и статистическая физика, пер. с нем., М., 1955; Майер Дж., Гепперт-Майер М., Статистическая механика, пер. с англ., М., 1952; Де Гроот С., Мазур П., Неравновесная термодинамика, пер. с англ., М., 1964; Зубарев Д. Н., Неравновесная статистическая термодинамика, М., 1971; Яглом А. М., Яглом И. М., Вероятность и информация, 3 изд., М., 1973; Бриллюен Л., Наука и теория информации, пер. с англ., М., 1959. См. также лит. при ст. Термодинамика, Термодинамика неравновесных процессов и Статистическая физика.



     © ХиМиК.ру




Реклама   Обратная связь   Дизайн