Энтропия
Энтропия впервые появилась в теории тепловых процессов, как величина, ведущая себя как полный дифференциал. Дело в том, что законы, описывающие тепловые процессы, связывают следующие величины: количество тепла Q. температуру Г, объем V и давление р
dQ = cpdV + dU.
Здесь dU - изменение внутренней энергии. Если это соотношение умножить на так называемый интегрирующий множитель 1/T , то мы
будем иметь величину энтропию dS = dQ/T, которая в обратимых процессах будет вести себя как полный дифференциал или потенциальная энергия в механике. Это значит, что она не будет зависеть от пути перехода рабочего тела из состояния 1 в состояния 2, а только от характеристик этих состояний 1 и 2. ее вообще можно считять характеристикой этих состояний.
∆ S1->2=S1-S2
Кроме очевидного удобства в расчетах с этой величиной, она позволяет отделить обратимые процессы от необратимых. В обратимых процессах энтропия не меняется. Однако загадочность этой величины остается до сих пор весьма трудным фактом. Тем более что из факта возрастания энтропии в замкнутых системах следует так называемая тепловая смерть Вселенной - все процессы в природе направлены
В сторону возрастания энтропии, и, значитвсе процессы, проходя-
щие в природе, неумолимо приближают нас к состоянию максимальной энтропии, состоянию в котором вес атомы имеют одинаковую скорость н Вселенная напоминает тепленький однородный кисель.
Одну из первых попыток понять природу энтропии предпринял Больцман. В его кинетической теории газов все тела двигались из наименее вероятного положения-состояния к более вероятному. Формула Больцмана
S = k l n W,
где S - энтропии, W - вероятность, а к - постоянная Больцмана. Появление в этой формуле логарифма понятно, гак как вероятности состояний умножаются, а энтропии складываются.
Что такое а этой формуле вероятность того или иного состояния, можно понять, опираясь на понятие ансамблей по Гиббсу. Статистический ансамбль в гнббеовой механике это совокупность упорядоченных состояний системы. Разделим весь объем газа на к ячеек и рассчитаем вероятность того, что в каждой ячейке находится n1,n2, …, nk молекул газа. Формула для этого у нас уже есть
Н
апомним. что это количество разбиений .V молекул на к ящичков по n1,n2, …, nk соответственно в каждом ящичке.
Вообще математическая теория энтропии опирается на понятие вероятностных разбиений пространств с вероятностной функцией Р
Здесь Л элементы разбиения вероятностного пространства. Постоянная г определяется пыбором единицы измерения Здесь мы встречаемся с так называемой информационной интерпретацией энтропии.
В теории информации информацией, или мерой неопределенности события, называют величину, удовлетворяющую следующим постулатам:
- событие с вероятностью единица имеет нулевую неопределенность;
чем меньше вероятность события, тем больше неопределенность;
- неопределенность одновременного наступления двух событии равна сумме иг неопределенностей.
Сразу же ясно, что информация должна выражаться логарифмом вероятности
I(А) = —cIn Р(А).
и здесь выбор единицы измерения информации производится таким образом: i бит информации содержит событие вероятности 5, или же в предыдущей формуле нужно использовать логарифмы по основанию 2.
Гак определенная информация тесно связана с задачей поиска какого-либо объекта путем составления наиболее эффективного вопросника. Н этой стратегии нужно составлять вопросы таким образом, чтобы ответ типа «да-нет» содержал разбиение всех возможных исходов на две, по возможности более равновероятные, части. В слу
а
в paзбиение
с
исходами
и вероятностями 1/2; 1/4; 1/4;