Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебники / НЕЛИНЕЙНАЯ ДИНАМИКА СЛОЖНЫХ.pdf
Скачиваний:
599
Добавлен:
30.03.2022
Размер:
28.89 Mб
Скачать

http://profbeckman.narod.ru/

Неравенство Гиббса используется для исследования свойств многих энтропийных величин.

Из рассмотренного до сих пор текста следует, что существуют три способа введения понятия энтропия. В термодинамике – это функция состояния (Клаузиус) и мера беспорядка (Больцман). В теории информации – мера достоверности передаваемой по каналу связи информации (Шеннон). Сходство S и Н в том, что стремление к равновероятности (однородности) состояний системы увеличивает обе энтропии. Но в энтропии Больцмана нет верхнего предела S: чем больше W, тем выше S. У Шеннона

Hmax=1.

Между энтропиями Больцмана, Клаузиуса и Шеннона существуют следующие различия:

1.Энтропия Больцмана является мерой беспорядка, хаотичности, однородности молекулярных систем.

2.Энтропия Клаузиуса пропорциональна количеству связанной энергии, находящейся в системе, которую нельзя превратить в работу.

3.Энтропия Шеннона количественно характеризует достоверность передаваемого сигнала и используется для расчёта количества информации.

Энтропия Больцмана–Гиббса–Шеннона, наряду с её традиционной ролью в статистической теории и теории информации, служит также мерой относительной степени упорядоченности в процессах самоорганизации. Важно, что энтропия – мера разнообразия, необходимого для естественного отбора в процессах биологической эволюции.

Теория информации основана на вероятностных, статистических закономерностях явлений. Она дает полезный, но не универсальный аппарат. Поэтому множество ситуаций не укладываются в информационную модель Шеннона. Не всегда удаётся заранее установить перечень всех состояний системы и вычислить их вероятности. Кроме того, в теории информации рассматривается только формальная сторона сообщения, а смысл его остается в стороне. Понятия «вероятность», «неопределенность», с которыми связано понятие информации, предполагают процесс выбора. Этот процесс может быть осуществлен только при наличии множества возможностей. Без этого условия передача информации невозможна.

Замечание. Классическая теория информации позволяет решать важные практические задачи (например, в теории связи при кодировании речи или изображений). Однако её аппарат не универсальный, и множество ситуаций не укладывается в шенноновскую модель. Не всегда можно заранее (до сообщения) установить перечень возможных состояний системы и вычислить их вероятности. Основным недостатком теории информации является то, что она, занимаясь только формальной ("знаковой" или "буквенной") стороной сообщений, оставляет в стороне их ценность, вообще содержание.

Большое значение имеет знак изменения энтропии со временем. Если dH/dt>0, то система релаксирует, то есть стремится к своему наиболее вероятному состоянию с максимумом энтропии. В случае временного ряда это стремление к белому шуму. Если же dH/dt<0, то система находится на фазе самоорганизации, в ней возникает и развивается некая упорядоченность. В случае временного ряда это стремление к f(t)=const.Если же dH/dt~0, то система находится в фазе стагнации или/и, возможно, бифуркации. Иными словами, определив знак и величину изменения энтропии, мы можем судить о темпах, фазе и направлении эволюции системы в текущий момент.

7.3 Отрицательная энтропия, антиэнтропия, экстропия

Поскольку энтропия в каком-то смысле отражает беспорядок в системе, то имеет смысл что-то ей противопоставить в плане оценки порядка в той же системе. Таких попыток было много, но, как ни странно, до сих пор ни одну из них нельзя считать удачной.

http://profbeckman.narod.ru/

Важным направлением противостояния было введение понятий отрицательной энтропии (негэнтропии или экстропилии).

Негэнтропия – термин, образованный добавлением отрицательной приставки нег- к понятию энтропия, и обозначающий его противоположность. Она означает меру упорядоченности и организованности системы или качество имеющейся в системе энергии. Используется для обозначения величины, математически противоположной к величине энтропии. Используется в философии, в науках об обществе, в общественных науках, в физике и химии не применяется. Непрерывно предпринимаются попытки заменить этот термин на синэтропию, анитиэнтропию и т.п.

Впервые понятие «отрицательной энтропии» предложил в 1943 австрийский физик Э.Шредингер в популярной книге «Что такое жизнь?». В ней он пытался продолжить идеи своего коллеги Нильса Бора о глубокой связи физических и философских законов, согласно которым сформулированный Бором принцип дополнительности мог объединить общечеловеческие знания до простого понимания единства мира. Под отрицательной энтропией Шредингер понимал "свободную энергию", описание которой впрочем, он так и не дал. Его занимал вопрос, как живая система экспортирует энтропию, чтобы поддержать свою собственную энтропию на низком уровне: живая система импортирует негэнтропию для самосохранения.

Шредингер категорически возражал против примитивного трактования метаболизма как основы жизни.

"Представляется нелепостью, чтобы главным был именно обмен веществ. Любой атом азота, кислорода, серы и т. п. так же хорош, как любой другой атом того же элемента. Что же достигается их обменом? Одно время наше любопытство удовлетворялось утверждением, что мы питаемся энергией. В ресторанах некоторых стран вы могли бы найти карточки-меню, указывающие цену каждого блюда и содержание в нем энергии (калорий). Нечего и говорить, что это нелепость, ибо во взрослом организме содержание энергии так же постоянно, как и содержание материи. Каждая калория, конечно, имеет ту же ценность, что и любая другая, поэтому нельзя понять, чему может помочь простой обмен калорий. Каждый процесс, явление, событие, все, что происходит в Природе, означает увеличение энтропии в той части Вселенной, где это имеет место. Так и живой организм непрерывно увеличивает свою энтропию, или, иначе, производит положительную энтропию и, таким образом, приближается к опасному состоянию максимальной энтропии, представляющему собой смерть. Он может избежать этого состояния, то есть оставаться живым, только постоянно извлекая из окружающей его среды отрицательную энтропию, которая представляет собой нечто весьма положительное, как мы сейчас увидим. Отрицательная энтропия это то, чем организм питается. Или, чтобы выразить это менее парадоксально, существенно в метаболизме то, что организму удается освобождаться от всей той энтропии, которую он вынужден производить, пока он жив".

Разъясняя механизм задержки перехода живого организма к термодинамическому равновесию (т. е. к смерти), неуклюжее выражение "отрицательная энтропия" Шредингер заменяет выражением "энтропия, взятая с отрицательным знаком, которая "есть сама по себе мера упорядоченности". Человеческий организм может противостоять смерти, лишь поддерживая себя на достаточно высоком уровне упорядоченности. Для этого ему нужно извлекать упорядоченность из окружающей среды, дабы компенсировать энтропийные процессы, идущие в клетках. Вот почему живой организм не может питаться химическими веществами в первозданном виде, то есть – находящимися на низкой стадии упорядоченности. Нам для питания необходимо крайне хорошо упорядоченное состояние материи в более или менее сложных органических соединениях.

Замечание. Здесь уместно вспомнить сформулированный Бауэром ещё в 1935 «Всеобщий закон биологии»: Живыми называются такие системы, которые способны самостоятельно поддерживать и увеличивать свою очень высокую степень упорядоченности в среде с меньшей степенью упорядоченности. Такие процессы являются процессами с отрицательной энтропией (негэнтропийными процессами).

http://profbeckman.narod.ru/

Трудно сказать, что дала отрицательная энтропия биологии, остальные науки она никак не заинтересовала.

Н. Винер предложил: Y=-Э, где Э – энтропия, т.е. количество информации в системе есть мера упорядоченности, или организованности, системы, так же как энтропия системы есть мера дезорганизованности, или неупорядоченности, системы, и одно равно другому с отрицательным знаком. Однако это выражение невозможно, так как по определению обе величины и Y>0 и Э>0. О путанице со знаком писал ещё У.Р. Эшби ("Введение в кибернетику").

В 1956 американский физик Л. Бриллюэн в работе «Научная неопределенность и информация» сократил термин «отрицательная энтропия» до слова негэнтропия и ввёл его в таком виде при помощи негэнтропийного принципа информации в теорию информации: «информация представляет собой отрицательный вклад в энтропию». Он, рассматривая деградацию качества энергии в замкнутой системе как следствие возрастания в ней энтропии, для краткости отрицательную энтропию стал называть негэнтропией, говоря, что «эта негэнтропия представляет собой, в конечном счете, качество энергии». Л.Бриллюэн обосновал, что процесс получения информации в физических опытах сопровождается уменьшением негэнтропии и сделал вывод, что «негэнтропия эквивалентна информации».

Бриллюэн считал, что информацию следует рассматривать как отрицательное слагаемое энтропии системы; информация есть негэнтропия, поэтому информация и энтропия должны рассматриваться совместно и не могут рассматриваться порознь, т.е. Y+ Н = const, причём некоторые считают, const=1.

Замечание. Подобный подход вызвал многочисленные возражения, т.к. тут имеет место искажение второго начала термодинамики. Информация – процесс, поэтому его количественную меру (Y) нужно сравнивать не с функцией состояния, например с энтропией (Н), а лишь с ее приращением (∆Н) или убылью (-∆Н), подобно тому, как количество переданного тепла связано не с его внутренней энергией, а лишь с изменением (приращением) внутренней энергии. Между появлением информации ( Y) и убылью энтропии (-∆Н) имеется соответствие, но отнюдь не количественная связь. Очевидно, что одна и та же по количеству информация может отвечать разным изменениям энтропии. К примеру, замена в светофоре красного сигнала на зеленый, чему соответствует получение водителями одного бита информации, меняет поток транспорта на магистрали. При этом изменение энтропии может быть совершенно различным в зависимости от числа машин в потоке. При этом по сравнению с количеством полученной информации последствия получения информации несоизмеримо велики. Такая ситуация часто реализуется в биологических системах. Информации некорректно приписывать энтропийный или негэнтропийный смысл.

Судя по всему, закона сохранения суммы энтропии и информации не существует. Тем более нельзя использовать формулу Y+Н=1, представленную во многих учебниках по информатике.

Энтропия есть мера недостатка информации о системе. Бриллюэн различал свободную (случайную) информацию и связанную информацию, и считал, что "только связанная информация" будет представлять негэнтропию, т.е. он не приписывал любой информации свойства негэнтропии, относя это свойство лишь к связанной информации.

Как уже упоминалось при рассмотрении энтропии Больцмана, каждому одному макросостоянию системы соответствует огромное число W микросостояний, определение которых означает, что в любой данный момент времени и в конкретных условиях известны координаты и импульсы всех микроэлементов, входящих в систему. Бриллюэн, вводя понятия о негэнтропии, полагал:

1.Все W микросостояний, соответствующие одному макросостоянию, имеют одинаковую априорную вероятность.

2.Знать хотя бы одно микросостояние системы – это значит знать о системе всё.

http://profbeckman.narod.ru/

3. Рассматриваются только микросостояния реальных физических систем, то есть термин энтропия имеет обычный физический смысл.

Пусть имеется W0 различных возможных исходов для событий с одинаковыми априорными вероятностями р0. Для уменьшения числа возможных случае до W1 (увеличения вероятностей до р1) требуется информация Y1. Бриллюэн получил (например, для газа), определение количества информации в виде:

Y kln

W0

k ln

p1

k ln p ln p

k ln p p

S S

 

 

 

 

 

W1

 

p0

1

0

0

1

0

1

 

 

 

 

 

 

 

 

,

(44)

Информация в физической системе равна изменению её энтропии:

 

S1=S0-Y.

 

 

 

 

 

 

 

 

(45)

Здесь в отличие от теории информации Шеннона введён размерный множитель k в виде постоянной Больцмана. Этим множителем информация по Хартли для физических задач отличается от информации в классической теории информации. Если все микросостояния равновероятны, то при W1=W0 количество информации в физической системе равно нулю. Система у Бриллюэна открытая. Логарифмическая мера уменьшения за счёт взаимодействия с окружением числа микростояний W1<W0 есть информация, полученная системой извне. Смысл негэнтропийного принципа деградации Л. Бриллюэна

– получение некоторой информации о системе требует не меньшего увеличения энтропии системы. Но, похоже, что детерминизм природы исключает возможность приписать максимуму энтропии нулевую информацию, как это делает Бриллюэн. Согласно негэнтропийному принципу информации, её получение можно представить в виде формулы: Связанная информация=убыванию энтропии S=увеличение негэнтропии N.

Здесь негэнтропия определена как отрицательная энтропия. Это положение составляет негэнтропийный принцип информации. Энтропия убывает с получением информации, уменьшающей число микросостояний и эта информация должна доставляться внешним агентом, энтропия которого будет возрастать.

Замечание. Бриллюэн не выражал информацию через отрицательные величины, через отрицательную величину он выражал только негэнтропию (негэнтропия – отрицательная энтропия, где энтропия – мера недостатка информации).

Для характеристики степени порядка материальных объектов часто используют энтропию как неупорядоченность и негэнтропию, т.е. связанную информацию как упорядоченность. В наше время негэнтропия употребляется в двух значениях: как количество информации, равное разности между начальной (до получения сообщения) и конечной (после получения сообщения) энтропий, и как величина, противоположная энтропии, выражающая упорядоченность материальных объектов. Вводится термин негэнтропия отражения, под которым понимается информация о «чём-либо», отраженная через «что-либо».

Негоэнтропия не прижилась ни в физике, ни в химии, но она пригодилась в науках о жизни. Она противоположна энтропии и имеет отношение к живым системам – к тому, что более упорядочено и более определённо в сравнении с системами косной материи. Жизнь, как полагают, является негэнтропичной, потому что потребляет то, что имеет меньшую упорядоченность (мёртвая пища) и превращает это в то, что имеет большую упорядоченность (клетки в теле, тканях и органах). При этом возрастает температура. Внешняя сторона живой системы, или кожа организма, всегда имеет максимальную энтропию в теле, потому, что она удаляет тепло. Известны способы измерения негэнтропии, отличные от измерения тепла, исходящего от тела. Живые существа, ищущие с целью выживания эти способы, создают модели, которые более упорядочены, чем то, что измеряется, эти модели объединяются, обдумываются, возникающая в итоге наука негэнтропична как любая часть жизни. Идея, что живые существа упорядочивают вселенную, называется человеческим принципом.

( ) = ( ) + ( )

http://profbeckman.narod.ru/

Биологическая клетка стремится сохранить свою негэнтропию (организацию, структуру, форму, функции), и всё это благодаря потреблению энергии извне. Для мёртвой клетки характерно отсутствие негэнтропии, когда клетка распадается, прекращая своё существование. Это не противоречит второму началу термодинамики, которое разрешает переход к большему порядку при условии импорта энергии извне клетки — открытой системы, включенной в более крупные системы. В более широком масштабе, планета Земля также не является замкнутой системой: она получает энергию, в основном лучистую солнечную энергию и энергию Вселенной. Солнечная энергия поступает в виде упорядоченного (видимого и радиационного ультрафиолетового) света, в то же время повторно излучаемые энергии является более беспорядочными (инфракрасный свет). Это позволяет системам на Земле не превращаться в формы с большей неупорядоченностью (второй закон термодинамики хорошо подтверждается, только если принимать во внимание роль Солнца, в том числе в эволюции жизни). Если рассматривать человеческое общество с точки зрения энтропии (дезорганизации) и негэнтропии (организации), его эволюция происходит на основе баланса между этими двумя тенденциями. Негэнтропийные процессы ведут к гибкости и политическому фундаментализму, а энтропийные – к высокой степени беззаконий.

В теории информации и статистике, дифференциальная негэнтропия используется как мера отклонения от нормальности. Рассматривают сигнал с некоторым распределением. Сигнал называют гауссовским, если он имеет нормальное распределение. Дифференциальная негэнтропия сигнала всегда неотрицательна, инвариантна при любых линейных обратимых преобразованиях координат и исчезает, если и только если сигнал является гауссовским.

Дифференциальная негэнтропия определяется как

(46)

где х имеет гауссовскую плотность с тем же самым средним и дисперсией как рх, а S(p,x)

—дифференциальная энтропия:

 

( ) = − ∫

( )log

( )d

(47)

 

 

 

Дифференциальная негэнтропия используется в статистике и обработке сигналов, имеет отношение к сетевой энтропии, которая используется в независимом компонентном анализе. Интуитивно дифференциальная негэнтропия понимается как информация, которая может быть сохранена, если представить рх эффективным способом; а х – случайная величина (с гауссовским распределением) с тем же самым средним и дисперсией, которая нуждается в максимальной длине данных для представления самым эффективным способом. Поскольку рх менее случайна, то кое-что о ней известно заранее, она содержит меньше неизвестной информации и нуждается в меньшей длине данных для представления самым эффективным способом.

Сейчас полагают, что суммарное количество информации j-го состояния пространства или соответствующей области, возникающие в любом процессе, всегда является постоянным:

n

n

 

Yj

H j

const

j 1

j 1

(48)

где Yj – информация j-го состояния; j – одно и тоже j-е состояние (процесс), для которого замеряется и количество информации, и количество энтропии.

Впрочем, похоже, что эта формула противоречит второму закону термодинамики. Предпринимались неоднократные попытки заменить термин негэнтропия каким-то

другим.

А. Сент-Дьёрди предложил заменить термин негэнтропия на синтропия (термин предложен в 1940 итальянским математиком Л.Фантаппие), который пытался объединить биологический и физический мир. При описании процессов в самоорганизующихся системах процесса иногда используются термины экстропия и эктропия.

http://profbeckman.narod.ru/

Экстропия (порядок – антоним к слову энтропия) – дополнительная двойственная функция к энтропии:

N

Y 1 pi log 1 pi

i 1

(49)

Сравнив с формулой Шеннона, получим: энтропия ≥ экстропии.

Термин экстропия в философском контексте мера развитости интеллекта, функционального порядка, жизненности, энергии, опыта, стремления к развитию и росту биологической или организационной системы. В метафорическом смысле, экстропия - полная противоположность энтропии.

Экстропия – термин, введённый Т. Беллом и определенный М.Морром, как степень живучести или организованности системного интеллекта, функционального порядка, живучести, энергии, жизни, опыта, способности и двигателя совершенствования и роста; выражает скорее метафору, чем служит техническим термином; тотально противоположна энтропии; философия экстропии, М. Мора – философия трансгуманизма. В философии цифровой вероятностной физики, экстропия физической системы определяется для некоторого момента времени как самоинформация марковской вероятности физической системы, как марковской цепи; вводится для того, чтобы отличить вероятность марковского состояния физической системы от вероятности, которая определяется энтропией и ансамблями эквивалентных микросостояний.

На основе экстропии возникло учение экстропианцев, которые верят, что экстропия

– способ, при помощи которого Вселенная заставляет ракету эволюции лечь на курс и полететь вперёд. Отвечая за рост секвой и готических соборов, сила экстропии создаёт новизну, порождает сложность, производит информацию и посылает нас выше, дальше и сильнее. Это импульс возможности, который преодолевает навязчивые циклические законы материи и энергии и проявляет себя в человеческой жизни как разум, наука, технология и всеобщая тяга к эволюционному процессу, заставляющая людей усваивать новый опыт, преодолевать физические и психологические барьеры, усиливать способности интеллекта и мечтать о будущих возможностях. И все это – содержание повседневной жизни экстропианцев. Избавившись от барьеров, налагаемых нашим природным наследием, мы используем свой эволюционный дар разумного, эмпирического сознания для того, чтобы преодолеть границы нашей человечности, последовательно пройдя трансчеловеческую и постчеловеческую стадии

Были попытки внедрить и термин антиэнтропия.

Антиэнтропия – это структурированная и упорядоченная величина обратно пропорциональная энтропии (Y=1/H), характеризующая степень неопределенности системы.

Антиэнтропийный признак наблюдается субъектом в виде сохранения краткосрочного или долгосрочного порядка (сопротивление процессам разрушения) . Антиэнтропийный признак может быть пассивным – сопротивление процессам разрушений в виде силового удержания связей в ранее сформированном порядке (вся неживая материя – свойство пассивного самосохранения). Может быть активным – активный поиск новых способов сохранения ранее сформированного порядка (вся живая материя – свойство активного самосохранения).

Антиэнтропия, как явление сохранения связей между составляющими во времени, нас интересовать не будет.

Удельная антиэнтропия – количественная характеристика структурной сложности (степени организованности) систем вида АmВn ... Сz, где А, В, ..., С – различные типы элементов, а m, n,...z – количества, которыми представлен каждый тип удельной энтропии. Она обратно пропорциональна энтропии

S

ант

 

N

 

 

H бит-1,

(50)