Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Мелик-Гайказян И.В. Информационные процессы и р...doc
Скачиваний:
6
Добавлен:
01.03.2025
Размер:
7.65 Mб
Скачать

1.4. Методологический анализ экстраполяции негэнтропииного принципа

Мы останавливаемся так подробно на наиболее распространенных противоречиях и ошибках в методологии изучения явления информа­ции, пытаясь вскрыть корни заблуждений, так как считаем их глав­ной причиной отставания в развитии общей теории информации, для которой уже созданы необходимые предпосылки. Подмена одного не очень ясного термина "информация" другим, еще более непонятным, таким, как "негэнтропия" или "отражение", создает только види­мость прогресса. Что же касается печально знаменитого негэнтро­пииного принципа (т. е. утверждения о том, что количество инфор­мации служит определенным отрицательным вкладом в энтропию), то, как нетрудно показать, он оказался скомпрометирован своими же собственными следствиями. Но если не учитывать этих следствий (не думать о них) и не знать, в чем именно кроется то заблуждение, которое привело к неверному результату, то начинает казаться, что не так уж порочен и сам результат. А если учесть, что независимо друг от друга авторами неточностей были не кто-нибудь, а Винер и Бриллюэн, авторитеты которых были заслуженно очень велики, то нетрудно предвидеть живучесть заблуждений. В параграфе 1.3 мы по­казали, что некорректность выводов Бриллюэна, состоит в экстрапо­ляции формулы (1.9) на случай запоминаемой информации. Получено 5'! = 8о —1, т. е. информация дает отрицательный вклад в энтропию. Отсюда — легко прижившийся термин "негэнтропия" (негэнтропия равна количеству микроинформации со знаком минус и не имеет от­ношения к запоминаемой информации). Однако дело не в названии, а в тех "захватывающих возможностях", которые открывает негэнтропийный принцип. Получается, что нельзя изменить энтропию тела, не создав или не уничтожив некоторое количество информации.

Одной из основных предпосылок негэнтропииного принципа явля­ется утверждение зависимости термодинамической энтропии от зна­ния. Экспериментальное изучение какой-либо системы есть извлече­ние из нее информации, что согласно (1.8) должно сопровождаться возрастанием энтропии изучаемого объекта и ее уменьшением в го­лове экспериментатора, получившего порцию негэнтропии. Таким образом, с помощью информации удается регулировать энтропию ис­следователей. Поскольку энтропия присуща всем термодинамическим системам, то и негэнтропия (информация) как дополняющая ее ха­рактеристика должна быть приписана всей материи. Отсюда сле­дуют такие некорректные, но до сих пор еще довольно популярные философско-методологические положения.

— Информация содержится в каждом материальном объекте, она вездесуща и, следовательно, является одним из свойств материи.

— Существуют две характеристики степени порядка материаль­ных объектов: неупорядоченность (энтропия) и упорядоченность (негэнтропия, равная информации).

Первое утверждение противоречит представлению об информации как о процессе (параграф 1.1), ибо процесс, да еще связанный со слу­чайным выбором, может протекать, а может и отсутствовать. Гене­рация информации —это событие (параграф 2.1), которое не является детерминированным и уж конечно не представляет собой характери­стику любого материального объекта.

Второе следствие является методологическим абсурдом, что иллюстрирует принципиальное неблагополучие с породившим его негэнтропийным принципом. Получается, что одна и та же сущ­ность — степень упорядоченности — потребовала для своего опи­сания двух характеристик: энтропии (степень беспорядка) и негэнтропии (степень порядка). Это такой же методологический нонсенс, как утверждения: "тело теплое, потому что содержит тепло", "тело холодное, потому что содержит холод".

Количественной мерой степени упорядоченности служит энтро­пия. Разные системы упорядочены в большей или меньшей степени. Если в "большей" — энтропия относительно мала, если в "мень­шей" — относительно велика. Поэтому энтропия является одновре­менно характеристикой упорядоченности и неупорядоченности. Вве­дение негэнтропии как величины, обратной по знаку энтропии, ли­шено физического смысла. Заметим, что начало этой эквилибристики терминами и знаками положено Н. Винером: "Как количество инфор­мации в системе есть мера организованности системы, — говорит он, — точно так же энтропия системы есть мера дезорганизованности системы, одно равно другому, взятому с обратным знаком" [32, с. 55]. Это определение содержит противоречие внутри самого себя.

По Винеру количество информации І равно энтропии S со зна­ком минус:

I=-S

Но, как уже отмечалось выше, 8 — функция состояния, существенно положительная (5' > 0), следовательно, отрицательным является ко­личество информации, что противоречит как здравому смыслу, так и формуле Шеннона (1.1), из которой со всей определенностью следует I > 0. О недоразумении со знаками и размерностями в выражениях количества информации писал У. Эшби [204, с. 254], но его замечание осталось незамеченным.

Формальное сходство между статистически определяемыми по формулам Шеннона и Больцмана величинами I и S, да еще вместе со случайной ошибкой в знаке, послужило поводом к далеко идущим обобщениям и к множеству некорректных расчетов количества ин­формации в различных объектах.

По соотношению (1.10) информация является функцией состояния, что резко противоречит высказываниям самого Винера: "Процесс по­лучения и использования информации является процессом нашего при­способления к случайностям внешней среды и нашей жизнедеятель­ности в этой среде. Потребности и сложность современной жизни предъявляют гораздо большие, чем когда-либо раньше требования к этому процессу информации, и наша пресса, наши музеи, научные лаборатории... должны удовлетворить потребности этого процесса" [25, с. 23]. В этой характеристике понятие информации связано с представлением о процессе, а вовсе не с функцией состояния — негэнтропией.

Описанная парадоксальная ситуация лишний раз свидетельствует о том, что даже крупные ученые, не сговариваясь, могут допускать аналогичные ошибки, корень которых уходит в непроработанность методологии того или иного вопроса.

Негэнтропийный принцип уже давно был подвергнут заслуженной критике (см., например, [128, с. 69-73]). Казалось бы, с ним было по­кончено. Однако в семидесятых годах принцип был в известной сте­пени реставрирован. Дело в том, что с развитием термодинамики не­равновесных систем появилась возможность поставить вопрос о том, что возникновение информации (запомненного выбора из набора воз­можных состояний) сопровождается образованием структуры, а зна­чит, локальным понижением энтропии системы. Следовательно, снова возникает (теперь уже в связи с макроинформацией) вопрос о связи I v 8. Какова эта связь? Точки зрения различных авторов на этот вопрос расходятся. Рассмотрим те из них, которые являются поляр­ными.

Так, Е.А. Седов, сторонник информационно-энтропийного подхода к описанию процессов самоорганизации, утверждал: "Методы теории информации, разработанные К. Шенноном для чисто прикладных за­дач техники связи, оказываются универсальным средством анализа процессов самоорганизации как простейших физических тел, так и сложнейших интеллектуальных и социальных систем" [157, с. 93]. И далее: "Мера, найденная Шенноном, оказалась единой универсальной мерой упорядоченности для всех существующих в мире систем" [157, с. 94].

Полностью отрицает связь информации с энтропией В.И. Корогодин, который, детально проанализировав информационные процессы в живых системах, приходит к безапелляционному выводу о некор­ректности использования формулы Шеннона в случаях, выходящих за пределы задач теории и практики связи. Отсюда и вывод о невозмож­ности сопоставления информации и энтропии. "Зачем отождествлять информацию с энтропией и выражать ее количество в термодинами­ческих единицах эрг-град"1? Получается как в том анекдоте, ко­гда семинарист, окрестив поросенка "карасем", спокойно слопал его в Великий пост... Не лучше ли за всеми этими феноменами сохра­нить присущие наименования и организацию продолжать именовать организацией, энтропию — энтропией, а информацию — информа­цией, выявив сущность этого понятия, а не производя подмену одних терминов другими?" [76, с. 18].

Последний упрек можно отнести к Г. Хакену, который в своей монографии [180] проводит анализ изменения информации Шеннонa в самоорганизующейся физико-химической системе. Как известно, формула Шеннона позволяет измерить количество информации, пе­редаваемое в единицу времени при использовании заданного набора сигналов. Поэтому перенесение метода Шеннона на решение инфор­мационных проблем самоорганизации в самых разных системах тре­бует специальных разъяснений. Хакен исследует изменение инфор­мации Шеннона при неравновесном фазовом переходе в состояние с большей степенью упорядоченности. При таком неравновесном фа­зовом переходе система приобретает способность хранить информа­цию о том выборе (или отборе), который привел ее к переходу "от хаоса к порядку". Это дает основание автору трактовать энтро­пию как информацию, что в рамках развиваемого им подхода озна­чает возможность термин "информация" предпочесть термину "эн­тропия". Что это дает? По-видимому, не так уж много. В самом деле, вблизи порога, т. е. в области точки бифуркации, из-за кри­тических флуктуаций информация сильно возрастает, поэтому автор возвращается к термину "энтропия", более уместному, по его мне­нию, в этой области. Однако при использовании энтропии Шеннона в качестве меры упорядоченности возникает трудность: в часто обсу­ждаемом Хакеном переходе в лазере через порог лазерного излучения энтропия, посчитанная по Шеннону, оказывается больше, чем в ис­ходном "равновесном" состоянии. В этой ситуации трактовка энтро­пии Шеннона как информации снова оказывается предпочтительней, так как состояние генерации оптической среды не может быть бо­лее хаотичным, чем равновесное (Ю.Л. Климантович. Предисловие к [180]). Мы видим, что анализ включения информационных процессов в самоорганизацию подменяется подбором удобных для каждого кон­кретного случая терминов. Все это снижает методологическую цен­ность информационно-энтропийного подхода к самоорганизующимся системам.

Точка зрения автора на вопрос о связи информации и энтропии сводится к следующему. При генерации информации в самооргани­зующейся системе энтропия уменьшается. Однако это не дает основа­ния говорить о связи информации и энтропии по следующей причине. I и 5' это величины, разные в термодинамическом отношении. Инфор­мация — это величина, которая характеризует процесс, ибо связана с выбором, запоминанием, кодированием, передачей и т. д. Подоб­ные величины, характеризующие меру протекания процесса, хорошо известны в термодинамике. Это, например, тепло и работа — ве­личины, характеризующие процессы. Они отличаются от функций состояния таких, как внутренняя энергия, энтропия, энтальпия, сво­бодная энергия, термодинамический потенциал Гиббса тем, что не обладают полными дифференциалами. В связи с этим первое начало термодинамики можно прочитать как утверждение о том, что приращение внутренней энергии (Ли) равно сумме количества подведенного тепла (О) и совершенной внутренними силами работе (А'):

<1П = 60 + 8А'.

(1.11)

Речь не идет о соотношении V и О или V и А'. Эти величины несо­поставимы, сравнить можно только (iv с <?0 и 6А'.

К сожалению, часто приходится встречаться с непродуманностью методологических подходов к термодинамическим величинам. Так, в процитированной монографии [180] на с. 23 Г. Хакен пишет: "Пер­вое начало утверждает, что в замкнутой системе энергия сохраня­ется, причем энергия может принимать различные формы, такие, как внутренняя энергия, совершенная работа или тепло". Это неверная формулировка, ибо работа и тепло не формы энергии, а способы ее изменения. Можно накопить энергию, но невозможно накопить ра­боту. Речь может идти не о переходе энергии в работу или тепло, а об изменении энергии системы за счет совершения работы внешними силами или подвода к ней тепла. Это существенно, ибо в принципе исключает тождество <? и и. Только изменение величины V может быть сопоставлено с количеством подведенного тепла.

Точно так же обстоит дело с соотношением количества переданной информации и функцией состояния S. Энтропия системы изменяется при рецепции ею информации. В работах Винера и Шеннона про­цессам рецепции практически не уделялось внимания. От рецептора требовалось лишь умение отличать один кодовый символ от другого.

Самые общие соображения о процессе рецепции позволяют утвер­ждать, что рецепция — процесс необратимый, так как информация не может самопроизвольно возвращаться вспять. Рецепция — про­цесс неравновесный, ибо потоки информации между источником и рецептором неуравновешены. После того, как были сформулированы основные положения синергетики, стало ясно, что поскольку рецепция информации означает возникновение определенной упорядоченности в воспринимающей системе, то это процесс, далекий от равновесия. Другими словами, рецепторная система есть система диссипативная, переходящая под влиянием информационного потока в состояние с уменьшенной энтропией.

Таким образом, рецепция информации есть необратимый, нерав­новесный процесс перехода системы из менее устойчивого состояния в более устойчивое. Этот процесс сопровождается уменьшением эн­тропии рецепторной системы.

Все сказанное позволяет заключить, что:

  • во-первых, количество информации — это величина, характе­ризующая процесс ее рецепции, не являющаяся функцией состояния;

— во-вторых, количество информации, изменяя энтропию репептирующей системы, связано не с функцией состояния системы, не с энтропией, а с величиной ее изменения.

Если убыль энтропии обозначить АЗ, то между количеством ин­формации и убылью энтропии существует связь

/ ~ -Д5.

Важно понимать, что Д5' вовсе не энтропия системы, а ее убыль. Переход от знака пропорциональности к знаку равенства возможен при введении коэффициента пропорциональности, который, в отли­чие от случая микроинформации, не является постоянным, а зави­сит от конкретной ситуации, и даже для одной и той же системы, получающей разное количество информации, может зависеть от этой величины. Другими словами, связь между I и S не только нелинейная, но и неопределенная. В некоторых случаях этот коэффициент очень велик, т. е. последствия получения информации несоизмеримо велики по сравнению с ее количеством.

Так, весь поток транспорта меняет направление при получении во­дителями одного бита информации — замены красного сигнала све­тофора на зеленый. Это — так называемая триггерная ситуация, постоянно реализующаяся в биологических системах.

Таким образом, нет оснований говорить, об определенной коли­чественной связи между информацией системы и изменением ее эн­тропии. Приведенные выше рассуждения необходимы, так как мы снова и снова читаем, например, следующее: "Количество информа­ции, отождествляемое Винером с отрицательной энтропией (негэнтропией), становится, подобно количеству вещества или энергии, од­ной из фундаментальных характеристик явлений природы" [2, с. 107].

Кажущаяся реставрация синергетикой негэнтропийного принципа бросает тень на это научное направление, вызывая настороженное от­ношение к ее возможностям играть роль общенаучной концепции, а также служить объяснительной схемой развития.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]