
- •Содержавние
- •Глава 1 Границы применимости формализма классической теории информации 5
- •Глава 2 Информация — объект постнеклассическои науки 20
- •Глава 3 Эволюция систем — это эволюция ценности информации 36
- •Глава 4 Эволюция логической информации: развитие социокультурных систем 59
- •Глава 5 Научные основы междисциплинарных исследований 77
- •Введение
- •Глава 1 Границы применимости формализма классической теории информации
- •1.1. Истоком информации является случайный выбор
- •20 1.2. Характеристики информации: качество, количество, ценность и эффективность
- •1.2.1. Качество информации.
- •1.2.2. Количество информации.
- •1.2.3. Ценность информации и ее эффективность.
- •Imax — оптимальное количество информации, Emax — максимальное значение эффективности
- •1.3. О микро- и макроинформации
- •1.4. Методологический анализ экстраполяции негэнтропииного принципа
- •Глава 2 Информация — объект постнеклассическои науки
- •2.1. Почему попытки однозначного определения понятия "информация" всегда неудачны?
- •2.2. Информация — это необратимый процесс в многомерном, нелинейном мире
- •2.3. Сколько у информации свойств?
- •Глава 3 Эволюция систем — это эволюция ценности информации
- •3.1. Создание информации как событие в аспекте становления эволюционирующих систем
- •3.2. Иерархия уровней информации на шкале универсальной эволюции
- •3.2.1 Синергетическая информация (s-информация).
- •3.2.2 Генетическая информация.
- •3.2.3 Поведенческая информация.
- •3.2.4 Логическая информация.
- •Развитие логической информации.
- •3.3. Термодинамика информационных систем
- •3.4. Динамика информации: модели эволюции ценности и эффективности
- •Глава 4 Эволюция логической информации: развитие социокультурных систем
- •4.1. Методологические возможности информационно-синергетического подхода к исследованию социокультурных систем
- •Функции отдельных элементов задержанных цивилизаций
- •4.2. Эволюция социокультурных систем
- •4.3. Методология сопоставления взглядов на пути развития культуры
- •Глава 5 Научные основы междисциплинарных исследований
- •5.1. Логическая информация и проблема "двух культур"
- •5.2. Исследование социальных следствий синергетики
- •Заключение
1.4. Методологический анализ экстраполяции негэнтропииного принципа
Мы останавливаемся так подробно на наиболее распространенных противоречиях и ошибках в методологии изучения явления информации, пытаясь вскрыть корни заблуждений, так как считаем их главной причиной отставания в развитии общей теории информации, для которой уже созданы необходимые предпосылки. Подмена одного не очень ясного термина "информация" другим, еще более непонятным, таким, как "негэнтропия" или "отражение", создает только видимость прогресса. Что же касается печально знаменитого негэнтропииного принципа (т. е. утверждения о том, что количество информации служит определенным отрицательным вкладом в энтропию), то, как нетрудно показать, он оказался скомпрометирован своими же собственными следствиями. Но если не учитывать этих следствий (не думать о них) и не знать, в чем именно кроется то заблуждение, которое привело к неверному результату, то начинает казаться, что не так уж порочен и сам результат. А если учесть, что независимо друг от друга авторами неточностей были не кто-нибудь, а Винер и Бриллюэн, авторитеты которых были заслуженно очень велики, то нетрудно предвидеть живучесть заблуждений. В параграфе 1.3 мы показали, что некорректность выводов Бриллюэна, состоит в экстраполяции формулы (1.9) на случай запоминаемой информации. Получено 5'! = 8о —1, т. е. информация дает отрицательный вклад в энтропию. Отсюда — легко прижившийся термин "негэнтропия" (негэнтропия равна количеству микроинформации со знаком минус и не имеет отношения к запоминаемой информации). Однако дело не в названии, а в тех "захватывающих возможностях", которые открывает негэнтропийный принцип. Получается, что нельзя изменить энтропию тела, не создав или не уничтожив некоторое количество информации.
Одной из основных предпосылок негэнтропииного принципа является утверждение зависимости термодинамической энтропии от знания. Экспериментальное изучение какой-либо системы есть извлечение из нее информации, что согласно (1.8) должно сопровождаться возрастанием энтропии изучаемого объекта и ее уменьшением в голове экспериментатора, получившего порцию негэнтропии. Таким образом, с помощью информации удается регулировать энтропию исследователей. Поскольку энтропия присуща всем термодинамическим системам, то и негэнтропия (информация) как дополняющая ее характеристика должна быть приписана всей материи. Отсюда следуют такие некорректные, но до сих пор еще довольно популярные философско-методологические положения.
— Информация содержится в каждом материальном объекте, она вездесуща и, следовательно, является одним из свойств материи.
— Существуют две характеристики степени порядка материальных объектов: неупорядоченность (энтропия) и упорядоченность (негэнтропия, равная информации).
Первое утверждение противоречит представлению об информации как о процессе (параграф 1.1), ибо процесс, да еще связанный со случайным выбором, может протекать, а может и отсутствовать. Генерация информации —это событие (параграф 2.1), которое не является детерминированным и уж конечно не представляет собой характеристику любого материального объекта.
Второе следствие является методологическим абсурдом, что иллюстрирует принципиальное неблагополучие с породившим его негэнтропийным принципом. Получается, что одна и та же сущность — степень упорядоченности — потребовала для своего описания двух характеристик: энтропии (степень беспорядка) и негэнтропии (степень порядка). Это такой же методологический нонсенс, как утверждения: "тело теплое, потому что содержит тепло", "тело холодное, потому что содержит холод".
Количественной мерой степени упорядоченности служит энтропия. Разные системы упорядочены в большей или меньшей степени. Если в "большей" — энтропия относительно мала, если в "меньшей" — относительно велика. Поэтому энтропия является одновременно характеристикой упорядоченности и неупорядоченности. Введение негэнтропии как величины, обратной по знаку энтропии, лишено физического смысла. Заметим, что начало этой эквилибристики терминами и знаками положено Н. Винером: "Как количество информации в системе есть мера организованности системы, — говорит он, — точно так же энтропия системы есть мера дезорганизованности системы, одно равно другому, взятому с обратным знаком" [32, с. 55]. Это определение содержит противоречие внутри самого себя.
По Винеру количество информации І равно энтропии S со знаком минус:
I=-S
Но, как уже отмечалось выше, 8 — функция состояния, существенно положительная (5' > 0), следовательно, отрицательным является количество информации, что противоречит как здравому смыслу, так и формуле Шеннона (1.1), из которой со всей определенностью следует I > 0. О недоразумении со знаками и размерностями в выражениях количества информации писал У. Эшби [204, с. 254], но его замечание осталось незамеченным.
Формальное сходство между статистически определяемыми по формулам Шеннона и Больцмана величинами I и S, да еще вместе со случайной ошибкой в знаке, послужило поводом к далеко идущим обобщениям и к множеству некорректных расчетов количества информации в различных объектах.
По соотношению (1.10) информация является функцией состояния, что резко противоречит высказываниям самого Винера: "Процесс получения и использования информации является процессом нашего приспособления к случайностям внешней среды и нашей жизнедеятельности в этой среде. Потребности и сложность современной жизни предъявляют гораздо большие, чем когда-либо раньше требования к этому процессу информации, и наша пресса, наши музеи, научные лаборатории... должны удовлетворить потребности этого процесса" [25, с. 23]. В этой характеристике понятие информации связано с представлением о процессе, а вовсе не с функцией состояния — негэнтропией.
Описанная парадоксальная ситуация лишний раз свидетельствует о том, что даже крупные ученые, не сговариваясь, могут допускать аналогичные ошибки, корень которых уходит в непроработанность методологии того или иного вопроса.
Негэнтропийный принцип уже давно был подвергнут заслуженной критике (см., например, [128, с. 69-73]). Казалось бы, с ним было покончено. Однако в семидесятых годах принцип был в известной степени реставрирован. Дело в том, что с развитием термодинамики неравновесных систем появилась возможность поставить вопрос о том, что возникновение информации (запомненного выбора из набора возможных состояний) сопровождается образованием структуры, а значит, локальным понижением энтропии системы. Следовательно, снова возникает (теперь уже в связи с макроинформацией) вопрос о связи I v 8. Какова эта связь? Точки зрения различных авторов на этот вопрос расходятся. Рассмотрим те из них, которые являются полярными.
Так, Е.А. Седов, сторонник информационно-энтропийного подхода к описанию процессов самоорганизации, утверждал: "Методы теории информации, разработанные К. Шенноном для чисто прикладных задач техники связи, оказываются универсальным средством анализа процессов самоорганизации как простейших физических тел, так и сложнейших интеллектуальных и социальных систем" [157, с. 93]. И далее: "Мера, найденная Шенноном, оказалась единой универсальной мерой упорядоченности для всех существующих в мире систем" [157, с. 94].
Полностью отрицает связь информации с энтропией В.И. Корогодин, который, детально проанализировав информационные процессы в живых системах, приходит к безапелляционному выводу о некорректности использования формулы Шеннона в случаях, выходящих за пределы задач теории и практики связи. Отсюда и вывод о невозможности сопоставления информации и энтропии. "Зачем отождествлять информацию с энтропией и выражать ее количество в термодинамических единицах эрг-град"1? Получается как в том анекдоте, когда семинарист, окрестив поросенка "карасем", спокойно слопал его в Великий пост... Не лучше ли за всеми этими феноменами сохранить присущие наименования и организацию продолжать именовать организацией, энтропию — энтропией, а информацию — информацией, выявив сущность этого понятия, а не производя подмену одних терминов другими?" [76, с. 18].
Последний упрек можно отнести к Г. Хакену, который в своей монографии [180] проводит анализ изменения информации Шеннонa в самоорганизующейся физико-химической системе. Как известно, формула Шеннона позволяет измерить количество информации, передаваемое в единицу времени при использовании заданного набора сигналов. Поэтому перенесение метода Шеннона на решение информационных проблем самоорганизации в самых разных системах требует специальных разъяснений. Хакен исследует изменение информации Шеннона при неравновесном фазовом переходе в состояние с большей степенью упорядоченности. При таком неравновесном фазовом переходе система приобретает способность хранить информацию о том выборе (или отборе), который привел ее к переходу "от хаоса к порядку". Это дает основание автору трактовать энтропию как информацию, что в рамках развиваемого им подхода означает возможность термин "информация" предпочесть термину "энтропия". Что это дает? По-видимому, не так уж много. В самом деле, вблизи порога, т. е. в области точки бифуркации, из-за критических флуктуаций информация сильно возрастает, поэтому автор возвращается к термину "энтропия", более уместному, по его мнению, в этой области. Однако при использовании энтропии Шеннона в качестве меры упорядоченности возникает трудность: в часто обсуждаемом Хакеном переходе в лазере через порог лазерного излучения энтропия, посчитанная по Шеннону, оказывается больше, чем в исходном "равновесном" состоянии. В этой ситуации трактовка энтропии Шеннона как информации снова оказывается предпочтительней, так как состояние генерации оптической среды не может быть более хаотичным, чем равновесное (Ю.Л. Климантович. Предисловие к [180]). Мы видим, что анализ включения информационных процессов в самоорганизацию подменяется подбором удобных для каждого конкретного случая терминов. Все это снижает методологическую ценность информационно-энтропийного подхода к самоорганизующимся системам.
Точка зрения автора на вопрос о связи информации и энтропии сводится к следующему. При генерации информации в самоорганизующейся системе энтропия уменьшается. Однако это не дает основания говорить о связи информации и энтропии по следующей причине. I и 5' это величины, разные в термодинамическом отношении. Информация — это величина, которая характеризует процесс, ибо связана с выбором, запоминанием, кодированием, передачей и т. д. Подобные величины, характеризующие меру протекания процесса, хорошо известны в термодинамике. Это, например, тепло и работа — величины, характеризующие процессы. Они отличаются от функций состояния таких, как внутренняя энергия, энтропия, энтальпия, свободная энергия, термодинамический потенциал Гиббса тем, что не обладают полными дифференциалами. В связи с этим первое начало термодинамики можно прочитать как утверждение о том, что приращение внутренней энергии (Ли) равно сумме количества подведенного тепла (О) и совершенной внутренними силами работе (А'):
<1П
= 60
+ 8А'.
(1.11)
Речь не идет о соотношении V и О или V и А'. Эти величины несопоставимы, сравнить можно только (iv с <?0 и 6А'.
К сожалению, часто приходится встречаться с непродуманностью методологических подходов к термодинамическим величинам. Так, в процитированной монографии [180] на с. 23 Г. Хакен пишет: "Первое начало утверждает, что в замкнутой системе энергия сохраняется, причем энергия может принимать различные формы, такие, как внутренняя энергия, совершенная работа или тепло". Это неверная формулировка, ибо работа и тепло не формы энергии, а способы ее изменения. Можно накопить энергию, но невозможно накопить работу. Речь может идти не о переходе энергии в работу или тепло, а об изменении энергии системы за счет совершения работы внешними силами или подвода к ней тепла. Это существенно, ибо в принципе исключает тождество <? и и. Только изменение величины V может быть сопоставлено с количеством подведенного тепла.
Точно так же обстоит дело с соотношением количества переданной информации и функцией состояния S. Энтропия системы изменяется при рецепции ею информации. В работах Винера и Шеннона процессам рецепции практически не уделялось внимания. От рецептора требовалось лишь умение отличать один кодовый символ от другого.
Самые общие соображения о процессе рецепции позволяют утверждать, что рецепция — процесс необратимый, так как информация не может самопроизвольно возвращаться вспять. Рецепция — процесс неравновесный, ибо потоки информации между источником и рецептором неуравновешены. После того, как были сформулированы основные положения синергетики, стало ясно, что поскольку рецепция информации означает возникновение определенной упорядоченности в воспринимающей системе, то это процесс, далекий от равновесия. Другими словами, рецепторная система есть система диссипативная, переходящая под влиянием информационного потока в состояние с уменьшенной энтропией.
Таким образом, рецепция информации есть необратимый, неравновесный процесс перехода системы из менее устойчивого состояния в более устойчивое. Этот процесс сопровождается уменьшением энтропии рецепторной системы.
Все сказанное позволяет заключить, что:
во-первых, количество информации — это величина, характеризующая процесс ее рецепции, не являющаяся функцией состояния;
— во-вторых, количество информации, изменяя энтропию репептирующей системы, связано не с функцией состояния системы, не с энтропией, а с величиной ее изменения.
Если убыль энтропии обозначить АЗ, то между количеством информации и убылью энтропии существует связь
/ ~ -Д5.
Важно понимать, что Д5' вовсе не энтропия системы, а ее убыль. Переход от знака пропорциональности к знаку равенства возможен при введении коэффициента пропорциональности, который, в отличие от случая микроинформации, не является постоянным, а зависит от конкретной ситуации, и даже для одной и той же системы, получающей разное количество информации, может зависеть от этой величины. Другими словами, связь между I и S не только нелинейная, но и неопределенная. В некоторых случаях этот коэффициент очень велик, т. е. последствия получения информации несоизмеримо велики по сравнению с ее количеством.
Так, весь поток транспорта меняет направление при получении водителями одного бита информации — замены красного сигнала светофора на зеленый. Это — так называемая триггерная ситуация, постоянно реализующаяся в биологических системах.
Таким образом, нет оснований говорить, об определенной количественной связи между информацией системы и изменением ее энтропии. Приведенные выше рассуждения необходимы, так как мы снова и снова читаем, например, следующее: "Количество информации, отождествляемое Винером с отрицательной энтропией (негэнтропией), становится, подобно количеству вещества или энергии, одной из фундаментальных характеристик явлений природы" [2, с. 107].
Кажущаяся реставрация синергетикой негэнтропийного принципа бросает тень на это научное направление, вызывая настороженное отношение к ее возможностям играть роль общенаучной концепции, а также служить объяснительной схемой развития.