- •Содержавние
- •Глава 1 Границы применимости формализма классической теории информации 5
- •Глава 2 Информация — объект постнеклассическои науки 20
- •Глава 3 Эволюция систем — это эволюция ценности информации 36
- •Глава 4 Эволюция логической информации: развитие социокультурных систем 59
- •Глава 5 Научные основы междисциплинарных исследований 77
- •Введение
- •Глава 1 Границы применимости формализма классической теории информации
- •1.1. Истоком информации является случайный выбор
- •20 1.2. Характеристики информации: качество, количество, ценность и эффективность
- •1.2.1. Качество информации.
- •1.2.2. Количество информации.
- •1.2.3. Ценность информации и ее эффективность.
- •Imax — оптимальное количество информации, Emax — максимальное значение эффективности
- •1.3. О микро- и макроинформации
- •1.4. Методологический анализ экстраполяции негэнтропииного принципа
- •Глава 2 Информация — объект постнеклассическои науки
- •2.1. Почему попытки однозначного определения понятия "информация" всегда неудачны?
- •2.2. Информация — это необратимый процесс в многомерном, нелинейном мире
- •2.3. Сколько у информации свойств?
- •Глава 3 Эволюция систем — это эволюция ценности информации
- •3.1. Создание информации как событие в аспекте становления эволюционирующих систем
- •3.2. Иерархия уровней информации на шкале универсальной эволюции
- •3.2.1 Синергетическая информация (s-информация).
- •3.2.2 Генетическая информация.
- •3.2.3 Поведенческая информация.
- •3.2.4 Логическая информация.
- •Развитие логической информации.
- •3.3. Термодинамика информационных систем
- •3.4. Динамика информации: модели эволюции ценности и эффективности
- •Глава 4 Эволюция логической информации: развитие социокультурных систем
- •4.1. Методологические возможности информационно-синергетического подхода к исследованию социокультурных систем
- •Функции отдельных элементов задержанных цивилизаций
- •4.2. Эволюция социокультурных систем
- •4.3. Методология сопоставления взглядов на пути развития культуры
- •Глава 5 Научные основы междисциплинарных исследований
- •5.1. Логическая информация и проблема "двух культур"
- •5.2. Исследование социальных следствий синергетики
- •Заключение
Imax — оптимальное количество информации, Emax — максимальное значение эффективности
По ходу кривой изменяется приращение ценности, приходящейся на единичный интервал I. Это позволяет ввести еще одну характеристику — эффективность информации Е.
В работе [76] за эффективность принято отношение Е. = V/!, что нельзя признать удачным. Мы предлагаем для Е. следующую величину:
Другими словами, эффективность информации равна первой производной функции V = У(1) для каждого заданного значения.
Легко видеть, что зависимость & = /(/) представляет собой кривую с максимумом, причем только с одним (рис. 1.8). Площадь под кривой С = /(/) и осью абсцисс называют "информационным полем” [76].
1.3. О микро- и макроинформации
В методологической и научной литературе неоднократно обсуждалась возможность сопоставлять количество информации (I) и величину термодинамической энтропии (8) системы. Анализ этих работ выявил необходимость методологического уточнения корректности вышеупомянутого сопоставления в различных ситуациях.
Людвиг Больцман был первым ученым, обратившим внимание на связь величин I и S. Говоря о необратимом увеличении энтропии идеального газа при его изотермическом расширении в пустоту (за 50 лет до формулы Шеннона), он заметил, что этот процесс сопровождается потерей информации о местонахождении (в общем случае о состояниях) молекул. Эта идея получила дальнейшее развитие после работ по математической теории связи, выполненных сотрудниками фирмы Веll Те1ерhоn [109, 116, 119]. Оказалось возможным использовать формулу (1.1) для подсчета количества информации о состояниях молекул, если принять, что Р, есть вероятность нахождения молекулы в ее ”'-м состоянии. Если учесть, что по Больцману энтропия, приходящаяся на одну молекулу, есть
где А; — постоянная Больцмана, М — число состояний молекул, то эквивалентность между увеличением термодинамической энтропии, происходящем при совершении некоторого процесса, и потерей информации о молекулах кажется очевидной.
Из формул (1.1) и (1.6) следует, что изменение энтропии однозначно связано с количеством информации:
или
где^^ЗВ.Ю-^Дж/К; 1,44=1о82е, а 8о > 6'1.
Мы применили обозначение Imikr ибо (1.7) получено на основе представлений о микросостояниях. Это количество микроинформации. Один бит микроинформации может быть условно выражен в энтропийных единицах умножением на (1,38/1,44) • 10-23Дж/К. Тогда согласно формуле (1.7)
^микр = 8о — "?1, (1-8)
где Л,икр выражено в энтропийных единицах.
Смысл связи I и S может быть продемонстрирован на следующем примере. Допустим, замораживается сосуд с водой. При этом убывает энтропия воды и возрастает информация о месторасположении ее молекул. Последнее связано с тем, что переход от жидкого состояния к кристаллическому сопровождается фиксацией молекул воды в узлах кристаллической решетки, что отвечает известному упорядочению, т. е. уменьшению энтропии. В этом случае речь идет о микроинформации. И.Р. Пригожий, определяя меру информации при продвижении на один шаг вдоль марковской цепи, пишет о самой непосредственной связи этой величины с энтропией. Однако в рассматриваемом в [125, с. 214] случае речь идет также о микроинформации.
Микроинформация имеет мало общего с макроинформацией, во-первых, потому что ее создание не связано со случайным выбором; во-вторых, система молекул тела (при заданных условиях) имеет только одно устойчивое состояние (аттрактор) —это равновесное состояние, в то время как система, рецептирующая кастлеровскую информацию, должна иметь минимум два стационарных состояния (параграф 2.1); в-третьих (и это очень важно), эта информация не может быть запомнена. Так, информацией можно считать набор координат и скоростей молекул газа в данный момент времени. Запоминать этот набор бессмысленно, поскольку через короткое время система о нем "забудет" . Что же касается количества макроинформации, то в приведенном примере оно равно нулю, даже если все координаты и скорости молекул известны.
Д.С. Чернавский отмечает, что микроинформация не обязательно связана с микрочастицами. Любая незапоминаемая информация — это микроинформация [186, с. 17].
В отличие от микроинформации, информация о макросостояниях "оплачивается" энтропией в неэквивалентной мере: возрастание энтропии во много раз превышает количество полученной информации [42, с. 151]. Это хорошо видно на простом примере. Бросанию монеты должно отвечать изменение энтропии, по (1.8) примерно равнo
е10 ^Дж/К, но выделение энтропии при работе мышц (сила бросания), теплоты при ударе об пол монеты несоизмеримо больше. Заметим, что по І это изменение вообще нельзя определить, ибо оно зависит от массы монеты, ее упругости, степени шероховатости пола и т. д.
Рассматривая вопрос о математическом виде связи энтропии и информации, Л. Бриллюэн [25, 26] ограничился случаем микроинформации, получив формулу (1.8). Именно поэтому этот феномен называют "информация в смысле Бриллюэна" [186, с. б], в отличие от рассмотренной выше макроинформации (параграф 1.1) по Кастлеру.
Очевидной ошибкой Бриллюэна была незаконная и неоговариваемая им экстраполяция (1.8) на случай макроинформации, т. е. запись в виде
1=8о-81. (1.9)
Отвечая положительно на вопрос об однозначности связи между информацией и энтропией, Бриллюэн комментирует это следующим образом: дополнительные знания, т. е. информация, уменьшают энтропию рецепиента, значит, формула (1.8) имеет универсальный характер. Пример Бриллюэна свидетельствует о том, что не только верный, но и ошибочный научный вывод может служить поризмом, ибо он охватил более широкий круг явлений, нежели тот, к которому первоначально относилась задача. Следствия неверной формулы (1.9) вылились в методологическую некорректность, что привело к сильнейшей путанице понятий, связанной с пресловутым негэнтропийным принципом. В итоге ошибка разрослась до уровня философских обобщений, которые будут рассмотрены в следующем параграфе.
Далее нас будут интересовать предпосылки генерации информации, ее характеристики и свойства. Все эти эпитеты, а также представления об эволюции информационных систем, имеют смысл по отношению к макроинформации. Поэтому в дальнейшем мы будем использовать термин "информация", понимая под ним только макроинформацию.
