Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Мелик-Гайказян И.В. Информационные процессы и р...doc
Скачиваний:
13
Добавлен:
01.03.2025
Размер:
7.65 Mб
Скачать

Imax — оптимальное количество ин­формации, Emax — максимальное зна­чение эффективности

По ходу кривой изменяется приращение ценности, приходящейся на единичный интервал I. Это позволяет ввести еще одну характери­стику — эффективность информации Е.

В работе [76] за эффективность принято отношение Е. = V/!, что нельзя признать удачным. Мы предлагаем для Е. следующую вели­чину:

Другими словами, эффективность информации равна первой произ­водной функции V = У(1) для каждого заданного значения.

Легко видеть, что зависимость & = /(/) представляет собой кривую с максимумом, причем только с одним (рис. 1.8). Площадь под кривой С = /(/) и осью абсцисс называют "информационным полем” [76].

1.3. О микро- и макроинформации

В методологической и научной литературе неоднократно обсужда­лась возможность сопоставлять количество информации (I) и вели­чину термодинамической энтропии (8) системы. Анализ этих работ выявил необходимость методологического уточнения корректности вышеупомянутого сопоставления в различных ситуациях.

Людвиг Больцман был первым ученым, обратившим внимание на связь величин I и S. Говоря о необратимом увеличении энтропии идеального газа при его изотермическом расширении в пустоту (за 50 лет до формулы Шеннона), он заметил, что этот процесс сопрово­ждается потерей информации о местонахождении (в общем случае о состояниях) молекул. Эта идея получила дальнейшее развитие после работ по математической теории связи, выполненных сотрудниками фирмы Веll Те1ерhоn [109, 116, 119]. Оказалось возможным использо­вать формулу (1.1) для подсчета количества информации о состояниях молекул, если принять, что Р, есть вероятность нахождения молекулы в ее ”'-м состоянии. Если учесть, что по Больцману энтропия, прихо­дящаяся на одну молекулу, есть

где А; — постоянная Больцмана, М — число состояний молекул, то эквивалентность между увеличением термодинамической энтропии, происходящем при совершении некоторого процесса, и потерей ин­формации о молекулах кажется очевидной.

Из формул (1.1) и (1.6) следует, что изменение энтропии одно­значно связано с количеством информации:

или

где^^ЗВ.Ю-^Дж/К; 1,44=1о82е, а 8о > 6'1.

Мы применили обозначение Imikr ибо (1.7) получено на основе представлений о микросостояниях. Это количество микроинформа­ции. Один бит микроинформации может быть условно выражен в эн­тропийных единицах умножением на (1,38/1,44) • 10-23Дж/К. Тогда согласно формуле (1.7)

^микр = 8о — "?1, (1-8)

где Л,икр выражено в энтропийных единицах.

Смысл связи I и S может быть продемонстрирован на следующем примере. Допустим, замораживается сосуд с водой. При этом убы­вает энтропия воды и возрастает информация о месторасположении ее молекул. Последнее связано с тем, что переход от жидкого состо­яния к кристаллическому сопровождается фиксацией молекул воды в узлах кристаллической решетки, что отвечает известному упоря­дочению, т. е. уменьшению энтропии. В этом случае речь идет о микроинформации. И.Р. Пригожий, определяя меру информации при продвижении на один шаг вдоль марковской цепи, пишет о самой не­посредственной связи этой величины с энтропией. Однако в рассма­триваемом в [125, с. 214] случае речь идет также о микроинформации.

Микроинформация имеет мало общего с макроинформацией, во-первых, потому что ее создание не связано со случайным выбором; во-вторых, система молекул тела (при заданных условиях) имеет только одно устойчивое состояние (аттрактор) —это равновесное состояние, в то время как система, рецептирующая кастлеровскую информацию, должна иметь минимум два стационарных состояния (параграф 2.1); в-третьих (и это очень важно), эта информация не может быть запо­мнена. Так, информацией можно считать набор координат и скоро­стей молекул газа в данный момент времени. Запоминать этот набор бессмысленно, поскольку через короткое время система о нем "забу­дет" . Что же касается количества макроинформации, то в приведен­ном примере оно равно нулю, даже если все координаты и скорости молекул известны.

Д.С. Чернавский отмечает, что микроинформация не обязательно связана с микрочастицами. Любая незапоминаемая информация — это микроинформация [186, с. 17].

В отличие от микроинформации, информация о макросостояниях "оплачивается" энтропией в неэквивалентной мере: возрастание эн­тропии во много раз превышает количество полученной информации [42, с. 151]. Это хорошо видно на простом примере. Бросанию мо­неты должно отвечать изменение энтропии, по (1.8) примерно равнo

е10 ^Дж/К, но выделение энтропии при работе мышц (сила броса­ния), теплоты при ударе об пол монеты несоизмеримо больше. За­метим, что по І это изменение вообще нельзя определить, ибо оно зависит от массы монеты, ее упругости, степени шероховатости пола и т. д.

Рассматривая вопрос о математическом виде связи энтропии и ин­формации, Л. Бриллюэн [25, 26] ограничился случаем микроинформа­ции, получив формулу (1.8). Именно поэтому этот феномен называют "информация в смысле Бриллюэна" [186, с. б], в отличие от рассмо­тренной выше макроинформации (параграф 1.1) по Кастлеру.

Очевидной ошибкой Бриллюэна была незаконная и неоговаривае­мая им экстраполяция (1.8) на случай макроинформации, т. е. запись в виде

1=8о-81. (1.9)

Отвечая положительно на вопрос об однозначности связи между информацией и энтропией, Бриллюэн комментирует это следующим образом: дополнительные знания, т. е. информация, уменьшают эн­тропию рецепиента, значит, формула (1.8) имеет универсальный ха­рактер. Пример Бриллюэна свидетельствует о том, что не только верный, но и ошибочный научный вывод может служить поризмом, ибо он охватил более широкий круг явлений, нежели тот, к которому первоначально относилась задача. Следствия неверной формулы (1.9) вылились в методологическую некорректность, что привело к силь­нейшей путанице понятий, связанной с пресловутым негэнтропийным принципом. В итоге ошибка разрослась до уровня философских обоб­щений, которые будут рассмотрены в следующем параграфе.

Далее нас будут интересовать предпосылки генерации информа­ции, ее характеристики и свойства. Все эти эпитеты, а также пред­ставления об эволюции информационных систем, имеют смысл по от­ношению к макроинформации. Поэтому в дальнейшем мы будем ис­пользовать термин "информация", понимая под ним только макроин­формацию.