Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
А. А. Шиян - Экономическая кибернетика.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
1.66 Mб
Скачать

Информация и энтропия.

В физике, еще с начала ХХ века, активно исследовался ряд вопросов, которые – в определенном смысле – являются «подобными» рассмотренному выше. Людвиг Больцман и Джозайя Гиббс задались следующим вопросом: если у нас вещество состоит из атомов, а его состояние определяется всего лишь небольшим числом характеристик, - то, вероятно, многие состояния разных атомов как-то «усредняются». В результате – появилась статистическая физика, которая получила огромное распространение и в рамках которой достигнут значительный прорыв в понимании Природы.

Однако главное для нас – не это. Дело в том, что Людвиг Больцман получил для так называемой «энтропии» следующее выражение

(3.12)

Здесь S – это и есть энтропия, kB - так называемая постоянная Больцмана, W - количество макроскопически неразличимых состояний исследуемой системы.

Почему, по какой причине так важно знать значение энтропии? Оказывается, что если оно известно, то существуют формулы, по которым можно вычислить все так называемые «термодинамические переменные» – все параметры, которые характеризуют состояние нашей системы. Таким образом, формула (3.12) дает возможность вычислить все макроскопические характеристики объекта, зная только его макроскопические (атомарные или молекулярные) характеристики. Так задача оказалась решена? К сожалению, это далеко не так: вычислить значение W оказалось возможным только для очень небольшого количества модельных систем! Реальные системы и объекты оказались «не по зубам» физикам.

В рамках статистической физики показывается, что энтропия – это есть некая обобщенная «мера беспорядка» рассматриваемой системы. Чем большее значение энтропии – тем больший «беспорядок» имеется в системе, тем более она оказывается «неупорядоченной».

Однако что такое есть управление? Как правило, наличие управления отождествляется с возрастанием порядка в управляемой системе. Следовательно, энтропия системы в процессе управления ею должна падать. Но процесс управления сопровождается также увеличением информации о системе. Таким образом, приходим к выводу:

  • Увеличение информации о системе равнозначно уменьшению энтропии в ней.

Именно это обстоятельство и позволило многим ученым сформулировать тезис:

Информация есть ­негативная энтропия рассматриваемой системы. Точнее следует сказать так: изменение информации о системе равно с обратным знаком изменению ее энтропии. Информация и энтропия имеют противоположные знаки: если беспорядок возрастает – то информация о системе убывает. Это определение отражает наши интуитивные представления об управлении (через ожидаемую (априорную) вероятность наступления того или иного события). Оно также связывает понятие «информация» именно с процессом управления.

Используя такое определение термина информация, мы должны описать тот интерьер – то есть те условия, тот контекст, где такое определение «работает». Другими словами, мы должны привести определение понятия управление. Это можно сделать, например, в таком виде:

Управление есть процесс упорядочения в системе. Конечно, нужно бы теперь заняться определение того, что именно мы понимаем под «упорядочением». Однако давайте пока что остановимся на этой стадии: «наведение порядка» – это достаточно понятное описание того, что делает любой управленец, любой менеджер в социальной или экономической системе. Другими словами – для интерьера социальных и экономических систем уже понятно, что именно понимается под термином управление, что именно, какая именно деятельность связывается с этим понятием.