- •Глава 3. Меры системной динамики и организованности систем.
- •3.1. Термодинамика: основные положения
- •3.1.1. Сущность, предмет и метод термодинамики.
- •3.1.2. Основные понятия и параметры, характеризующие термодинамическую систему.
- •1) Внутренняя энергия
- •3.1.3. Термодинамические процессы: общее понятие.
- •1) В случае деформационного воздействия (работа) роль обобщенной силы играет давление, а сопряженной обобщенной координаты – объем. Тогда
- •2) При обмене энергией в форме теплоты (теплообмен) обобщенной силой является абсолютная температура, а обобщенной координатой – энтропия (также удельная):
- •3.1.4. Основные законы (начала) термодинамики.
- •1) Нулевое начало термодинамики.
- •2) Первое начало термодинамики.
- •1) Идеальный газ и его теплоемкость.
- •2) Политропические процессы.
- •3) Работа газа при политропическом процессе.
- •3) Второе начало термодинамики.
- •4) Третье начало термодинамики.
- •3.2. Термодинамические циклы
- •Р ис.3.8. Цикл Карно
- •1.9. Диаграмма цикла Карно.
- •5) Цикл Стирлинга
- •3.3. Элементы теории потока.
- •3.3.1. Общие понятия
- •3.3.2. Элементы геометрии потока
- •3.4. Элементы теории информации.
- •3.4.1. Основные философские концепции информации. Сущность информации
- •3.4.2. Понятийный аппарат теории информации
- •8. Вероятность.
- •11. Информация. Вероятностные подходы.
- •3.4.3. Термодинамические аспекты информационных процессов
- •9. Подведем итог сказанному.
- •3.4.4. Информационные процессы в управлении.
- •1) Сигналы и сообщения: общие понятия.
- •2) Движение оперативной информации.
- •Сигналы
- •Формирование решений и воздействия
- •3.1. Передача информации. Пропускная способность канала связи
- •3) Передача информации при наличии помех.
- •3.2. Причины искажения сигнала в системах управления.
- •3.3. Проблема неизбыточности сообщения.
- •Энтропия h Шум s Тезаурус
- •3.5. Меры системной динамики
- •Кинематическая система физических величин
- •Фрагмент таблицы размерностей физических величин в системе [vt]
11. Информация. Вероятностные подходы.
11.1. Связь энтропии и информации была в неявной форме отмечена Л.Сцилардом в 1929 году. В ходе анализа парадокса « демона Максвелла», он указал, что энтропия, теряемая газом благодаря разделению частиц с высоким и низким уровнем энтропии, равна информации, получаемой демоном Максвелла, передающейся наблюдателю «эксперимента».
Позже К.Шенноном было замечено совпадение математического выражения для информационной энтропии с формулой Л.Больцмана для термодинамической энтропии и дано определение информации, основанное на энтропии сообщения.
Отмечая формальное тождество количества информации количеству термодинамической энтропии, взятой с обратным знаком (то есть отрицательной энтропии) Н.Винер констатировал, что количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия.
Таким образом, понятия термодинамической и информационной энтропии, по существу, как бы «сливаются», вновь демонстрируя глубокое единство законов природы на всех уровнях движения материи.
Следствием столь тесной связи является то, что из вероятностной трактовки информационной энтропии могут быть выведены основные распределения статистической физики: каноническое распределение Гиббса, которое соответствует максимальному значению информационной энтропии при заданной средней энергии и большое каноническое распределение Гиббса – при заданной средней энергии и числе частиц в системе.
С другой стороны наличие тесной связи термодинамических и информационных характеристик систем материального мира позволяет предположить, что и информация тесно связана с энергетическими процессами. А это означает, что непроходимой пропасти между теми и другими нет.
Рассмотрение некоторых философских подходов к пониманию сущности информации, ряда фундаментальных понятий теории информации позволяет перейти к более точному определению самого понятия информации и рассмотрению ее сущности.
11.2. Многогранность информации, как категории, породила довольно много определений этого понятия: информация – это обозначение содержания, полученного от внешнего мира в процессе приспособления к нему (Винер); информация – отрицание энтропии (Бриллюэн); информация – коммуникация и связь, в процессе которой устраняется неопределенность (Шеннон); информация – передача разнообразия (Эшби); информация – оригинальность, новизна; информация – мера сложности структур(Моль); информация – вероятность выбора (Яглом) и т.д. Каждое из этих определений раскрывает ту или иную грань (аспект) этого многозначного понятия.
В соответствии со сложившимися в нашей философской литературе представлениями информация есть одно из свойств предметов, явлений объективной действительности, созданных человеком управляющих машин, которое заключается в способности:
воспринимать внутреннее состояние и воздействие окружающей среды;
сохранять определенное время результаты этого воздействия;
передавать сведения о внутреннем состоянии и накопленные данные другим предметам, явлениям, процессам.
В зависимости от области деятельности и конкретных целей исследования в различных случаях под термином «информация» понимаются39:
Сообщение, осведомление о положении дел, сведения, о чем-либо, передаваемые людьми.
Уменьшаемая, снижаемая неопределенность в результате получения сообщения.
Сообщение, неразрывно связанное с управлением, сигналы в единстве синтаксической, семантической и прагматической характеристик.
Сообщение, отражающее разнообразие в объектах живой и неживой природы.
Последние четыре определения дают интересный материал для обобщений. Отвлекаясь от докибернетического понимания информации, как сообщения, осведомления, рассмотрим три других определения.
1) Информация,
как уменьшаемая, снижаемая неопределенность
в результате получения сообщения.
По существу, информация в такой
трактовке предстает как разность между
величиной энтропии системы до получения
сообщения (
-априорная
энтропия) и величиной энтропии после
получения сообщения (
- апостериорная энтропия):
|
(3.89) |
Максимальная информация, которую мы можем получить о системе, равна величине ее максимальной энтропии.
2) Представление информации как сообщения, неразрывно связанного с управлением, как сигналов в единстве синтаксической, семантической и прагматической характеристик дает богатые возможности для решения самых разных практических задач. Как видно из такой трактовки, информационное сообщение или сигнал можно рассматривать с различных сторон и, соответственно, оценивать четырьмя группами характеристик.
Неизбыточность, то есть степень новизны сведений, содержащихся в данном сообщении;
Синтаксический аспект, то есть характеристика правильности и полноты передачи сообщения, сигнала, безотносительно к их содержанию;
Семантический аспект, то есть характеристика содержательной стороны сообщения, правильности понимания его содержания и сущности;
Аксиологический аспект (прагматическая характеристика) – рассматривает сообщение с точки зрения его ценности, полезности для получателя, правильности оценки полезности, ценности сведений, содержащихся в сообщении.
Если сообщение не воспринято, то мы не получаем ни каких сведений; если сообщение не понято или понято неверно, то мы вновь не получаем информации или получаем искаженную информацию; если сведения поняты, но не представляют для нас интереса, хотя бы с точки зрения простой любознательности, мы вновь не получаем информации; наконец, если содержащиеся в воспринятом нами сообщении сведения поняты, полезны для нас, но ничего нового не добавляют к тому, что нам уже известно – мы также не получим информации.
Все сказанное позволяет сформулировать еще одно определение понятия информации, которое, в какой-то мере объединяет рассмотренные ранее и весьма удобно для использования в практических исследованиях .
Информация есть сообщение, осведомление, о чем- либо, содержащее новые для получателя сведения, которые им восприняты, поняты и оценены как полезные по тому или иному критерию.
Под термином «сведения» здесь понимается содержание сообщения (политические новости, административно - производственные данные, необходимые для принятия решений в сфере управления, научно-технические данные и тому подобное, словом, все, что может передаваться от человека к человеку устно, письменно, по техническим каналам и т.д.) Полезность может оцениваться по любому критерию (научная, коммерческая и иная ценность, любознательность и проч.)
Добавим еще два понятия, характеризующие ценность и существенность информации.
Следует сразу отметить, что универсального понятия ценности информации современная наука пока не выработала и едва ли в ближайшее время выработает. Это связано с целым рядом трудностей принципиального характера, главная из которых состоит в необходимости учета влияния полученной данной системой информации на ее дальнейшее поведение и развитие. А это влияние может быть весьма неоднозначным и зависеть как от природного качества системы, ее строения, уровня организации, строения и т.п., так и от условий существования и функционирования.
Понятие ценности сведений может быть определено только в связи с рецепцией информации, тот есть реакцией системы на данное сообщение.
Мерой ценности информации являются последствия ее рецепции воспринимаемой системой, а они далеко неоднозначны для разных систем.
Поэтому, рассматривая только целенаправленные системы, определим ценность информации через ее соответствие поставленной системой цели.
Если цель деятельности, функционирования системы определена точно, то ценность информации определим через посредство приращения вероятности достижения этой цели - через разность между вероятностью достижения цели при наличии данной информации и вероятностью достижения этой цели при условии, что информация отсутствует.
В наиболее общем виде мера ценности информации может быть выражена аналитически следующим образом:
|
(3.90) |
-
начальная (до поступления информации)
вероятность достижения цели;
- конечная(после поступления информации)
вероятность достижения цели.
Существенность информации. Любое событие всегда происходит в пространстве и во времени. Поэтому при оценке информации рассматривается ее существенность с трех точек зрения:
существенность самого события;
существенность времени совершения события или его наблюдения (рано - поздно - момент);
существенность пространства, в котором происходит событие (место, адрес, номер, точка в пространстве, координата и т.п.)
Функция существенности отражает степень важности информации о том или ином значении параметра системы с учетом времени и пространства и должна удовлетворять условиям нормировки. Конкретный вид этой функции зависит от целого ряда условий, рассматривать которые здесь не будем.
11.3. Во всех приведенных определениях мы пока еще недалеко ушли от функциональной концепции, поскольку все определения, как уже отмечалось, так или иначе, связываются с передачей сообщений.
По нашему мнению существенным шагом вперед является подразделение информации на два больших класса – структурную и оперативную.
По этому поводу Р.А.Абдеев пишет:
«... мы разделяем информацию на:
1) структурную (или связанную), присущую объектам неживой и живой природы естественного и искусственного происхождения. Последние (орудия труда, предметы быта, произведения искусства, научные теории и т.д.) возникают путем объективирования («оседания», «опредмечивания») циркулирующей информации, то есть благодаря и в результате целенаправленных управленческих процессов.
2) оперативную (или рабочую), циркулирующую между объектами материального мира и используемую в процессах управления в живой природе и человеческом обществе. Преемственность этих двух форм информации очевидна. Генетически структурная информация неживой природы явилась необходимой предпосылкой возникновения оперативной информации и функциональных систем живой природы. Объекты потому могут порождать процессы, что в объектах содержится информация, которая при определенных условиях может реализовываться в передающую часть отражения. Субъект извлекает из объектов неживой природы информацию, включает ее в контур познания и (или) управления. При этом выявляется содержание информации, она приобретает ценность, то есть раскрываются семантический и прагматический аспекты информации.
Таким образом, две разновидности (два класса информации) тесно связаны взаимными переходами и обусловленностью. При этом сигналы могут быть даны и приняты другой системой благодаря структурной неоднородности самих систем и среды, через которую они передаются»40.
Другими словами, информация содержится в структуре любого объекта. Она тогда превращается в оперативную информацию, когда появляется получатель и канал связи. То есть информация в неорганической природе существует объективно, но как бы в потенциальной форме. С появлением жизни, а, значит, и получателя информации начинается ее использование в целях познания и управления.
При анализе таких понятий, как «сообщение», «сигнал», рассмотрении проблем передачи сообщений и вообще информационных процессов, мы вернемся к проблеме взаимосвязи структуры системы, структурной и оперативной информации.
12. Все сказанное относится к теориям информации, которые базируются на вероятностных, статистических подходах. Между тем существует целый ряд попыток построения теории информации, которые базируются на иных основаниях. Рассмотрим один из них - алгоритмический подход А.Н. Колмогорова.
Сущность его в следующем. Предполагается, что для двух объектов A и B существует программа P получения B из A, минимальная длина которой и является алгоритмическим количеством информации, или сложностью B относительно A. Длина программы выступает как некоторый алгоритм, то есть последовательность операций, который в необходимом порядке надлежит выполнить, чтобы воспроизвести исследуемый объект. Чем больше разнообразие элементов и отношений порядка в исходной последовательности, тем более сложной (более длинной) оказывается программа.
Другими словами, сложность системы здесь определяется числом двоичных единиц информации, которые полностью описывают данную систему.
Алгоритмическое определение понятия количества информации вводится по аналогии с понятием относительной энтропии и выступает как функция связи, отношения двух объектов (систем) и выражает относительное количество различия (или тождества) этих объектов.
13. В связи с появлением теорий информации, основанных на иных, нежели вероятностные подходы, следует отметить: развитие науки показало, что жесткая логическая схема, ставшая традиционной (теория вероятности теория информации) оказалась недостаточной. Более того, оказалось возможным не только определение количества информации без вероятности, но и определение вероятности посредством количества информации.
Невероятностные подходы к построению теории информации позволили академику В.М.Глушкову сформулировать одну из наиболее глубоких с нашей точки зрения трактовку сущности информации: «Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все протекающие в мире процессы»41.
С учетом же всего сказанного, обобщение различных подходов позволяет рассматривать информацию как меру качественной определенности объектов и процессов материального мира.
