
- •Введение
- •1. Основные задачи теории информационных систем
- •1.1. Краткая историческая справка
- •1.2. Основные понятия теории систем
- •1.3. Выбор определения системы
- •2. Основные понятия и определения
- •2.1. Понятие информации
- •2.2. Открытые и закрытые системы
- •2.3. Модель и цель системы
- •2.4. Управление
- •2.5. Информационные динамические системы
- •2.6. Классификация и основные свойства единиц информации
- •2.7. Системы управления
- •2.8. Реляционная модель данных
- •3. Виды информационных систем
- •3.1. Классификация информационных систем
- •3.2. Технические, биологические и др. Системы
- •3.3. Детерминированные и стохастические системы
- •3.4. Открытые и закрытые системы
- •3.5. Хорошо и плохо организованные системы
- •3.6. Классификация систем по сложности
- •4. Закономерности систем
- •4.1. Целостность
- •4.2. Интегративность
- •4.3. Коммуникативность
- •4.4. Иерархичность
- •4.4. Эквифинальность
- •4.5. Историчность
- •4.6. Закон необходимого разнообразия
- •4.7. Закономерность осуществимости и потенциальной эффективности систем
- •4.8. Закономерность целеобразования
- •4.9. Системный подход и системный анализ
- •5. Уровни представления информационных систем
- •5.1. Методы и модели описания систем
- •5.2. Качественные методы описания систем
- •5.3. Количественные методы описания систем
- •5.4. Кибернетический подход к описанию систем
- •6. Алгоритмы на топологических моделях
- •6.1. Задачи анализа топологии
- •6.2. Представление информации о топологии моделей
- •6.3. Переборные методы. Поиск контуров и путей по матрице смежности
- •6.4. Модифицированный алгоритм поиска контуров и путей по матрице смежности
- •6.5. Поиск контуров и путей по матрице изоморфности
- •6.6. Сравнение алгоритмов топологического анализа
- •6.7. Декомпозиция модели на топологическом ранге неопределенности
- •6.8. Сортировка модели на топологическом ранге неопределенности
- •6.9. Нахождение сильных компонент графа
- •7. Теоретико-множественное описание систем
- •7.1. Предположения о характере функционирования систем
- •7.2. Система как отношение на абстрактных множествах
- •7.3. Временные, алгебраические и функциональные системы
- •7.4. Временные системы в терминах «вход — выход»
- •8. Динамическое описание систем
- •8.1. Детерминированная система без последствий
- •8.2. Детерминированные системы без последствия с входными сигналами двух классов
- •8.3. Учет специфики воздействий
- •8.4. Детерминированные системы с последствием
- •8.5. Стохастические системы
- •8.6. Агрегатное описание систем
- •8.7. Иерархические системы
- •9. Модели и методы принятия решений
- •9.1. Принятие решений. Что это такое?
- •9.2. Модели и методы принятия решений
- •9.3. Требования к методам принятия решений
- •10. Логистические системы
- •10.1. Концепция и философия логистики
- •10.2. Системный подход в логистике
- •10.3. Кибернетический подход
- •10.4. Классификация моделей логистической системы
- •10.5. Проблемы логистики на микро- и макроуровне
- •11. Числовые характеристики системы
- •11.1. Условия проведения расчетов
- •11.2. Математическое ожидание, мода, медиана
- •11.3. Моменты. Дисперсия. Среднее квадратическое отклонение
- •11.4. Расчет производительности информационной системы
- •11.5. Разделение уровней информационных систем
- •12. Основы теории информации
- •12.1. Предмет и задачи теории информации
- •12.2. Энтропия как мера степени неопределенности состояния физической системы
- •12.3. Энтропия сложной системы. Теорема сложения энтропий
- •12.4. Условная энтропия. Объединение зависимых систем
- •12.5. Энтропия и информация
- •12.6. Энтропия и информация для систем с непрерывным множеством состояний
- •12.7. Негэнтропия
- •12.8. Передача информации с искажениями. Пропускная способность канала с помехами
- •12.9. Вероятностная модель информационного морфизма информационных систем
- •12.10. Исследование и регулирование информационного морфизма систем с использованием матриц Александера
- •12.11. Элементарная семантическая единица – модуль информационного наполнения ис
- •12.12. Структурирование информационного наполнения ис и вводимые для описания этого процесса специальные термины
- •Заключение
- •Библиографический список
12.6. Энтропия и информация для систем с непрерывным множеством состояний
До сих пор мы рассматривали физические системы, различные состояния которых x1, х2, …, xn можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля величины p1, р2, …, pn. Такие системы аналогичны прерывным (дискретным) случайным величинам, принимающим значения x1, х2, …, xn с вероятностями p1, р2, …, pn. На практике часто встречаются физические системы другого типа, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем называть «непрерывными», в отличие от ранее рассмотренных, которые мы будем называть «дискретными». Наиболее простой пример непрерывной системы — это система, состояние которой описывается одной непрерывной случайной величиной X с плотностью распределения f(x). В более сложных случаях состояние системы описывается несколькими случайными величинами X1, X2,…, XS с плотностью распределения f(x1, x2,…, xS). Тогда ее можно рассматривать как объединение (X1, X2,…, XS) простых систем X1, X2,…, XS.
Р
ассмотрим
простую систему X,
определяемую одной непрерывной случайной
величиной X
с плотностью распределения f(x)
(рис. 12.1). Попытаемся распространить на
эту систему введенное понятие энтропии.
Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину X — рост наугад взятого человека — непрерывной случайной величиной, мы отвлекаемся от того, что фактически никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разнящиеся, скажем, на 1 мм, практически невозможно. Тем не менее данную случайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те значения роста, которые различаются менее чем на 1 см.
Рис.
2.6.2
Точно таким образом, установив предел точности измерений, т.е. некоторый отрезок x, в пределах которого состояния системы X практически неразличимы, можно приближенно свести непрерывную систему X к дискретной. Это равносильно замене плавной кривой f(x) ступенчатой, типа гистограммы (рис. 12.2); при этом каждый участок (разряд) длины x заменяется одной точкой - представителем. Площади прямоугольников изображают вероятности попадания в соответствующие разряды: f(xi)x. Если условиться считать неразличимыми состояния системы, относящиеся к одному разряду, и объединить их все в одно состояние, то можно приближенно определить энтропию системы X, рассматриваемой с точностью до x:
(2.6.3)
При достаточно малом x:
и формула (2.6.3) принимает вид
(12.19)
Заметим, что в выражении (12.19) первый член получился совсем не зависящим от x — степени точности определения состояний системы. Зависит от x только второй член (- log x), который стремится к бесконечности при x 0. Это и естественно, так как чем точнее мы хотим задать состояние системы X, тем большую степень неопределенности мы должны устранить, и при неограниченном уменьшении x эта неопределенность растет тоже неограниченно.
Итак, задаваясь произвольно малым «участком нечувствительности» x наших измерительных приборов, с помощью которых определяется состояние физической системы X, можно найти энтропию Hx(X) по формуле (12.19), в которой второй член неограниченно растёт с уменьшением x. Сама энтропия Hx(X) отличается от этого неограниченно растущего члена на независимую от x величину
Эту величину можно назвать «приведенной энтропией» непрерывной системы X. Энтропия Hx(X) выражается через приведенную энтропию Н*(Х) формулой
Hx(X) = H*(X) – log x. (12.20)
Соотношение (12.20) можно истолковать следующим образом: от точности измерения x зависит только начало отсчета, при котором вычисляется энтропия.
В дальнейшем для упрощения записи мы будем опускать индекс x в обозначении энтропии и писать просто H(X); наличие в правой части всегда укажет, о какой точности идет речь.
Формуле (12.20) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего, перепишем (12.20) в виде
Это есть не что иное, как математическое ожидание функции – log {f (X) x} от случайной величины X с плотностью
f (x):
H (X) = M[- log {f (X)x}]. (12.21)
Аналогичную форму можно придать величине H*(X):
H*(X) = M[- log f (X)].
Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы: X и Y. В общем случае эти системы зависимы. Обозначим f(x,у) плотность распределения для состояний объединенной системы (X, Y); f1(x) — плотность распределения системы X; f2(y) — плотность распределения системы Y; f (y | x), f (x | y) — условные плотности распределения.
Прежде всего, определим частную условную энтропию H (Y | x) т.е. энтропию системы Y при условии, что система X приняла определенное состояние х. Формула для нее будет аналогична, только вместо условных вероятностей P (yi | xi) будут стоять условные законы распределения f (y | x) и появится слагаемое log y:
Перейдем теперь к полной (средней) условной энтропии H (Y | X); для этого нужно усреднить частную условную энтропию H (Y | x) по всем состояниям х с учетом их вероятностей, характеризуемых плотностью f1(x):
или, учитывая, что
f (x, y) = f1 (x) f (y | x),
Иначе эта формула может быть записана в виде
H (Y | X) = M[- log f (Y | X)] – log y
или
H (Y | X) = M[- log {f (Y | X)y}]. (12.22)
Определив таким образом условную энтропию, покажем, как она применяется при определении энтропии объединенной системы.
Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем X и Y будут x и y, то для объединенной системы (X, Y) роль их будет играть элементарный прямоугольник xy. Энтропия системы (X, Y) будет
H (X, Y) = M[- log {f (X, Y)xy}]. (12.23)
Так как
f (x, y) = f1 (x) f (y | x),
то и
f (X, Y) = f1 (X) f (Y | X). (12.24)
Подставим (2.6.9) в (2.6.8):
H (X, Y) = M[- log f1 (X) – log f (Y | X) – log x – log y] =
= M[- log (f1 (X) x)] + M[- log (f (Y | X) y)],
или
H (X, Y) = H (X) + H (Y | X),
т.е. теорема об энтропии сложной системы остается в силе и для непрерывных систем.
Если X и Y независимы, то энтропия объединенной системы равна сумме энтропий составных частей:
H (X, Y) = H (X) + H (Y).
Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и понятие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпадает: при вычислении информации как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связанные с непрерывными величинами, оказываются не зависящими от «участка нечувствительности» x.
Выражение для полной взаимной информации, содержащейся в двух непрерывных системах X и Y, будет аналогично выражению, но с заменой вероятностей законами распределения, а сумм — интегралами:
,
или, применяя знак математического ожидания,
Полная взаимная информация IY X, как и в случае дискретных систем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы X и Y независимы.