- •Оглавление
- •Предисловие
- •Введение
- •§ 1.1. Предварительные замечания
- •§ 1.2. Роль системных представлений в практической деятельности
- •§ 1.3. Внутренняя системность познавательных процессов
- •§ 1.4. Системность как всеобщее свойство материи
- •§ 1.5. Краткий очерк истории развития системных представлений
- •Заключение
- •Литература
- •Упражнения
- •§ 2.1. Широкое толкование понятия модели
- •§ 2.2. Моделирование – неотъемлемый этап всякой целенаправленной деятельности
- •§ 2.3. Способы воплощения моделЕй
- •Insight озарение
- •§ 2.4. Условия реализации свойств моделей
- •§ 2.5. Соответствие между моделью и действительностью: различия
- •InherencEингерентность
- •§ 2.6. Соответствие между моделью и действительностью: сходство
- •§ 2.7. О динамике моделей
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 3.1. Множественность моделей систем
- •§ 3.2. Первое определение системы
- •Inputs входы (системы)
- •§ 3.3. Модель “черного ящика”
- •§ 3.4. Модель состава системы
- •§ 3.5. Модель структуры системы
- •§ 3.6. Второе определение системы. Структурная схема системы
- •§ 3.7. Динамические модели систем
- •Vertex вершина (графа)
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 4.1. Искусственные системы и естественные объекты
- •§ 4.2. Обобщение понятия системы. Искусственные и естественные системы
- •§ 4.3. Различные классификации систем
- •Variable переменная
- •§ 4.4. О больших и сложных системах
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 5.1. Информация как свойство материи
- •§ 5.2. Сигналы в системах
- •Information
- •Interference
- •§ 5.3. Случайный процесс – математическая модель сигналов
- •§ 5.4. Математические модели реализаций случайных процессов
- •§ 5.5. О некоторых свойствах непрерывных сигналов
- •§ 5.6. Энтропия
- •Independent независимый
- •§ 5.7. Количество информации
- •Interaction взаимодействие
- •§ 5.8. Об основных результатах теории информации
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 6.1. Эксперимент и модель
- •§ 6.2. Измерительные шкалы
- •Interval
- •§ 6.3. Расплывчатое описание ситуаций
- •§ 6.4. Вероятностное описание ситуаций. Статистические измерения
- •§ 6.5. Регистрация экспериментальных данных и ее связь с последующей их обработкой
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 7.1. Многообразие задач выбора
- •§ 7.2. Критериальный язык описания выбора
- •§ 7.3. Описание выбора на языке бинарных отношений
- •§ 7.4. Язык функций выбора
- •§ 7.5. Групповой выбор
- •Voting голосование
- •§ 7.6. Выбор в условиях неопределенности
- •§ 7.7. О выборе в условиях статистической неопределенности
- •§ 7.8. Выбор при расплывчатой неопределенности
- •§ 7.9. Достоинства и недостатки идеи оптимальности
- •§ 7.10. Экспертные методы выбора
- •§ 7.11. Человеко-машинные системы и выбор
- •§ 7.12. Выбор и отбор
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 8.1. Анализ и синтез в системных исследованиях
- •§ 8.2. Модели систем как основания декомпозиции
- •§ 8.3. Алгоритмизация процесса декомпозиции
- •Ignorance незнание, невежество
- •§ 8.4. Агрегирование, эмерджентность, внутренняя целостность систем
- •§ 8.5. Виды агрегирования
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •§ 9.1. Что такое системный анализ
- •§ 9.2. Формулирование проблемы
- •§ 9.3. Выявление целей
- •§ 9.4. Формирование критериев
- •Values ценности
- •§ 9.5. Генерирование альтернатив
- •§ 9.6. Алгоритмы проведения системного анализа
- •§ 9.7. Претворение в жизнь результатов системных Исследований
- •Implementation внедрение (результатов)
- •§ 9.8. О специфике социальных систем
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •Краткий словарь специальных терминов
- •Contents
- •Оглавление
§ 5.7. Количество информации
В основе всей теории информации лежит открытие, что информация допускает количественную оценку. В простейшей форме эта идея была выдвинута еще в 1928 г. Хартли, но завершенный и общий вид придал ей Шэннон в 1948 г. [9]. Не останавливаясь на том, как развивалось и обобщалось понятие количества информации, дадим сразу его современное толкование.
КОЛИЧЕСТВО ИНФОРМАЦИИ КАК МЕРА СНЯТОЙ НЕОПРЕДЕЛЕННОСТИ
Процесс получения информации можно интерпретировать как изменение неопределенности в результате приема сигнала. Проиллюстрируем эту идею на примере достаточно простого случая, когда передача сигнала происходит при следующих условиях: 1) полезный (отправляемый) сигнал является последовательностью статистически независимых символов с вероятностями р(хi), ; 2) принимаемый сигнал является последовательностью символовуk того же алфавита; 3) если шумы (искажения) отсутствуют, то принимаемый сигнал совпадает с отправляемым уk = хi; 4) если шум имеется, то его действие приводит к тому, что данный символ может либо остаться прежним (i-м), либо быть подмененным любым другим (k-м) символом, вероятность этого равна р(уk | хi); 5) искажение очередного символа является событием, статистически независимым от того, что произошло с предыдущими символами. Конечно, можно рассматривать ситуацию и со стороны передатчика, используя вероятности р(хi | уk) (рис. 5.4). В этих условиях энтропия процесса есть энтропия одного символа, и все сводится к рассмотрению посимвольного приема.
Итак, до получения очередного символа ситуация характеризуется неопределенностью того, какой символ будет отправлен, т.е. априорной энтропией Н(Х). После получения символа уk неопределенность относительно того, какой символ был отправлен, меняется: в случае отсутствия шума она вообще исчезает (апостериорная энтропия равна нулю, поскольку точно известно, что был передан символ хk = уk), а при наличии шума мы не можем быть уверены, что полученный нами символ и есть отправленный, и возникает неопределенность, характеризуемая апостериорной энтропией Н(Х | уk) = Н({р(хi | уk)}) > 0. В среднем после получения очередного символа энтропия Н(Х | Y) = MyН(Х | уk).
Определим теперь количество информации как меру снятой неопределенности: числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропий этого объекта, т.е.
I(Х, Y) = Н(Х) – Н(X | Y). (1)
Использовав равенство (2) § 5.6, легко получить, что
I(Х, Y) =Н(Y) – Н(Y | Х). (2)
В явной форме равенство (1) запишется так:
5.4
—————
Схема
“вееров неопределенности” при наличии
шума
в канале
а для равенства (2) имеем
(4)
КОЛИЧЕСТВО ИНФОРМАЦИИ КАК МЕРА СООТВЕТСТВИЯ СЛУЧАЙНЫХ ОБЪЕКТОВ
Этим формулам легко придать полную симметричность: умножив и разделив логарифмируемое выражение в (3) на р(уk), а в (4) на р(хi), сразу получим, что
(5)
Эту симметрию можно интерпретировать так: количество информации в объекте Х об объекте Y равно количеству информации в объекте Y об объекте Х. Таким образом, количество информации является не характеристикой одного из объектов, а характеристикой их связи, соответствия между их состояниями. Подчеркивая это, можно сформулировать еще одно определение: среднее количество информации, вычисляемое по формуле (5), есть мера соответствия двух случайных объектов.
Это определение позволяет прояснить связь понятий информации и количества информации. Информация есть отражение одного объекта другим, проявляющееся в соответствии их состояний. Один объект может быть отражен с помощью нескольких других, часто какими-то лучше, чем остальными. Среднее количество информации и есть числовая характеристика степени отражения, степени соответствия. Подчеркнем, что при таком описании как отражаемый, так и отражающий объекты выступают совершенно равноправно. С одной стороны, это подчеркивает обоюдность отражения: каждый из них содержит информацию друг о друге. Это представляется естественным, поскольку отражение есть результат взаимодействия, т.е. взаимного, обоюдного изменения состояний. С другой стороны, фактически одно явление (или объект) всегда выступает как причина, другой – как следствие; это никак не учитывается при введенном количественном описании информации.
Формула (5) обобщается на непрерывные случайные величины, если в соотношения (1) и (2) вместо Н подставить дифференциальную энтропию h; при этом исчезает зависимость от стандарта Е и, значит, количество информации в непрерывном случае является столь же безотносительным к единицам измерения, как и в дискретном:
(6)
где р(х), р(y) и р(х, y) – соответствующие плотности вероятностей.
Свойства КОЛИЧЕСТВА ИНФОРМАЦИИ
Отметим некоторые важные свойства количества информации.
10. Количество информации в случайном объекте Х относительно объекта Y равно количеству информации в Y относительно Х:
I(Х, Y) = I(Y, Х). (7)
20. Количество информации неотрицательно:
I(Х, Y) 0. (8)
Это можно доказать по-разному. Например, варьированием р(х, y) при фиксированных р(х) и р(y) можно показать, что минимум I, равный нулю, достигается при р(х, у) = p(х)p(y).
30. Для дискретных Х справедливо равенство
I(Х, Х) = Н(Х).
40. Преобразование ?(·) одной случайной величины не может увеличить содержание в ней информации о другой, связанной с ней, величине:
I(? (Х), Y) I(Х, Y) (9)
50. Для независимых пар величин количество информации аддитивно:
I({Xi, Yi}) = I(Xi, Yi). (10)