
- •0.1.Роль системных представлений в практической деятельности человека
- •0.2.Краткая историческая справка.
- •0.3.Анализ и синтез в познании
- •0.4.Построение общей теории систем
- •0.5.Основные проблемы информатики и информационных систем
- •0.6.Контрольные вопросы
- •1.Основы теории систем
- •1.1.Системы и их основные свойства.
- •1.1.1.Модель "черный ящик"
- •1.1.2.Сложности построения модели "черный ящик"
- •1.1.3.Множественность входов и выходов
- •1.1.4.Модель состава системы
- •1.1.5.Модель структуры системы
- •1.2.Классификация систем.
- •1.3.Особенности функционирования систем.
- •1.3.1.Пространство состояний системы.
- •1.3.2.Преобразования в системах.
- •1.3.3.Устойчивость систем.
- •1.3.4.Особенности управления сложных систем.
- •1.4.Критерии эффективности сложных систем.
- •1.5.Основы разработки и исследования сложных систем.
- •1.5.1.Основные этапы разработки сложных систем
- •1.5.2.Основные задачи исследования сложных систем.
- •1.6.Контрольные вопросы
- •2.Информационные системы
- •2.1.Автоматизированные информационные системы
- •2.1.1.Содержание и структура теории ис
- •2.1.2.Предметная область аис
- •2.1.3.Взаимодействие предметной области, пользователей и аис
- •2.1.4.Классификация, состав и структура аис
- •2.2.Интегрированные корпоративные ис
- •2.2.1.Основы построения икис
- •2.2.2.Базовая концепция икис «Галактика»
- •2.3.Основные виды обеспечения аис
- •2.3.1.Информационное обеспечение аис
- •2.3.2.Средства обработки данных
- •2.3.3.Интерфейсы пользователя
- •2.3.4.Классификация программного обеспечения аис
- •2.3.5.Операционные системы
- •2.3.6.Средства автоматизации проектирования аис
- •2.3.7.Программное обеспечение интерфейсов аис
- •2.3.8.Техническое обеспечение аис
- •2.3.9.Нормативно - техническое обеспечение качества, эффективности и безопасности аис
- •2.4.Контрольные вопросы
- •3.Информация в системах
- •3.1.Кодирование информации и алфавиты
- •3.2.Сигналы в системах
- •3.2.1.Понятие сигнала
- •3.2.2.Типы сигналов
- •3.3.Математическая модель сигналов
- •3.3.1.Непредсказуемость – основное свойство сигналов.
- •3.3.2.Классы случайных процессов
- •3.4.Математические модели реализаций случайных процессов
- •3.4.1.Моделирование конкретных реализаций
- •3.4.2.Некоторые модели ансамбля реализации.
- •3.5.О некоторых свойствах непрерывных сигналов
- •3.5.1.Частотно – временное представление сигналов
- •3.6.Цифровое представление непрерывных сигналов
- •3.6.1.Особенности цифрового представления непрерывных сигналов. Решетчатые функции.
- •3.6.2.Особенности прохождения непрерывного сигнала в цифровых системах.
- •3.7.Энтропия
- •3.7.1.Понятие неопределенности
- •3.7.2.Энтропия и ее свойства
- •3.7.3.Дифференциальная энтропия
- •3.7.4.Фундаментальное свойство энтропии случайного процесса.
- •3.8.Количество информации
- •3.8.1.Количество информации как мера снятой неопределенности
- •3.8.2.Количество информации как мера соответствия случайных объектов
- •3.8.3.Свойства количества информации
- •3.8.4.Единицы измерения энтропии и количества информации
- •3.9.Основные результаты теории информации
- •3.9.1.Избыточность
- •3.9.2.Скорость передачи и пропускная способность
- •3.9.3.Кодирование в отсутствии шумов
- •3.9.4.Кодирование при наличии шумов
- •3.10.Контрольные вопросы
- •4.Декомпозиция и агрегирование систем
- •4.1.Модели систем как основание декомпозиции
- •4.2.Алгоритмизация процесса декомпозиции
- •4.2.1.Компромиссы между полнотой и простотой
- •4.2.2.Типы сложности
- •4.3.Алгоритм декомпозиции
- •4.4.Агрегирование, эмерджентность и внутренняя целостность систем
- •4.4.1.Эмерджентность как проявление внутренней целостности систем
- •4.4.2.Эмерджентность как результат агрегирования
- •4.5.Виды агрегирования
- •4.5.1.Конфигуратор
- •4.5.2.Агрегаты-операторы
- •4.5.3.Классификация как агрегирование
- •4.5.4.Статистики как агрегаты
- •4.5.5.Агрегаты - структуры
- •4.6.Обобщенная модель агрегата
- •4.7.Некоторые особенности моделирования процесса функционирования агрегата.
- •4.8.Агрегативные системы.
- •4.9.Контрольные вопросы
- •5.Эксперимент в анализе систем
- •5.1.Измерительные шкалы
- •5.1.1.Шкалы наименования
- •5.1.2.Порядковые шкалы
- •5.1.3.Модифицированные порядковые шкалы
- •5.1.4.Шкалы интервалов
- •5.1.5.Шкалы отношений
- •5.1.6.Шкалы разностей
- •5.1.7.Абсолютная шкала
- •5.2.Расплывчатое описание ситуаций
- •5.3.Вероятностное описание ситуаций. Статистические измерения
- •5.3.1.Понятие случайной неопределенности
- •5.3.2.О природе случайности
- •5.3.3.Статистические измерения
- •5.3.4.Регистрация экспериментальных данных и ее связь с их последующей обработкой
- •5.4.Классификационные модели
- •5.5.Числовые модели
- •5.6.Особенности протоколов наблюдений
- •5.7.Контрольные вопросы
- •6.Приложение
- •6.1.Пример структуры аис.
- •6.1.1.Краткая характеристика аис
- •6.2.Иерархическая информационно-функциональная модель (взаимосвязанные диаграммы потоков данных) аис.
- •7.Библиографический список
3.8.Количество информации
В основе всей теории информации лежит открытие, что информация допускает количественную оценку. В простейшей форме эта идея была выдвинута в 1928 г. Хартли, но завершенный и общий вид придал ей Шэннон в 1948 г. Не останавливаясь на том, как развивалось и обобщалось понятие количества информации, дадим сразу его современное толкование.
3.8.1.Количество информации как мера снятой неопределенности
Процесс получения информации можно
интерпретировать как изменение
неопределенности в результате приема
сигнала. Проиллюстрируем это на примере
достаточно простого случая, когда
передача сигнала происходит при следующих
условиях: 1) полезный (отправляемый)
сигнал xi
является последовательностью статистически
независимых символов с вероятностями
,
,
…, m; 2) принимаемый сигнал
является последовательностью символов
того же алфавита; 3) если шумы (искажения)
отсутствуют, то принимаемый сигнал
совпадает с отправляемым
; 4) если шум имеется, то его действие
приводит к тому, что данный символ может
быть либо остаться прежним (i-м), либо
быть подмененным любым другим (k-м)
символом, вероятность этого равна
;
5) искажение очередного символа является
событием, статистически независимым
от того, что произошло с предыдущими
символами.
Итак, до получения очередного символа
ситуация характеризуется неопределенностью
того, какой символ будет отправлен, т.е.
априорной энтропией Н(Х). После получения
символа
неопределенность относительно того,
какой символ был отправлен, меняется:
в случае отсутствия шума она вообще
исчезает (апостериорная энтропия равна
нулю, поскольку точно известно, что был
передан символ
),
а при наличии шума мы не можем быть
уверены, что полученный нами символ и
есть отправленный, и возникает
неопределенность, характеризуемая
апостериорной энтропией
.
Определим теперь количество информации как меру снятой неопределенности: числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропии этого объекта:
(37)
Можно показать, что
(38)
В явной форме равенство (1) запишется так:
(39)
а для равенства (38) имеем
(40)
3.8.2.Количество информации как мера соответствия случайных объектов
Этим формулам легко придать полную
симметричность: умножив и разделив
логарифмируемое выражение в (39) на
,
а в (40) на
,
сразу получим:
(41)
Эту симметрию можно интерпретировать так: количество информации в объекте X об объекте Y равно количеству информации в объекте Y об объекте X. Таким образом, количество информации является не характеристикой одного из объектов, а характеристикой их связи, соответствия между их состояниями. Следовательно, среднее количество информации, вычисляемое по (37), есть мера соответствия двух случайных объектов.
Это определение позволяет прояснить связь понятий информации и количества информации. Информация есть отражение одного объекта другим, проявляющееся в соответствии их состояний. Один объект может быть отражен с помощью нескольких других, часто какими-то лучше, чем остальными. Среднее количество информации и есть числовая характеристика степени отражения, степени соответствия. Подчеркнем, что при таком описании как отражаемый, так и отражающий объекты выступают совершенно равноправно. С одной стороны, это подчеркивает обоюдность отражения: каждый из них содержит информацию друг о друге. Это представляется естественным, поскольку отражение есть результат взаимодействия, т.е. взаимного, обоюдного изменения состояний. С другой стороны, фактически одно явление (или объект) всегда выступает как причина, другой — как следствие; это никак не учитывается при введенном количественном описании информации.
Формула (41) обобщается на непрерывные случайные величины, если в соотношения (37) и (38) вместо Н подставить дифференциальную энтропию h:
(42)
где р(х), р(у) и р(х, у) — соответствующие плотности вероятностей.
Количество информации можно определить как меру уменьшения неопределенности в результате получения сигнала. Это соответствует разности энтропии до и после приема сигнала.
Среди свойств количества информации выделяются следующие: 1) количество информации (в отличие от энтропии) имеет одинаковый смысл как для дискретных, так и для непрерывных случайных объектов; 2) при обработке данных содержащееся в них количество информации не может быть увеличено. Следовательно, обработка делается лишь для представления информации в более удобном, компактном виде и в лучшем случае без потери полезной информации