
- •Варжапетян а.Г. Исследование систем управления. Учебное пособие
- •Список условных обозначений
- •В 2. Структура учебного пособия.
- •В 3 Организация методической поддержки
- •Глава 1. Информационные технологии исследования и проектирования систем
- •Очерки информационной технологии
- •Информационные аспекты при проектировании рэс
- •Материя
- •Отражение
- •1.3 Количественная оценка характеристик информации
- •1.4 Информационные аспекты управления
- •Контрольные вопросы
- •1. Дайте определение понятию информационная технология.
- •Глава 2 основы системного подхода при проектировании рэс
- •2.1 Иерархия системности и сферы взаимодействия
- •2.1.1 Появление системных концепций
- •Иерархия системности
- •2. 1. 3 Сферы взаимодействия
- •2.2 Классификация систем
- •2.2.1 Объект и предмет исследования и проектирования
- •2.2.2 Классификация системы
- •2.3 Свойства систем и принципы системного подхода
- •2.3.1 Свойства систем
- •2.3.2. Принципы системного подхода
- •Принцип целеобусловленности
- •3. Принцип управляемости
- •6. Принцип симбиозности
- •Контрольные вопросы
- •Глава 3. Моделирование – инструмент исследования и проектирования систем
- •3.1 Классификация моделей
- •3.2 Математические модели
- •3.2.1 Понятие математической модели
- •3.2.2. Непрерывно-вероятностные модели
- •3.3 Имитационное моделирование
- •3.3.1 Понятия имитационного моделирования
- •3.3.2 Способы имитации при создании квазипараллелизма
- •Реальная система
- •3.3.3 Пример построения моделирующего алгоритма на основе событийного способа имитации
- •3.4 Методы имитации на эвм случайных элементов
- •Раздел 3.4. Посвящен именно этим актуальным задачам имитации случайных элементов.
- •3.4.1 Принципы моделирования случайных элементов
- •3.4.1 Методы имитации бсв а. Типы датчиков бсв
- •Мультипликативный конгруэнтный метод (метод вычетов)
- •3. Метод, использующий нелинейные рекуррентные формулы.
- •4. Метод Макларена-Марсальи.
- •5. Метод, основанный на свойстве воспроизводимости равномерного закона.
- •3.5 Оценка адекватности им
- •Контрольные вопросы к 3 главе.
- •Глава 4. Программные комплексы имитационного моделирования
- •4.1 Общая характеристика языков программирования
- •4.2 Сравнение языка gpss/ h с другими версиями gpss
- •4.3 Принципы построения gpss/h
- •4.3.1 Категории и типы объектов
- •4.3.2 Правила трансляции
- •4.3.3 Вычислительные возможности
- •4.3.4. Операторы блоков
- •Выбор объектов, удовлетворяющих заданному условию.
- •4.3.5 Операторы управления и описания
- •А. Операторы управления а.1 Основные операторы управления
- •Б. Операторы описания
- •Б1. Основные операторы описания
- •Б2. Вновь введённые операторы
- •4.4 Принципы работы с моделью
- •4.4.1 Запуск модели
- •4.4.2 Комментарий к выходному отчёту
- •4.4.3 Отладчик (дебаггер ) языка
- •4.4.4 Примеры применения языка
- •Контрольные вопросы к главе 4
- •Глава 5 Информационные технологии исследования и принятия решений
- •5.1 Прогнозирование поведения исследуемых систем
- •5.2 Методы принятия решения а. Общие положения
- •6.3 Интеллектуальные экспертные системы
- •Контрольные вопросы к главе 6
- •Глава 1 Информационные технологии в исследовании
- •Глава 2 Основы системного подхода при проектировании су
- •Глава 3 Имитационное моделирование - инструмент исследования и проектирования су
- •Глава 4 Программные комплексы имитационного моделирования
- •Глава 5 Информационные технологии прогнозирования
1.3 Количественная оценка характеристик информации
Задача оценки информационных свойств системы и её структурных компонент является одной из самых сложных при исследовании систем из-за необходимости учёта как качественных, так и количественных характеристик информации. Причём, в большинстве случаев приходится решать задачу извлечения полезной для целей исследования информации из общего объёма имеющейся в наличии. Становлению теории информации как науки способствовали работы А.Н.Колмогорова, В.А.Котельникова, К.Шеннона, Дж. Хартли и других. Процесс извлечения и уяснения информации связан с процессом поиска и сравнения образа с эталонным образом или аналогом, хранящимся в памяти системы. Под образом (ситуацией) будем понимать отражение системы в одной из сфер среды, её окружающей. Тогда проблема, решаемая системой проецируется последовательно в разные сферы с целью выяснения, какие образы там возникают и насколько они важны для решения проблемы в целом (подробнее см. гл. 2). В свете сказанного, информация, получаемая системой есть то, что извлекается из образа в процессе его восприятия системой [ 13], тогда:
X
Y
S
Обозначим Y = f(X)
Где некоторый объект, отображающийся в систему S в виде образа Y.
Извлекая информацию из образа Y, система S делает обратное внутреннее отображение, создавая информационную копию Z объекта X, т.е.
Z = U ( Y )
При такой трактовке информация может существовать на физическом и идеальном уровнях. Так, принятая системой информация может быть на физическом уровне не понята и не извлечена системой, процесс уяснения информации (антиредукция) переводит её в сферу идеального, где она используется непосредственно для решения задач. Естественно, что существует и прямой путь получения информации непосредственно из сферы идеального с последующей редукцией в случае необходимости на физический уровень. В процессе получения информации имеет место неопределённость, и при принятии решения выводы делаются в интервале неопределённость - риск - определённость, при постепенном снятии неопределённости. Под уровнем неопределенности будем понимать показатель, характеризующий оставшуюся неопределённость. После того как вся существующая информация будет принята во внимание. Таким образом, уровень неопределённости выражается вероятностью, приписываемой исходам события, и имеет место тогда, когда нужно произвести выбор из совокупности возможных исходов. Формально уровень неопределённости с n дискретными исходами оцениваемых вероятностью рk определится как:
Hs
= -
(1.1)
Для простого события, которое оценивается двумя несовместимыми событиями р, q = 1- р в случае равенства исходов p = q = l/2, Hs приобретает максимальное значение (рис. 1.3)
Рис. 1.3 Зависимость неопределённости в случае двух исходов
Когда исход определён, Hs = 0.
Таким образом, уровень неопределённости можно связать с информацией о событии, которая где-либо имеется. Связывая неопределённость с информацией можно утверждать, что в случае двоичного кода максимальная неопределённость равна одной двоичной единице информации или одному биту. К. Шенноном введено понятие энтропии, оцениваемой математическим ожиданием случайной величины информации, содержащейся в сигнале. Такая информация носит название собственной. Введённое понятие энтропии как меры неопределённости не путать с понятием энтропии в других областях знания:
-в термодинамике это мера необратимого рассеяния и энтропия равна нулю при нуле по Кельвину,
- в статистической физике это мера вероятности осуществления состояния.
Далее в тексте будем придерживаться энтропийных оценок по Шеннону. Иллюстрация снятия неопределённости дана на рис. 1.4
Рис. 1.4 Уровни неопределённости
Для остающейся неопределённости всегда справедливо неравенство Hs < Н где Н - начальная неопределённость, а H0 -конечная после проведения оценки Н - Hs характеризует максимальный объём информации, который может быть получен,
Н – Н0 объём новых знаний или информация о сигнале
Н0 – Hs объём недостающих знаний.
Ошибки могут быть вызваны рядом причин, среди которых можно назвать несовершенство источника информации , её двусмысленность, погрешности приёмника сигнала и алгоритма обработки и т.д. Необходимо также отметить, что в ряде случаев поступление дополнительной информации может не снизить, а повысить неопределённость. Теперь перейдём к определению количественных мер информации. Возможны три подхода к определению количества информации: комбинаторный, вероятностный и алгоритмический. В основе большинства используемых количественных мер лежит принцип разнообразия, в соответствии с которым считается, что количество информации об объекте Х тем больше, чем выше разнообразие его характеристик и чем полнее и точнее определяются характеристики системой S. [18] Вероятностная мера Шеннона определяется выражением
I = H(X) – H0(X)
где Н(Х) исходная, априорная неопределённость характеристики объекта, Н0(Х)- апостериорная неопределённость этой характеристики. В случае дискретной характеристики объекта
1.2
где Pk, Pk0 - соответственно вероятности k-го значения характеристики объекта до приёма и преобразования образа объекта.
Комбинаторная мера Хартли определяется выражениями
или
где mk - число возможных состояний по k-му значению характеристики образа. Обе эти меры тесным образом связаны между собой. Алгоритмическая мера информации связана с представлением о минимальной длине программы, с помощью которой осуществляется извлечение информации из сигнала. Характеристики информация при её практическом использовании можно разделить на три основные группы:
1. По отношению к получателю, характеризующаяся значимостью и интенсивностью
2. По отношению к источнику, характеризующаяся существенностью для функционирования системы .
3 . По отношению к самой себе (внутреннее качество информации), характеризующаяся достоверностью и количеством.
Значимость характеризует степень достижения целей системой получателем и оценивается из выражения:
U
= -
(1.3)
где
U
(x)
мера значимости
некоторого состояния х
X. Интенсивность
поступления информации определяет
нагрузочную характеристику системы и
ценность информации (при
редких сообщениях ценность может
снизиться
). В процессе
оперативного управления при
умеренной интенсивности потока информации
(0,2 - 5 бит/сек
) человек обычно
определяет как более важную ту информацию,
которая поступает чаще, за исключением
единичных,
но обладающих высшим приоритетом
сообщений.
Достоверность
информации,
получаемой системой S,
зависит, прежде всего, от соответствия
состояния приёмника
(образа источника
в нём)
y
Y
состоянию
источника х
Х и от правильности
формирования идеального прообраза z
Z,
тогда
I
(x,y)=
Отметим, что количественная оценка достоверности теперь выражена через условные вероятности того, что наблюдаемый образ y соответствует оригиналу х с учётом I ( х, у).
Прежде чем определить понятие максимума полезной информации рассмотрим возможные варианты между поступаемым на объект сигналом и состоянием самого объекта:
- в случае получения достоверного и своевременного сигнала объектом, находящимся в состоянии отказа, объект не может произвести никаких полезных действий;
- точно такая же ситуация возникнет в случае получения исправным объектом зашумленного и искажённого сигнала;
- очевидно, что в рассмотрении должны участвовать работоспособный объект (см. гл. 2) и сигнал, из которого можно выделить полезную составляющую.
Информационные обмены предусматривают достаточный уровень согласованности между сигналами управления, целями и ресурсами систем, выражаемый принципом координации. Принцип координации приводит к принципу максимума полезной информации, генерируемой системой в течение одного полного технологического цикла:
I
max
при
I0
=
const
,
IТ
=
const
где I - объём генерируемой полезной информации, I0- объём перерабатываемой в процессе генерации информации, IТ - объём материализованной в данной системе информации. Приведём выражение, связывающее объём выходной информации с объёмом информации, перерабатываемой в процессе выполнения технологического цикла:
exp
=
exp
+
1.4
где
-
среднеквадратичная погрешность
фиксации выходной переменной у,
обусловленная неопределённостью
неконтролируемых компонент вектора
входных переменных х,
n - число
управляемых компонент вектора х,
Ik
-
объём информации, перерабатываемой
системой относительно
k-ой компоненты
вектора х
:
Ik
= ln
-
среднеквадратические погрешности
фиксации
k-ой
компоненты
вектора х
в начальный момент и в текущий
соответственно,
hk
=
где
у
- выходная координата системы хk
X.
Уравнение информационных обменов может быть представлено в более удобном виде:
exp
=
(1.5)
С учётом (1.5) принцип максимума полезной информации может быть записан в виде:
exp
=
Решение этой системы позволяет определить оптимальные значения информационных переменных Ik, а значит и оптимально необходимые уровни неопределённости фиксации переменных хk
+
ln hk
-
hk
ln
hk
(1.6)
Для величины I будет справедливо:
exp
= exp
Поведение
величины
I при I
показано на рис.
1.5. Из рисунка
видно, что
величина объёма полезной информации
стремится к конечному пределу, т.е.
очевидно, что при достаточно большом
объёме информации I0
его дальнейшее увеличение нецелесообразно.
Рис.1.5.Поведение
при
Ограничимся изложенным, и вопросы кодирования, оценки энтропии непрерывных сообщений, скорости передачи, пропускной способности канала, избыточности информации оставим для специальных курсов.
Заключая этот раздел , сделаем следующие выводы:
1. Мерой информации является вероятностная оценка неопределённости.
2. Количество информации неотрицательно и стремится к конечному пределу.
3 Информация должна обладать характеристиками, позволяющими ЛПР принимать управляющие решения