
- •Введение
- •Раздел 1 (главы 1, 2) посвящен классической теории управления.
- •Раздел 2 (главы 3 - 6) посвящен современной теории информации.
- •Глава 3 посвящена методам обработки информации на примерах адаптивной асуп и экспертной системы реального времени.
- •Глава 6 посвящена отображению и использованию информации. Раздел 1. Классическая теория информации Глава 1. Основные положения
- •1.1. Основные понятия и определения
- •1.2. Постановка задачи
- •1.3. Общая характеристика информационных процессов и систем
- •Контрольные вопросы
- •Глава 2. Транспортировка данных
- •2.1. Постановка задачи
- •2.2. Кодирование информации источника
- •2.2.1. Сжатие информации
- •2.2.2. Криптография
- •2.3. Кодирование сети
- •2.4. Компьютерная транспортировка информации
- •2.4.1. Основные понятия
- •2.4.2. Модель взаимодействия открытых систем
- •2.4.3. Повышение производительности
- •3.2. Система приема на работу
- •1. Возможно ли, достичь конечного результата (цели) на основе выбранных правил и данных (проблема выводимости).
- •2. Если возможно достижение цели, то как это сделать (проблема извлечения результата).
- •3. Как оценить достоверность результата, если исходные данные и правила не полностью достоверны (проблема достоверности).
- •Предикаты хорошо согласуются аппаратом правил. Пусть имеется правило
- •В предикатном представлении это правило имеет вид
- •Выражение (3.51) может быть представлено в виде истинности
- •1. Проблема выводимости.
- •2. Проблема извлечения результата.
- •Возьмем отрицание цели
- •3.3. Обработка информации в системах
- •Контрольные вопросы
Контрольные вопросы
1. Что такое теория, информация, теория информации?
2. В чем отличие дисциплины «теория информации» от дисциплин «информатика», «информационные технологии», «информационный процессы и системы»?
3. Определите понятия «данные», «знания».
4. Приведите характеристики информации.
5. Отобразите цикл преобразования информации.
6. Дайте определения, связанные с понятием «управление».
7. Представьте схему цикла управления.
8. Приведите схемы режимов автоматизированной системы.
9. Какие классы методов используются для математического описания информационного цикла?
Глава 2. Транспортировка данных
2.1. Постановка задачи
Процедура транспортировки информации [1] имеет два вида: традиционная связь; вычислительные сети. В параграфах 2.1 – 2.4 рассмотрим традиционную связь [2 – 6, 9], а в параграфе 2.5 – специфику компьютерной связи [7, 8].
О
бщая
схема процедуры транспортировки данных
представлена на рис. 2.1.
Данные или информация могут быть двух видов: непрерывные (аналоговые) и дискретные (цифровые).
Теория информации предназначена прежде всего для дискретной информации [1]. К тому же современной тенденцией является переход от непрерывной информации к дискретной. В силу этого основное внимание будет обращено на дискретную информацию, передаваемую сигналами.
Сигнал [3] – форма передачи информации.
Передача информации возможна традиционными средствами связи и с помощью компьютерных сетей. Обсудим первоначально связь традиционную (телеграф, телефон, радио), базируясь, прежде всего, на работе [1].
Канал связи – среда передачи информации. Он характеризуется максимальной возможностью передачи (емкость канала).
В процедуре передачи к полезному сигналу добавляется шум – помехи, действующие в канале связи.
Кодирование – преобразование дискретной информации (шифрование, сжатие, защита).
Развернем рис. 2.1 с учетом кодирования (рис. 2.2).
Эта схема определяет последующие параграфы данной главы.
Прежде чем к ним перейти, следует поговорить об измерении информации. В настоящее время принят вероятностный подход к измерению [6].
Речь идет об измерении количества информации, содержащейся в одной дискретной случайной величины (дсв) относительно другой дсв.
Для дискретной случайной величины, заданной законами распределения P(X = Xi) = pi, P(Y = Yj) = qj и совместным распределением P(X = Xi; Y = Yj) = pij , количество информации, содержащееся в X относительно Y,
I(X; Y) = pij log2(pij/(piqj)).
i;j
Очевидно выражение для собственной информации
I(X; X) = - pi log2(pi).
i
Энтропия дсв определяется так
H(X) = HX = I(X;X).
Энтропия представляет собой среднее значение количества собственной информации в сообщениях ансамбля X.
Для энтропии характерны следующие свойства.
1. I(X; Y) > 0, из I(X; Y) = 0 следует, что X и Y независимы.
Из неравенства ex-1 x логарифмированием получаем x – 1 lnx или (x - 1)/ln2 lg2x.
Тогда при pij = pipj, т.е. при независимых дсв
- I(X; Y) = pij log2((piqj)/pij) = pij (((piqj)/pij) -1)/ln2 = (piqj - pij)/ln2 =
i;j i;j i;j
piqj - pij)/ln2 = (1 - 1)/ln2 = 0
i j i;j
2. I(X; Y) = I(Y; X) следует из симметричности аргументов.
3. HX = 0, X – константа. Все члены суммы – нули, что возможно лишь при X – константе.
4. I(X; Y) = HX + HY - H(X; Y), где H(X; Y) = pij log2(pij).
i;j
Очевидно, что
pij = pi, pij = pj,
i j
HX = - pi log2(pi) = - pij log2(pi), HY = -pj log2(pj) = - pij log2(pj)
i i,j j i,j
следует
HX + HY - H(X; Y) = pij(- log2(pi) - log2(qj) + log2(pij)) = I(X; Y).
i,j
5. I(X; Y ) ≤ I(X;X). Если I(X; Y) = I(X;X), TO X – функция от Y.
HY - H(X; Y) = pij(-log2(qj) + log2(pij)) = pij log2(pij/qj).
i,j i,j
Однако pij = P(X = Xi; Y = Yj) ≤ qj = P(Y = Yj), pij/qj ≤ 1, значения логарифмов не более 0, а сумма не более 0. Если HX = I(X;X) = I(X; Y ), то для любого i величины pij равны 0 или qj. Однако из pij = P(X = Xi; Y = Yj) = P(X = Xi| Y = Yj)P(Y = Yj) {q, 0} следует, что P(X = Xi|Y = Yj) {0; 1}, а это возможно только, если X есть функция Y.
Приведем несколько числовых примеров.
Пример 2.1. В заезде участвуют 4 лошади с равными вероятностями на победу, составляющими ¼. Найти энтропию.
HX = - pi log2(pi) = - 4 ¼ log2 ¼ = 2
i
Пример 2.2. Пусть имеется переменная X для примера 2.1 с таким распределением:
P(X = 1) = ¾; P(X = 2) = 1/8; P(X = 3) = P(X = 4) = 1/16.
Фаворит – лошадь с номером 1.
HX = ¾ log24/3 + 1/8 log28 +1/8 log216 = 19/8 – ¾ log23 = 1.186 бит/симв.
Пример 2.3. Найти энтропию для X
X 1 2 3 4 5 6 7 8
p 0.1 0.2 0.1 0.05 0.1 0.05 0.3 0.1.
Тогда
HX = 4 0.1 log210 + 0.2 log25 + 0,3 log210/3 + 2 0,05 log220 =
0:9 + log25 - 0:3 log23 = 2.75 бит/симв.
Пример 2.4. Пусть дсв X есть количество очков, выпадающей на игральной кости, а дсв Y является нулем, выпадает нечетное количество очков, и единица, если количество очков четно. Найти I(X; Y) I I(Y; Y).
Тогда pi = P(X = i) = 1/6 при i = 1, 6 и qj = P(Y = j) при j= 0, 1.
Пусть совместное распределение
X 1 3 5 2 4 6 |1 3 5 2 4 6
Y 0 0 0 1 1 1 |1 1 1 0 0 0
p 1/6 | 0
Тогда
I(X; Y) = pij log2(pij/(piqj)) = 6 1/6 log22 = 1 бит/симв.
i;j
I(Y; Y) = qj log2(qj)) = 2 1/2 log22 = 1 бит/симв.
j
I(X; X) = pi log2(pi)) = 6 1/6 log26 = 1 + log23 = 2.58 бит/симв.
i
Из I(X; Y) = I(Y; Y) и пятого свойства информации следует, что информация об X полностью определяет Y, поскольку I(X; Y) I(X; X). Y функционально зависит от X, а X от Y функционально не зависит.
Можно определить I(X; Y) через энтропию.
H(X; Y ) = - pij log2 pij = log2 6 = 1 + log2 3 = HX,
i;j
I(X; Y ) = HX + HY - HX = HY = 1 бит/симв.
Таким образом, энтропия – минимум среднего количества бит, которое нужно передавать по каналу связи о текущем состоянии дсв.
Несколько слов о семантике (смысле) информации. В общем случае теория Шеннона не имеет отношения к семантике. Однако принимались неоднократные попытки использования статистической теории для измерения смысла. Одной из таких мер является функция
in f(s) = - log2 p(s)
где s – предложение (естественного языка), смысл которого измеряется, p(s) – вероятность истинности s.
Эта мера обладает следующими свойствами.
1. Если (s1 следует s2) истинно, то inf(s1) inf(s2).
2. inf(s) 0.
3. Если s - истинно, то inf(s) = 0.
4.Из inf(s1s2) = inf(s1) + inf(s2) следует p(s1 s2) = p(s1)p(s2), т.е. s1 и s2 независимы.
Из s1 > «a > 3» и s2 = «a = 7» следует, что inf(s2) > inf(s1) или что s2 исключает больше возможностей, чем s1.
Возможно использовать меру cont(s) = 1 - p(s). Иначе говоря cont(s) = 1 – 2-inf(s) или in f(s) = - log2(1 - cont(s)).