
- •В.П. Иосифов
- •А.М. Макаров
- •Введение
- •1. Основные понятия информационных процессов и систем
- •1.1. Общие понятия информационных процессов
- •1.2. Основные понятия теории систем
- •1.4. Классификация систем
- •2. Основы теории информации
- •2.1. Сигналы и системы передачи информации
- •2.2. Параметры сигнала
- •2.3. Энтропия дискретного сигнала. Количество информации
- •2.4. Свойства энтропии дискретных сообщений
- •2.5. Энтропия непрерывных сообщений
- •2.6. Информационный канал, пропускная способность канала
- •3. Элементы теории кодирования информации
- •3.1. Алфавитное кодирование информации
- •3.2. Критерий взаимной однозначности алфавитного кодирования
- •3.3. Эффективное кодирование, избыточность сообщений
- •3.4. Метод Хаффмана
- •3.5. Основы помехоустойчивого кодирования
- •3.6. Линейные блочные коды. Код с проверкой на четность, итеративный код
- •3.7. Код Хемминга
- •3.8. Алгоритмы сжатия информации
- •4. Модели систем с использованием случайных процессов
- •4.1. Марковские случайные процессы, классификация
- •4.2. Марковские цепи
- •4.3. Непрерывные цепи Маркова, уравнение Колмогорова
- •4.4. Система гибели и размножения
- •5. Системы массового обслуживания
- •5.1. Компоненты и классификация моделей массового обслуживания
- •5.2. Одноканальная смо с отказами
- •5.3. Одноканальная смо с ожиданием и ограниченной очередью
- •5.4. Одноканальная смо с ожиданием и неограниченной очередью
- •5.5. Многоканальная смо с отказами
- •5.6. Многоканальная смо с ожиданием
- •6. Основы теории принятия решений
- •6.1. Современные методы принятия решений
- •6.2. Принятие решений в условиях неопределенности
- •6.3. Критерии принятия решений в условиях неопределенности
- •Литература
2.3. Энтропия дискретного сигнала. Количество информации
В связи с тем, что случайные процессы являются адекватной моделью сигналов, имеется возможность воспользоваться результатами и мощным аппаратом теории случайных процессов. Кроме того, некоторые типы непрерывных сигналов допускают дискретное представление, поэтому задача упрощается, сведением к рассмотрению случайных величин. Это не означает, что теория вероятностей и теория случайных процессов дают готовые ответы на все вопросы о сигналах: подход с новых позиций выдвигает такие вопросы, которые раньше просто не возникали. Так и родилась теория информации, специально рассматривающая сигнальную специфику случайных процессов. Первым специфическим понятием теории информации является понятие неопределенности случайного объекта, для которой удалось ввести количественную меру, названную энтропией. Начнем с простейшего варианта – со случайного события. Пусть, например, некоторое событие может произойти с вероятностью 0,99 и не произойти с вероятностью 0,01, а другое событие имеет вероятности соответственно 0,5 и 0,5. Очевидно, что в первом случае результатом опыта «почти наверняка» является наступление события, во втором же случае неопределенность исхода так велика, что от прогноза разумнее воздержаться. Для характеристики размытости распределений широко используется второй центральный момент (дисперсия) или доверительный интервал. Однако эти величины имеют смысл лишь для случайных числовых величин и не могут применяться к случайным объектам, состояния которых различаются качественно, хотя и в этом случае можно говорить о большей или меньшей неопределенности исхода опыта. Следовательно, мера неопределенности, связанной с распределением, должна быть некоторой его числовой характеристикой, функционалом от распределения, никак не связанным с тем, в какой шкале измеряются реализации случайного объекта.
Пусть в системе передачи информации используется сигнал, информативный параметр которого X принимает конечное или счетное множество значений. До получения сигнала адресату неизвестно, какое сообщение поступит. Количество информации, которое получает адресат, некоторым образом связано с неопределенностью ситуации зависящей, в конечном счете, от числа возможных сообщений.
Пример: 1) Сообщение из которого можно узнать, какая команда выиграла в интересующем нас матче. 2) Сообщение, из которого можно узнать, с каким счетом сыграли команды. Неопределенность (1) сообщения выражается числом равным 3, неопределенность (2) сообщения выражается гораздо большим числом альтернатив. Первое сообщение содержит меньше информации. Т.е. чем больше число возможных сообщений (число возможных значений сигнала), тем большая неопределенность и тем большее количество информации получает адресат, когда эта неопределенность снимается. Впервые количественная оценка неопределенности была введена американским инженером Р. Хартли в 1928 году. Степень неопределенности опыта X с m различными исходами он предложил характеризовать числом:
H(X) = log m.
В этой оценке неопределенности не учтены вероятности различных исходов. Дальнейшее развитие понятие неопределенности получило в работах К. Шеннона. Формула Хартли справедлива, когда вероятность любого исхода p = 1/m, тогда H(X) = - log p. Шеннон применил эту формулу к разновероятным исходам. Для опыта X = {x1, x2, …, xm}, где x1, x2, …, xm – возможные исходы с вероятностями p1, p2, …, pm. Вероятность каждого исхода:
- log p1, - log p2, ..., - log pm.
Математическое ожидание:
как мера неопределенности, получило название – энтропия.
Количество информации – мера снятой неопределенности в процессе получения сигнала адресатом. Предположим, что априорно ситуация характеризовалась энтропией H1, после получения сигнала, энтропия уменьшилась до H2, тогда количество информации, полученное адресатом, составит: I = H1 - H2. Основание логарифма может быть выбрано любым, на практике, чаще всего используется основание 2, т.е.
Единица измерения, используемая для количественной оценки энтропии, называется бит.
Пример:
X |
x1 |
x2 |
p |
0,5 |
0,5 |
бит