- •Тема 1. Предмет и методы теории информации и кодирования
- •1.1. Введение
- •1.2. Основные понятия и определения
- •1.3. Системы передачи информации
- •Тема 2. Математическая теория информации
- •2.1. Количество информации, и ее мера
- •2.2. Свойства количества информации
- •2.3. Энтропия информации
- •5.2. График энтропии для двух альтернативных событий
- •2.4. Свойства энтропии сообщений
- •2.5. Безусловная энтропия и ее свойства
- •2.6. Условная энтропия.
- •2.5. Энтропия объединения
- •Энтропия объединения (совместная энтропия) находится при помощи матрицы ( табл.3) путем суммирования по строкам или столбцам всех вероятностей вида
- •Уяснению взаимосвязи между рассмотренными видами энтропий дискретных систем способствует их графическое изображение.
- •Тема 3. Основы теории кодирования
- •3.1.Основные понятия и определения
- •3.2. Классификация кодов
- •3.3. Способы представления кодов
- •Тема 4. Каналы связи
- •4.1. Каналы связи, их классификация и характеристики
- •Пропускная способность дискретного канала связи
- •Дискретный канал связи без помех
- •Дискретный канал связи с помехами
- •Пример. По каналу связи передаются сообщения, вероятности которых соответственно равны:
- •Пропускная способность бинарного, симметричного канала
- •Избыточность сообщений
- •Тема 5. Оптимальное кодирование
- •5.1. Основные понятия и определения
- •5.2. Код Шеннона-Фано
- •5.3. Код Хаффмена
- •Тема 6. Помехоустойчивое кодирование
- •6.1. Общие положения
- •6.2. Обнаруживающие коды
- •Тема 7. Корректирующие коды
- •7.1. Основные понятия
- •7.2 Линейные групповые коды
- •7.3. Код хэмминга
- •Тема 8. Циклические коды
- •8.1. Операции над циклическими кодами
- •8.2. Циклические коды, исправляющие одиночную ошибку
- •Если задана длина кодовой комбинации, то число контрольных разрядов определяем по формуле
- •Так как частное q(X) имеет такую же степень, как и кодовая комбинация g(X) , то q(X) является кодовой комбинацией того же k - значного кода.
- •8.3. Матричная запись циклического кода
- •8.4. Циклические коды, обнаруживающие трехкратные ошибки
- •Тема 9. Коды боуза-чоудхури- хоквингема
- •Сигнальные символы это вспомогательные данные, облегчающие декодирование: служебные сигналы, сигналы синхронизации и т. Д.
- •Тема 10. Введение в криптологию
- •0 1 2 3 4 5 6 7 8 9 25 Ключ
- •4 7 9 2 3 5 1 6 8 Ключ
- •Функция дискретного логарифма обратная
2.2. Свойства количества информации
1. Количество информации в сообщении обратно - пропорционально вероятности появления данного сообщения.
2. Свойство аддитивности - суммарное количество информации двух источников равно сумме информации источников.
3. Для события с одним исходом количество информации равно нулю.
4. Количество информации в дискретном сообщении растет в зависимости от увеличения объема алфавита -m.
Пример 1. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны: pi0 = pi1 = 1/2.
Количество информации равно:
I = n log m = 8 log2 2 = 8 бит.
Пример 2. Определить количество информации в сообщении из 8 двоичных символов (n = 8, m = 2), если вероятности равны:
pi0 = 3/4; pi1 = 1/4.
Количество информации равно:
2.3. Энтропия информации
Энтропия - содержательность, мера неопределенности информации.
Энтропия - математическое ожидание H(x) случайной величины I(x) определенной на ансамбле {Х, р(х)}, т. е. она характеризует среднее значение количества информации, приходящееся на один символ.
.
H(xi)
Hmax 1
0
0,5 1,0 P(xi)
При m = 2 для
равновероятных событий pi
= 1/2 энтропия равна 1. Изменение
энтропии в зависимость от вероятности
события приведено на рис. 5.2. Как видно,
максимум энтропии соответствует
равновероятным событиям.
Рис.
5.2. График энтропии для двух альтернативных событий
2.4. Свойства энтропии сообщений
1. Энтропия есть величина вещественная, ограниченная, не отрицательная, непрерывная на интервале 0 p 1.
не может быть положительным, а - отрицательным.
2. Энтропия максимальна для равновероятных событий.
3. Энтропия для детерминированных событий равна нулю.
4. Энтропия системы двух альтернативных событий изменяется от 0 до 1.
5. Энтропия численно совпадает со средним количеством информации, но понятия принципиально различны, так как :
H(x) - выражает среднюю неопределенность состояния источника и является его объективной характеристикой, она может быть вычислена априорно, т. е. до получения сообщения при наличии статистики сообщений.
I(x)- определяется апостериорно, т. е. после получения сообщения. С получением информации о состоянии системы энтропия снижается.
6. Сравнительно маловероятные исходы часто без большой ошибки можно опустить.
Энтропия сложных событий Условная энтропия.
Пусть и - два независимых опыта.
Очевидно, что неопределенность опыта больше неопределенности каждого из опытов и , т.к. здесь осуществляется сразу оба опыта, каждый из которых может иметь разные исходы.
Правило сложения энтропии.
(*) док-во на стр. 88-89
Предположим, что опыты и не независимы (например, последовательное извлечение шаров из ящика). В данном случае мы не можем ожидать, что выполнится (*), т.к. в случае когда результат второго опыта полностью определяется исходом первого (условная вероятностья0. Тогда имеем, что
док-во на стр. 90-91
- условная энтропия.
Об условной энтропии говорят, когда с приходом одного символа распределение вероятности последующих символов меняется.
Очень существенно, что во всех случаях условная энтропия заключается в пределах
где - безусловная энтропия,
т.е. предварительное выполнение опыта может лишь уменьшить степень
неопределенности , но никак не увеличить.
Аналогично
В качестве меры неопределенности используется дифференциальный закон распределения, получивший название дифференциальная энтропия.
x - непрерывная аналоговая величина.
Свойства дифференциальной энтропии.
1. Дифференциальная энтропия является относительной мерой неопределенности. Ее значение зависит от масштаба случайной величины x, а следовательно, и от выбора единицы ее измерения. Дифференциальная энтропия может принимать положительные, отрицательные и нулевые значения.
2. Дифференциальная энтропия не зависит от конкретных значений случайной величины x и, в частности, от изменения всех ее значений на постоянные.