- •Министерство образования и науки Российской Федерации
- •Введение
- •1 Определение информации
- •2 Этапы обращения информации
- •3Измерение информации
- •4 Информационные системы
- •5 Проблемы передачи информации
- •6 Предмет теории информации
- •7 Структура книги
- •1 Количественная оценка информации источников
- •1.1 Дискретный источник
- •1.1.1 Определение меры оценки количества информации
- •1.1.2 Частная взаимная информация дискретных источников сообщений
- •1.1.3 Энтропия дискретного сообщения
- •1.1.4 Условная энтропия дискретных сообщений
- •1.1.5 Энтропия объединенного сообщения
- •1.1.6 Средняя взаимная информация дискретных источников сообщений
- •1.2 Непрерывный источник
- •1.2.1 Собственная информация и энтропия
- •1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
- •1.2.3 Средняя взаимная информация непрерывных источников сообщений
- •1.2.4 Эпсилон-энтропия непрерывных источников сообщений
- •2 Кодирование сообщений источников
- •2.1 Модели дискретных источников сообщений
- •2.2.Общие принципы и основная теорема кодирования дискретных источников сообщений
- •Теорема (о средней длине кодового слова)
- •2.3 Методы эффективного кодирования
- •2.3.1 Метод кодирования источников ШеннонаФано
- •2.3.2 Метод кодирования источников Хаффмена
- •2.4 Предельная условная энтропия дискретных источников сообщений
- •2.5 Информативность непрерывных источников сообщений дискретного времени
- •2.6 Средняя взаимная информация непрерывных источников сообщений непрерывного времени
- •2.7 Квазиобратимое эффективное кодирование непрерывных источников
- •2.8 Эпсилон-энтропия Гауссовского вектора сообщений
- •2.9 Эпсилон - энтропия стационарного Гауссовского процесса дискретного времени
- •Теорема.
- •Помехоустойчивое кодирование
- •3.1.1 Методы повышения верности передачи информации
- •3.1.2 Понятие о корректирующих кодах
- •3.2.1 Построение линейных кодов
- •3.2.2 Обнаружение и исправление ошибок. Декодирующее устройство
- •3.2.3 Примеры линейных кодов
- •3.3 Циклические коды
- •3.3.1 Выбор образующего многочлена
- •3.3.2 Базис циклического кода, формирование кодовых комбинаций
- •3.4 Синдром циклического кода и его свойства
- •3.5 Коды боуза - чоудхури - хоквингема
- •3.6 Коды Абрамсона
- •3.7 Коды Рида — Соломона
- •3.8 Понятие об итерактивных и каскадных кодах
- •3.9 Понятие о непрерывных кодах
- •3.9.1 Цепной код
- •3.9.2 Сверточные коды
- •4 Модели каналов связи
- •4.1 Непрерывный канал
- •Примеры непрерывных каналов:
- •На рис. 4.4 применены следующие обозначения:
- •4.2 Дискретный канал
- •Библиографический список
- •Оглавление
1.2 Непрерывный источник
1.2.1 Собственная информация и энтропия
Рассмотрим источник информации с множеством возможных состояний - непрерывный источник (пример: источник телефонного сигнала, телевизионного и т.д.).
При получении оценки неопределенности выбора конкретного значения такого непрерывного источника имеются следующие особенности (по сравнению с дискрет-ным источником)[1]:
источник выдает значения, сколь угодно мало отличающиеся друг от друга, т.е. эти значения есть непрерывные величины;
вероятность конкретного значения в какой-то мгновенный момент времени стремится к нулю, поэтому вероятность нельзя использовать для оценки меры неопределенности источника.
Рассмотрим представление непрерывной величины Хкак предельный случай дискретной величиныxi(рис.1.5). При этом весь диапазон изменения непрерывной случайной величиных, будет характеризоваться плотностью распределенияW(x).

Рис.1.5Представление непрерывной величины х,
как предельный случай дискретной величины x
Разобьем
диапазон изменения непрерывной случайной
величины х, характе-ризующейся плотностью
распределенияW(x)на конечное число
“n” маленьких интервалов ширинойx. При этом, если
значения непрерывной величины попадает
в интервал(xi ,xi+x),
то считается, что дискретный источникXвыдаёт дискретную случайную величинуxi , i=1,n. Поскольку
интервалxмал,
то вероятностьp(xixxi+x)=

Тогда дискретный источник Xможно описать матрицей
,
где p(x1), p(x2), ..., p(xn)- вероятность попадания непрерывной случайной величины соответственно в интервал 1-й, 2-й,..., n-й;
x=- погрешность представления непрерывной величиныхее дискретным значением в i-й момент времени, практически это погрешность измерения непрерывной величиных.
По аналогии с дискретным источником энтропию источника Xможно определить следующим образом:
![]()
Так как
,
аlogx=const:
.
По мере уменьшения интервала дискретизации xвероятность P(xi) приближается к нулю, а свойства дискретной величиныxiX - к свойствам непрерывной величины х.
Переходя к пределу при x0, получаем
,
(1.15)
Первый член в выражении (1.15) называется дифференциальной энтропией непрерывного источника сообщений
. (1.16)
Физическиий смысл - среднее количество информации, определяемое относительно шкалы измерения, начало которой находится в точке +, характеризует информационное содержание закона распределения.
Собственная информация непрерывного источника, по аналогии со случаем дискретного источника, определяется по формуле
.
(1.17)
|
Пример. Определить энтропию непрерывного источника Х с плотностью распределения (равномерный закон) .
С погрешностью
измерения случайной величины По формуле
(1.15), учитывая, что при заданной
погрешности измерения
|
|
|
1.2.2 Основные свойства дифференциальной энтропии непрерывного источника
1. Если “m” не случайная, постоянная
величина, то дифференциальная энтропия
не зависит от математического ожидания
сообщения
![]()
2. Дифференциальная энтропия не ограничена “снизу”
3. Значение дифференциальной энтропии непрерывного источника зависит от масштаба измерения случайной величины.
Рассмотрим передачу сообщений источника Х (рис.1.6) через систему с коэффициентом передачи K (усиление).

Рис.1.6Изменение масштаба измерения
непрерывной случайной величины

![]()
4. Если непрерывный источник Х имеет Гауссовское распределение непрерывных сообщений (нормальный источник)
Wn(X)=
,
где
- средняя мощность (дисперсия), то
дифференциальная энтропия имеет вид

,
гдеXn -нормальное
распределение.
5. Если произвольный источник Х и
нормальный источник обладают одинаковой
средней мощностью
,
то всегда имеет место следующее
неравенство:
.
