
- •1. Понятие информации
- •1.1. Предмет, место и роль теории информации и передачи сигналов
- •1.2. Предмет и метод теории информации
- •1.3. Этапы обращения информации
- •1.4. Типовая структурная схема информационной системы. Разновидности информационных систем
- •1.5. Виды информации
- •1.6. Структура информации
- •1.7. Устранение избыточности информации
- •2. Измерение информации
- •2.1. Структурные меры информации
- •2.1.1. Геометрическая мера
- •2.1.2. Комбинаторная мера
- •2.1.3. Аддитивная мера информации
- •2.2. Статистические меры информации
- •2.2.1. Вероятность и информация
- •Двоичные однопредметные явления
- •Двоичные двухпредметные явления
- •Понятие энтропии
- •Энтропия ансамбля
- •Энтропия объединения
- •Количество информации и избыточность
- •2.3. Семантические меры информации
- •2.4. Другие меры полезности информации
- •2.4.1. Энтропия, шум и тезаурус
- •3. Информационные характеристики источника сообщений и канала связи
- •3.1. Основные понятия и определения
- •3.2. Информационные характеристики источника дискретных сообщений
- •3.2.1. Модели источника дискретных сообщений
- •3.2.2. Свойства эргодических последовательностей знаков
- •3.2.3. Избыточность
- •3.2.4. Производительность источника дискретных сообщений
- •3.3. Информационные характеристики дискретных каналов связи
- •3.3.1. Модели дискретных каналов
- •3.3.2. Скорость передачи информации по дискретному каналу
- •3.3.3. Пропускная способность дискретного канала без помех
- •3.3.4. Основная теорема Шеннона о кодировании для дискретного канала без помех
- •3.3.5. Пропускная способность дискретного канала с помехами
- •3.3.6. Основная теорема Шеннона о кодировании для дискретного канала с помехами
- •3.4. Информационные характеристики источника непрерывных сообщений
- •3.5. Информационные характеристики непрерывных каналов связи
- •3.5.1. Модели непрерывных каналов связи
- •3.5.2. Скорость передачи информации по непрерывному каналу
3.4. Информационные характеристики источника непрерывных сообщений
Эпсилон-производительность непрерывного источника сообщений. Под конкретным непрерывным сообщением ZT(t) подразумевают некоторую реализацию случайного процесса длительностью Т. Источник непрерывных сообщений характеризуется ансамблем его реализаций.
Под -производительностью источника непрерывных сообщений H(z) понимают минимальное количество информации, которое необходимо создать источнику в единицу времени, чтобы любую реализацию ZT(t) можно было воспроизвести с заданной вероятностью .
Допустим, что ZT(t) воспроизводится реализацией UT(t). Наблюдаемые реализации следует рассматривать как сигналы, обладающие ограниченным, хотя возможно и достаточно широким спектром F.
При достаточно большой длительности Т как ZT(t), так и UT(t) могут быть представлены N-мерными (N=2FT) векторами (z1,z2,…,zN) и (u1,u2,…,uN), координатами которых являются отсчёты. Ансамбли сообщений { ZT(t) } и воспроизводящих сигналов { UT(t) } характеризуют при этом N-мерными случайными векторами Z и U, составляющими которых являются соответственно случайные величины Z1,Z2,…,ZN и U1,U2,…,UN. Статистическое описание каждого из ансамблей задаётся N-мерными плотностями распределения вероятностей p(Z)=p(z1,z2,…,zN) и p(U)=p(u1,u2,…,uN). Связь между ансамблями отражает условные плотности распределений pu(Z)=p(z1,z2,…,zN/u1,u2,…,uN) и pz(U)=p(u1,u2,…,uN/ z1,z2,…,zN), а также совместную плотность распределения вероятностей p(Z,U)=p(z1,z2,…,zN; ;u1,u2,…,uN).
Тогда
,
(63)
где интегралы N-мерные.
Используем среднеквадратический критерий верности (Z,U), который имеет вид:
,
(64)
где (Z,U)ZU представляет собой квадрат расстояния l(Z,U) в N-мерном евклидовом пространстве.
Количество информации, приходящееся в среднем на один отсчёт дискретизированных сигналов ZT(t) и UT(t), определяется выражением.
.
(65)
Тогда в соответствии с определением для -пропорциональности источника непрерывных сообщений H(Z) запишем
.
(66)
При
выполнении условия
.
Величина v характеризует скорость формирования источником отчётов (v=2F).
Возможности
воспроизведения любого сообщения
с
заданной верностью можно дать
геометрическое толкование. Поскольку
все реализации эргодического процесса
достаточно большой длительности являются
типичными и обладают практически одной
и той же средней мощностью , концы
соответствующих им векторов в N‑мерном
пространстве сообщений составляют
непрерывное множество точек, равноудалённых
от начала координат (гиперсферу).
Конечное
подмножество воспроизводящих сигналов
размещается
в центрах правильных непересекающихся
сферических N‑угольников
(-областей),
на которые гиперсфера разбивается без
промежутков. Размеры -областей
определены заданной верностью
воспроизведения сообщений. Если
источником реализуется сообщение
,конец вектора
которого должен
попасть в -область
сигнала
,то воспроизводится
сигнал
.
Следует отметить, что заданная верность воспроизведения будет достигнута с вероятностью, близкой к единице, только при достаточно большой длительности сообщений, когда погрешностью от замены непрерывных реализаций последовательностями отчётов можно будет пренебречь. Для уменьшения указанной погрешности при ограниченной длительности сообщений Т необходимо увеличивать число отчётов N. В пределе при N получим непрерывные реализации.
В вычислении -производительности источника и геометрическом толковании возможности воспроизведения сообщений с заданной верностью принципиально ничего не изменяется. Следует лишь учесть, то N-мерное евклидово пространство сообщений становится гильбертовым, и мерой близости двух сигналов должно быть расстояние в этом пространстве.