![](/user_photo/2706_HbeT2.jpg)
- •Глава 4 Информационные процессы и сигналы
- •4.1. Общая схема передачи информации в линии связи
- •4.2. Модели сигналов
- •Модуляция гармонических сигналов
- •Квантование по уровню
- •Квантование по времени
- •Т еорема в.А. Котельникова
- •4.3. Передача информации по каналу связи без учета помех Пропускная способность дискретного канала связи без помех
- •Скорость передачи информации по дискретному каналу без помех
- •Эффективное статистическое кодирование сообщений. Теорема Шеннона для каналов без помех
- •Теоремы побуквенного неравномерного двоичного кодирования
- •Прямая теорема
- •Обратная теорема
- •4.4. Передача информации по каналу с помехами
- •Понятие о канальной матрице
- •Пропускная способность бинарного симметричного канала с помехами типа «инверсия»
- •Пропускная способность симметричного канала со стиранием
- •Теорема Шеннона для дискретного канала с помехами
- •Пропускная способность непрерывного канала связи с помехами
- •Теорема Шеннона для непрерывных каналов с помехами
- •Вопросы и задачи к главе 4
Теоремы побуквенного неравномерного двоичного кодирования
Прямая теорема
Для алфавита X ={x, p(x)}с энтропиейHсуществует побуквенный неравномерный префиксный двоичный код со средней длиной кодовых словK ≤ H +1.
Обратная теорема
Для любого однозначно декодируемого двоичного кода алфавита X={x, p(x)}с энтропиейHсредняя длина кодовых словKудовлетворяет неравенствуK ≥ H.
С помощью теорем побуквенного кодирования можно дать оценку возможной средней длины неравномерного кода.
H ≤ K ≤ H+1(4.7)
Первая теорема гарантирует, что при любых самых неблагоприятных статистических характеристиках источника сообщений можно построить неравномерный код длины не больше чем H+1. Вторая теорема говорит о том, что даже при самых «удачных» вероятностях символов первичного алфавита нельзя построить код средней длиной меньшеН. Из этих же теорем вытекает оценка общей эффективности кода:КОЭ ≤ 1.
4.4. Передача информации по каналу с помехами
До сих пор мы предполагали, что информация, поступившая от кодера/передатчика в канал связи в точности соответствует информации, принятой приемником/декодером из канала. Наличие помех в канале связи приводит к тому, что часть информации при перемещении по каналу теряется, искажается, зашумляется. Информация, принятая приемником, не полностью снимает неопределенность относительно переданной источником, хотя и уменьшает ее. Если на вход канала связи поступил сигнал u, а с выхода канала принят сигналv, то говорят овзаимной информацииI(u,v).
Термин используется, когда при приеме сообщений действуют помехи. Помехи в канале характеризуются своей условной энтропией.
Взаимной (полезной) информациеймежду сообщениямиuиvназывается величина I(u,v), определяемая соотношением:
I(u,v) = H(u) – H(u|v), в которомH(u) является энтропией источника информации, аH(u|v) представляет собой потерю информации, принимаемой от источника, обусловленную воздействием помех на передаваемое сообщение.
Используя зависимость (3.11), можно записать иначе:
I(u,v) = H(u) – H(u|v) = H(u) – (H(u,v) – H(v)) = H(u) + H(v) – H(u,v) =
= H(u) + H(v) – (H(u) + H(v|u)) = H(v) – H(v|u)
То есть взаимная информация симметрична:
I(u,v) = H(u) – H(u|v) = H(v) – H(v|u) (4.8)
В формуле (4.8):
H(u) – априорная энтропия источника сообщения;
H(u|v)– апостериорная энтропия, которая учитывает утечку информации при передаче из-за разрушения ее помехами. Иначе называетсяненадежностьканала;
H(v) – энтропия приемника (выхода) канала;
H(v|u)– характеризует постороннюю информацию, вносимую помехами. Называетсяэнтропия шума.
Формулу (4.8) можно проиллюстрировать следующей схемой.
Пусть передатчик сигнала оперирует алфавитом Nu, порождая сигналыui, а приемник сигнала обладает алфавитомNvи воспринимает сигналыvi. Тогда по формуле (3.8):
, (4.9)
а по формуле (3.10):
(4.10)
А информация, перемещаемая по каналу связи, определяется в соответствии с формулой (4.8):
(4.11)
Рассмотрим два крайних
случая. Первый случай – абсолютно
зашумленный канал, то есть выходной
сигнал абсолютно не зависит от входного
(обрыв связи). При этом в силу независимости
сигналов P(vj|ui)=P(vj).Подставив это в формулу (4.11), поменяв
порядок суммирования и учтя, что,
получим:
То есть в случае обрыва связи полезная информация отсутствует.
Второй случай – отсутствие помех. При этом наблюдается жесткая статистическая связь между входом и выходом: P(vj|ui)={1, 0}.ЕслиP(vj|ui)=1тоlog P(vj|ui)=0. ЕслиP(vj|ui)=0,тоP(vj|ui)∙log P(vj|ui)=0(см. доказательство первого свойства энтропии в разделе 3.3). В любом случаеH(v|u)=0, а значитI(u,v) = H(v) = H(u). Как видим, в этом случае информация источника доходит до приемника без изменений.
Скорость передачи информации в канале с помехами определяется аналогично случаю канала без помех, как количество полезной информации, передаваемое по каналу в единицу времени.
,
(4.12)
где τ– средняя длительность передачи одного символа первичного алфавита.
Пропускная способность также определяется по аналогии с каналом без помех, с учетом потерь информации.
(4.13)