Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Teoria_informatsii_Gordeev_5sem.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
758.94 Кб
Скачать
    1. Теорема Шеннона для канала с шумом.

Есть несколько теорем Шеннона. Одна была рассмотрена выше (теорема Шеннона для канала без шума). Здесь мы докажем еще одну теорему Шеннона и об одной просто упомянем. (Эти теоремы известны как теоремы Шеннона для канала с шумом.) Первое из приведенныхое ниже доказательств базируется на материале из [9].

Канал мы будем считать источником Бернулли с точки зрения вероятности ошибки в переданном символе. Действительно, эта вероятность не зависит от места символа в битовом потоке и от того, были ли ошибки в предыдущих и последующих символах. Если канал не подчиняется этим требованиям (то это уже будет не двоичный симметричный канал, а некоторый канал со специальными свойствами), то все нижеследующие рассуждения не справедливы.

В теореме Шеннона для канала с шумом будет показано, что существуют коды, когда для любого ε>0 при V(C)< 1- H(p) вероятность ошибки декодирования не более ε.

      1. Факты из теории вероятности.

- случайная величина.

- мат. ожидание.

- дисперсия.

Теорема (неравенство Чебышева)

Испытание Бернулли, вероятность успеха p (неудача 1- p). Есть n испытаний. (Удачное испытание – произошла ошибка, неудачное – не произошла. Так как передается n символов, то мы получаем n испытаний во время передачи кодового слова.)

В случае источника Бернулли справедливы равенства: и D(ξ)=np(1-p).

Первое из них очевидно, а ниже приведено краткое доказательство второго.

      1. Схема кодирования и декодирования. Вспомогательные утверждения.

Пусть - вектор ошибок. Он подчиняется распределению Бернулли, поэтому матожидание и дисперсия такого вектора и D(ξ)=np(1-p).

Рассмотрим некоторый код C = {x1xM}, где {x1xM}– кодовые слова (вектора Bn).

Применяем декодирование в ближайшее слово (по принципу наибольшего правдоподобия и согласно приведенной выше схеме декодирования, а ,в случае нескольких вариантов, в кодовое слово с наименьшим номером). Обозначим через T(C) таблицу декодирования.

П ередача Прием

a x1 T(C) – таблица

b x2

xM

Зададим некоторое ρ>0. Тогда в ситуации 1 таблица Tρ(C) состаляется так, чтобы под каждым кодовым словом в столбце находились все слова из Sρ(xi), а в ситуации 2 работают эвристические правила, примеры которых приведен выше.

Замечание.

Подчеркнем еще раз, что кодом называется любое подмножество булева куба Bn мощностью M. Поэтому не любой код будет кодом, исправляющим ошибки. Но к любому коду можно формально применить описанную выше схему декодирования. Все точки кода окружаем шарами радиуса ρ, а полученный вектор декодируем в центр шара. Если же вектор попадает в несколько кодовых шаров, то, возможно, что произошла ошибка декодирования. Правило, по которому в этом случае декодер производит декодирование несущественно. Например, применяется какое-нибудь дополнительное правило декодирования: в случайный, в ближайший и т.п.

Лемма ( ). Возьмем точку в Bn и шар S[pn](x), оценим число точек в нем. Справедливо неравенство

|S[pn](x)| ≤ 2nH(p)

Доказательство. |S[pn](x)| = .

Вспомним, что 0 ≤ p < 1\2,. Согласно принципу наибольшего правдоподобия – декодирование в ближайшее кодовое слово – выполняется соотношение

(1 – p)n ≥ p(1 – p)n-1 ≥ … ≥ pk(1-p)n-k.

Отсюда следует.

,

где - мощность шара радиуса [pn] .

Тогда |S[pn](x)| ≤ (p[pn] (1 – p) n – [pn])-1 = ≤ 2nH(p).

Лемма доказана.

Пусть в канал передается вектор xi, а в декодер поступил вектор Y.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]