
- •Введение в помехоустойчивое кодирование
- •Функциональная схема процесса повышения достоверности
- •Двоичное блоковое кодирование
- •Двоичный блоковый (n, k) код
- •Структура декодирующего устройства
- •Геометрическая интерпретация вероятности
- •Независимость событий A и B
- •Геометрическая интерпретация формул полной вероятности и формул Байеса для вычисления вероятностей гипотез
- •Оценивание по принципу максимального правдоподобия
- •Оценивание по принципу максимального правдоподобия
- •Другие возможные соображения по выбору правил принятия решений.
- •Алгебраическая модель представления искажений при передаче двоичного вектора по ненадежному каналу
- •Некоторые новые обозначения
- •Некоторые упрощения для варианта оценивания по максимуму правдоподобия
- •Декодирование по минимуму расстояния
- •Пример декодирования по минимуму расстояния: распознавание написания цифр почтового индекса.
- •Исправление ошибок считывания
- •Двоичные групповые коды
- •Матричное кодирование – способ построения группового кода.
- •Систематический код
- •Замкнутое множество допустимых кодовых слов
- •Разбиение множества двоичных векторов на смежные классы по подгруппе допустимых кодовых слов и
- •Таблица стандартной расстановки
- •Выбор образующих элементов – лидеров классов
- •Иллюстрация к схеме декодирования посредством лидеров классов.
- •Пример декодирования посредством лидеров для (6,3) кода
- •Декодирование посредством лидеров следует правилу декодирования по минимуму расстояния.
- •Варианты построения декодера
- •Проверочная матрица для систематического кода
- •Примеры вычисления значений синдромов
- •Свойства синдромов
- •Иллюстрация проверки эквивалентности векторов
- •Синдромный декодер (6, 3)-кода
- •Пример исправления ошибки синдромным декодером
- •Все реализуют принцип максимального правдоподобия
- •Исправляемые конфигурации ошибок
- •Какова вероятность неправильного декодирования?
- •Пример для (6, 3)-кода
- •Вероятность ошибочного декодирования блока (6, 3)-кода
- •Частичное декодирование
- •Пример: Частичное декодирование (6, 3)-кода
- •Вариант частичного декодера

Исправляемые конфигурации ошибок
Исправляемые конфигурации ошибок – лидеры смежных классов
xˆ x e L
e L e z B & z L & e z 0
~ |
e z b & b B & b 0 |
y y e y (z b) z ( y b), |
eˆ z & yˆ y b yˆ y xˆ x
y f (x), f инъективная функция

Какова вероятность неправильного декодирования?
При сделанных допущениях о характере искажений вероятность определенной конфигурации искажения определяется только весом вектора ошибки.
~ |
~ |
w(e) – число искаженных разрядов |
|
PК{y |
| y} PK ( y y) PK (e) |
||
P (e) pw(e) (1 p)n w(e) |
p – вероятность искажения одного разряда |
||
n – число разрядов в закодированном сообщении |
|||
K |
|
Q A
Множество конфигураций векторов ошибок, приводящих к определенному событию (например, к ошибочному декодированию)
P{e Q} PK (e)
e Q
Вероятность попадания вектора ошибки во множество определенных конфигураций есть сумма вероятностей возникновения каждой из них (несовместные события)
n |
|
N(Q, w) – |
|
||
P{e Q} N (Q, w) pw (1 p)n w |
|
|
|
Число слов веса w в |
|
w 0 |
|
множестве Q |
|
|
|
|
|
|

Пример для (6, 3)-кода
Вероятность правильного декодирования: Q L
L = {000000, 000001, 000010, 000100, 001000, 010000, 100000, 011000}
N(L, 0)=1, N(L,1)=6, N(L, 2)=1, w>2 N(L, w)=0
PПП P(e L) (1 p)6 6 p(1 p)5 p2 (1 p)4
Вероятность ошибки – вероятность противоположного события: Q A \ L
PОШ P(e L) 1 PПП 1 (1 p)6 6 p(1 p)5 p2 (1 p)414 p2 (1 p)4 20 p3 (1 p)3 p6

Вероятность ошибочного декодирования блока (6, 3)-кода
p
|
|
|
|
3 |
|
|
|
|
) |
|
|
|
p |
|
|
|
- |
||
|
1 |
|
||
( |
|
|
||
- |
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
я |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
и |
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
н |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
е |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ж |
|
|
|
|
|
в |
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
а |
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
к |
|
|
|
|
|
|
|
|
|
о |
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
с |
|
|
|
|
|
|
|
|
д |
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
и |
|
|
|
|
|
|
|
я |
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
ь |
|
|
|
|
|
|
|
|
р |
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
т |
|
|
|
|
|
|
|
|
з |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
с |
|
|
|
|
|
|
|
|
а |
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
о |
|
|
|
|
|
|
|
|
|
р |
|
|
|
|
|
|
) |
|
|
|
|||||||
|
|
|
|
|
н |
|
|
|
|
|
|
|
|
х |
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
т |
|
|
|
|
|
|
|
|
е |
|
|
|
|
|
|
|
я |
|
|
|
|||||||||
|
|
|
я |
|
|
|
|
|
|
|
р |
|
|
|
|
|
|
и |
|
|
|
|
|
|
||||||||||
|
о |
|
|
|
|
|
|
т |
|
|
|
|
|
|
|
н |
|
|
|
|
|
|
|
|
||||||||||
р |
|
|
|
|
|
з |
|
|
|
|
|
|
|
|
а |
|
|
|
|
|
|
|
|
|
|
|
||||||||
е |
|
|
|
|
|
и |
|
|
|
|
|
|
|
|
в |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
В |
|
|
|
|
а |
|
|
|
|
|
|
|
|
о |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
к |
|
|
|
|
|
|
|
|
р |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
о |
|
|
|
|
|
|
и |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
л |
|
|
|
|
|
|
д |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
б |
|
|
|
|
|
|
о |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
к |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
з |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
е |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
б |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
( |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
PПП
PОШ |
P(...) |

Частичное декодирование
Три варианта поведения декодера: |
|
|
1) Ошибок не обнаружено: их нет ( |
e 0 |
), или одно допустимое слово |
трансформировалось в другое ( |
~ |
~ |
y B & y y e B \{0} ) |
2) Обнаружена ошибка, принято решение исправлять и предложен вариант исправления: возможно, правильно ( e L ), возможно неправильно ( e L ). Получателю можно сообщить меру надежности оценки, например, вес оценки вектора ошибок: чем w(eˆ) меньше, тем оценка надежнее.
3)Обнаружена ошибка, принято решение не исправлять (возможно, опасаясь слишком высокой вероятности неправильно исправить). В этом случае получателю выдается соответствующее диагностическое сообщение D.
Пример: хранение данных на ненадежных носителях – дисковые запоминающие устройства с исправляющими ошибками кодами (ECC – error correction code).
1)Успешное чтение
2)Чтение с обнаружением и исправлением ошибок при помощи ECC (возможно, признак износа носителя)
3)Неуспешное чтение, возможен ручной анализ поля данных и ЕСС контрольных разрядов, если есть дополнительная информация о характере данных (текст…)

Пример: Частичное декодирование (6, 3)-кода
В классах с лидерами веса 1 лидеры являются единственными словами веса 1. Минимальный вес остальных векторов в этих классах равен 2.
P{e z | e z B & w(z) 1} |
|
|
p(1 p)5 |
||
|
|
|
|||
p(1 p)5 2 p2 (1 p)4 ... |
|||||
P{e z | e z B & w(z) 1} |
|
2 p2 (1 p)5 ... |
|||
p(1 p)5 2 p2 (1 p)4 ... |
|
В классе с лидером веса 2 есть еще два вектора такого веса.
P{e z | e z B & z 011000} |
|
p2 |
(1 p)4 |
|
|
|
||
3p2 (1 p)4 ... |
||||||||
|
|
|||||||
P{e z | e z B & z 011000} |
|
2 p2 |
(1 p)4 |
... |
||||
3p |
2 |
(1 p)4 |
... |
|||||
|
|
В первом случае оценка существенно надежнее, чем во втором, когда с вероятностью около 2/3 декодирование будет ошибочно.

Вариант частичного декодера
Вероятность необнаруженного |
|
|
|
|
Начало |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
искажения. (Ненулевые |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
допустимые кодовые слова) |
|
|
|
|
|
|
|
|
|
|
|
|
|
Вероятность правильного приема |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
3 |
(1 p) |
3 |
3p |
4 |
(1 |
p) |
2 |
|
|
|
~ |
|
|
|||||||||||||||||
|
|
|
s y H |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
PНО 4 p |
|
|
|
|
|
|
|
|
|
PПП (1 p) |
6 |
6 p(1 |
p) |
5 |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Вероятность неприема (стирания) |
||||||||
|
|
|
|
|
|
|
|
|
|
Да |
|
|
s 000 |
|
|
|
PНП 3p2 (1 p)4 4 p3 (1 p)3 p6 |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Вероятность искажения (ошибки) |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P |
1 (P |
|
P ) 11p2 (1 p)4 ... |
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Нет |
|
|
|
|
|
|
ОШ |
|
ПП |
НП |
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
Не обнаружено |
|
|
|
|
|
|
|
s 110 |
|
|
|
Да |
|
|
|
|
|
|
|
||||||||||
|
ошибок |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
ˆ |
~ |
|
|
|
|
|
|
|
|
|
|
|
Нет |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
y y |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
ˆ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Обнаружена и D |
|
|
Обнаружена |
|
|
|
|||||||||||||
|
e 0 |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
D w(e) 0 |
|
|
|
|
исправлена |
|
ˆ |
|
|
неисправимая |
|
|
|||||||||||||||||
|
|
|
|
|
одиночная |
w(e) 1 |
|
|
ошибка |
D |
|
|||||||||||||||||||
|
|
|
|
ˆ |
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
ошибка yˆ |
~ |
|
|
|
|
|
|
|
|
|
|
ˆ |
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
y T (s) |
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
w(e) 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Конец