
- •Введение
- •Раздел «Методология построения современных систем связи»
- •Тема «Общие сведения о системах связи»
- •Основные термины и определения
- •Помехоустойчивые (корректирующие) коды
- •Тема «Основные характеристики сигналов и систем передачи информации»
- •Основные параметры сигналов
- •Основные характеристики систем передачи информации
- •Помехи и искажения в каналах связи
- •Виды дискретной модуляции сигналов
- •Раздел «Математические модели каналов связи»
- •Тема «Математические модели непрерывных каналов связи»
- •Классификация каналов связи
- •Математическая модель каналов связи с аддитивным гауссовским шумом
- •Математическая модель однолучевого канала связи с флуктуациями амплитуд и фаз сигналов (с гауссовскими общими замираниями)
- •Математическая модель многолучевого гауссовского канала связи с частотно-селективным замиранием
- •Математическая модель каналов связи со сложной аддитивной помехой
- •Математическая модель каналов связи с межсимвольной интерференцией
- •Тема «Математические модели дискретных каналов связи»
- •Основные характеристики дискретных каналов связи
- •Математическая модель дискретного симметричного канала связи без памяти
- •Математическая модель дискретного несимметричного канала связи без памяти
- •Математическая модель дискретного канала связи с памятью
- •Тема «Математическая модель линейных и нелинейных преобразователей случайных сигналов в каналах связи»
- •Математическая модель линейного преобразователя случайных сигналов в каналах связи
- •Математическая модель нелинейного преобразователя случайных сигналов в каналах связи
- •Математическая модель случайного преобразователя сигналов в каналах связи
- •Раздел «Помехоустойчивый прием дискретных и непрерывных сообщений»
- •Тема «Постановка задачи синтеза оптимального приемника»
- •Общий подход к задаче синтеза оптимального приемника
- •Критерий идеального наблюдателя
- •Оптимальный прием дискретных отсчетов сигналов
- •Оптимальный прием непрерывной реализации сигналов
- •Тема «Статистические критерии оптимального приема сигналов»
- •Критерий Неймана-Пирсона
- •Байесовский критерий минимума среднего риска
- •Тема «Синтез оптимального когерентного приемника в условиях аддитивного шума»
- •Синтез приемника дискретных отсчетов сигналов
- •Синтез приемника непрерывной реализации сигналов
- •Структурная схема оптимального когерентного приемника
- •Тема «Оптимальный когерентный приемник на базе согласованных фильтров»
- •Передаточная функция согласованного фильтра
- •Основные свойства согласованных фильтров
- •Структурная схема оптимального когерентного приемника
- •Трансверсальный согласованный фильтр с импульсной реакцией
- •Согласованный с прямоугольным радиоимпульсом фильтр
- •Тема «Анализ помехоустойчивости оптимального приема двоичных сигналов»
- •Помехоустойчивость сигналов с дискретной амплитудной модуляцией
- •Помехоустойчивость сигналов с дискретной частотной модуляцией
- •Помехоустойчивость сигналов с дискретной фазовой модуляцией
- •Сопоставительный анализ сигналов с дискретными видами модуляции
- •Повышение помехоустойчивости связи на основе методов разнесенного приема
- •Тема «Потенциальная помехоустойчивость оптимального приема непрерывных сообщений»
- •Общие сведения об обобщенном выигрыше
- •Обобщенный выигрыш при амплитудной модуляции
- •Обобщенный выигрыш при балансной и однополосной модуляции
- •Обобщенный выигрыш при фазовой модуляции
- •Обобщенный выигрыш при частотной модуляции
- •Раздел «Основы передачи и кодирования информации»
- •Тема «Основные характеристики источников дискретных и непрерывных сообщений»
- •Количество информации источника дискретных сообщений
- •Энтропия источника дискретных сообщений
- •Свойства энтропии источника дискретных сообщений
- •Избыточность источника дискретных сообщений
- •Производительность источника дискретных сообщений
- •Энтропия источника непрерывных сообщений
- •Тема «Пропускная способность дискретного канала связи»
- •Свойства условной энтропии дискретного канала связи
- •Свойства взаимной информации дискретного канала связи
- •Свойства пропускной способности дискретного канала связи
- •Пропускная способность двоичного симметричного канала связи без памяти
- •Тема «Пропускная способность непрерывного канала связи»
- •Пропускная способность непрерывного канала связи
- •Свойства взаимной информации непрерывного канала связи
- •Формула Шеннона для пропускной способности непрерывного канала связи
- •Влияние полосы пропускания непрерывного канала связи на его пропускную способность
- •Теоремы кодирования Шеннона для канала связи с помехами
- •Тема «Основы построения корректирующих кодов»
- •Классификация корректирующих кодов
- •Основные характеристики блочных корректирующих кодов
- •Обнаружение и исправление ошибок в коде
- •Линейные двоичные корректирующие коды
- •Пример задания линейного корректирующего кода

сообщения о преобразуют в последовательность кодовых символов, а затем каждый символ преобразуется в соответствующий элемент сигнала.
В непрерывных каналах связи кодирование обеспечивает получение принципиально лучших результатов, так как в этом случае отсутствуют дополнительные стадии преобразования, которые приводят к потере информации. Однако такое кодирование является более сложным в реализации. Значительно чаще и в ущерб некоторым потерям информации применяют кодирование в дискретных каналах связи, реализация которого существенно проще.
Задача. Определить пропускную способность при приеме и передаче двоичных данных через непрерывный канал связи с ограниченной полосой частот F = 27 кГц и ограниченной средней мощностью сигнала PC = 1 мВт, если при обработке информации установлена средняя мощность шума Pш = 3 мкВт.
Решение. В соответствии с формулой (15) пропускная способность:
|
P |
|
|
|
|
|
1 10 |
−3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
C = F log2 1 + |
C |
|
= 27 10 |
3 |
log2 |
1 + |
|
|
2.26 10 |
5 |
бит/с |
P |
|
3 10 |
−6 |
|
|||||||
|
|
|
|
|
|
|
|
|
|
||
ш |
|
|
|
|
|
|
|
Ответ: C ≈ 2.26 · 105 бит/с.
Тема «Основы построения корректирующих кодов»
Изучаемые вопросы:
1.Классификация корректирующих кодов.
2.Основные характеристики блочных корректирующих кодов.
3.Обнаружение и исправление ошибок в коде.
4.Линейные двоичные корректирующие коды.
5.Пример задания линейного корректирующего кода.
Классификация корректирующих кодов
Целью помехоустойчивости кодирования является повышение вероятности передаваемых сообщений посредством целенаправленного введения избыточности в процессе преобразования информации.
Для классификации помехоустойчивых кодов используются различные признаки, одним из которых является основание кода m (иногда используют q) – это объем кодового алфавита, то есть число символов в алфавите.
Блочные коды – это коды, у которых каждый очередной знак преобразуется в некоторой конечный блок.
В непрерывных кодах разделение на отдельные блоки или слова не происходит (кодовые символы определяются всей последовательностью знаков сообщения).
Для блочных кодов используется параметр длина кода (если длина одинаковая – код равномерный, иначе – неравномерный).
Пример равномерного кода – МТК-2, неравномерного – код Морзе.

Если длина кодового слова равна n, удовлетворять неравенству:
M m
то число различных блоков M будет
n |
(1) |
|
Если M = mn, код называют простым или примитивным, если M < mn, код называют избыточным (помехоустойчивым).
Основные характеристики блочных корректирующих кодов
Блочные коды принято обозначать (n, k), где n – общее число символов
вкодовом блоке (длина кодового слова), k – число информационных символов
вблоке.
Корректирующие коды характеризуют:
1. Число проверочных (избыточных) символов:
r = n − k
2. |
Объем кода: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
M = 2 |
k |
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
3. |
Скорость кода: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
R = |
log |
2 |
|
M |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
n log |
2 |
m |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
При m = 2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
R = |
log |
2 |
M |
|
log |
2 |
mk |
m = 2 = |
log |
2 |
2k |
|
k |
|||||
|
|
|
= |
|
|
|
= |
|
|
= |
|
||||||||
|
n log2 m |
n log2 m |
n log2 2 |
n |
(2)
(3)
(4)
4.Вес кодового слова w(Vi) – число символов в слове Vi (где i = 1÷M), отличное от нуля.
5.Расстояние Хемминга ρ(Vi, Vj) между двумя кодовыми словами – число позиций (разрядов, элементов) в которых они отличаются друг от друга.
Для любых Vi ≠ Vj можно записать
|
( |
|
|
) |
|
1 |
V ,V |
j |
|
n |
|
|
|
i |
|
|
(5)
6. Минимальное кодовое расстояние d. Для заданного кода принято называть минимальное расстояние по Хеммингу между всеми парами его несовпадающих кодовых слов.
d = min (Vi ,Vj ) |
(6) |
||
V |
V |
j |
|
i |
|
|

7. Максимум правдоподобия
Пусть Vi – передаваемое кодовое слово, Z – принятый блок. Тогда можно записать правило декодирования в виде
P (Z |V ) P (Z |V |
); j = 1, M |
|
i |
j |
|
j i или max P (Z |V ) |
||
|
i |
i |
|
|
(7)
В симметричном канале без помех декодирование по максимуму правдоподобия соответствует декодированию по минимальному расстоянию Хемминга, которое формально можно представить соотношением
V = min (Z ,V ) |
||
i |
i |
i |
|
|
8. Кратность ошибок t
(8)
Обычно говорят, что произошла ошибка с кратностью t, если в кодовом слове искажено t символов
Обнаружение и исправление ошибок в коде
Если корректирующий код с величиной d > 1 используется в режиме обнаружения ошибок, то все ошибки с кратностью t ≤ d – 1 будут обнаружены гарантированно.
Если t > d, то кодовый блок может оказаться разрешен с необнаруженными ошибками.
Минимальное кодовое расстояние, при котором могут обнаруживаться любые одиночные ошибки d = 2.
Если корректирующий код используется в режиме исправления ошибок, то он способен исправить с гарантией любые ошибки при выполнении условий:
−при четном d:
t d / 2 −1
− при нечетном d: t (d −1) / 2
(9)
(10)
При использовании корректирующего кода для одновременного обнаружения и исправления ошибок и стираний, его кодовое расстояние должно удовлетворять условию:
d
2tо
+ t |
с |
|
,
(11)
где tо – число гарантированно исправляемых ошибок, tc – число исправляемых стираний.

Линейные двоичные корректирующие коды
Линейным двоичным блочным кодом называется множество двоичных последовательностей длиной n, которое содержит чисто нулевую последовательность (000…0) и обладает следующим свойством: сумма по модулю 2 любых пар последовательностей из этого множества также является элементом этого множества.
Такие коды иногда также называют групповыми, поскольку они представляют собой подгруппу для группы всех двоичных последовательностей длиной n.
В классе линейных кодов наибольший интерес представляют систематические (n, k)-коды. В них первые k символов – информационные, остальные – проверочные.
Известно, что совокупность кодовых слов V1, V2, …, Vk нейно независимой, если справедливо соотношение
1V1 + 2V2 + ... |
+ kVk |
0 |
, |
при всех значениях αi, за исключением
называется ли-
(12)
|
= |
2 |
= = |
k |
|
|
|
где αi {0, 1}.
=
0
,
(13)
Доказано, что из общего числа M = 2k разрешенных кодовых слов линейного кода можно выбрать совокупность, содержащую k произвольных ненулевых слов, которые отвечают свойству линейной независимости. Эта совокупность называется линейным базисом. Далее все элементы базиса могут быть сложены поразрядно по модулю 2 в различных сочетаниях. Общее число таких комбинаций равно 2k (соответствует числу разрешенных кодовых блоков).
Следовательно, линейный блочный код можно определить с помощью элементов базиса, содержащих k линейно независимых кодовых комбинаций.
Такие комбинации принято называть порождающей матрицей. Она содержит k строк, n столбцов и обычно записывается в канонической форме:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
100...0 |
|
|
|
|
|
|
|
|
010...0 |
|
|
|
|
|
|
|
|
G |
= I |
|
B |
|
= |
|
|
k |
|
|
|||||
n,k |
|
k (n−k ) |
|
|
|||
|
|
|
|
|
|
|
000...1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
b |
... b |
|
|
1,k +1 |
1,n |
|
|
b |
... b |
||
|
|||
2,k +1 |
2,n |
||
|
|||
|
|
|
|
b |
... b |
|
|
|
|||
k ,k +1 |
k ,n |
||
r=n−k |
|
,
(14)
где Ik – единичная матрица размером k × k с единицами на главной диагонали и нулями в других местах; Bk×(n–k) – матрица, которая содержит проверочные символы корректирующего кода в своих строках.
Строки матрицы Ik представляют собой информационные символы, вырабатываемые источником сообщений.