
- •1Аннотация
- •2 Содержание задания
- •3 Теоретическая часть
- •3.1 Количественная оценка информации
- •3.2 Вычисление скорости передачи информации и пропускной
- •3.3 Определение избыточности сообщений. Оптимальное
- •4 Практическая часть
- •4.1 Содержание задания
- •4.2 Расчёт на основе исходных данных
- •4.2.1 Определение количества информации, соответствующего
- •4.2.2 Вычисление теоретической скорости передачи сообщений
- •4.2.3 Вычисление избыточности сообщений, составленных из
- •4.2.4 Построение оптимального кода сообщения
- •5 Заключение
- •6 Список литературы
3.2 Вычисление скорости передачи информации и пропускной
способности каналов связи
В условиях отсутствия помех скорость передачи информации
определяется количеством информации, переносимым символом
сообщения в единицу времени, и соответственно равна:
C
= nH
(9)
Где n — количество символов, вырабатываемых источником
сообщений за единицу времени; H — энтропия (неопределённость),
снимаемая при получении одного символа сообщений, вырабатываемых
данным источником.
Скорость передачи информации также может быть представлена
следующим образом:
C
=
бит/с
(10)
Где τ — время передачи одного двоичного символа.
Скорость передачи информации всегда определяется относительно
первичного алфавита и зависит от его энтропии, а скорость передачи
сигналов вычисляется относительно вторичного алфавита (если аппаратура
обеспечивает передачу всех качественных признаков вторичного алфавита). Таким образом, скорость передачи информации зависит от информационных характеристик источника сообщений, а скорость передачи сигналов — от быстродействия аппаратуры. Величины эти не следует путать, так как они вычисляются по разным формулам и имеют разные единицы измерения. Так, в отличие от формулы (10), скорость передачи сигналов может быть вычислена по формуле:
V=
символ/с
Где τ — время передачи одного символа вторичного алфавита.
Для сообщений, составленных из равновероятностных
взаимонезависимых символов равной длительности, скорость передачи
информации может быть определена следующим образом:
С
=
log2m
бит/с (11)
В случае неравновероятностных символов равной длительности,
скорость передачи информации определяется согласно формуле:
C=log2piбит/c
(12)
В случае неравновероятностных и взаимонезависимых символов
разной длительности, скорость передачи информации может быть
вычислена следующим образом:
С
=
бит/с (13)
Где ai— передаваемый сигнал; bj— сигнал, соответствующий
переданному ai сигналу. События A и B статистически жёстко связаны. При отсутствии помех, условная вероятность максимальна p(bj / ai) = 1, а условная энтропия:
H(A/B)
=
log2
p(bj
/ ai)
=
0,
таккакlog2p(bj / ai) = log21 = 0.
При высоком уровне помех любой из принятых сигналов bjможетсоответствовать любому переданному сигналу ai — статистическая связь между переданными и принятыми сигналами отсутствует. В этом случае вероятности p(ai) и p(bj) есть вероятности независимых событий и p(bj / ai) = p(bj); p(ai / bj) = p (ai).
Информационные характеристики реальных каналов лежат между этимидвумя предельными случаями.
Пропускная способность (или ёмкость канала связи) — есть
максимальная скорость передачи информации по данному каналу связи. Под каналом связи подразумевается совокупность средств, предназначенных для передачи информации от данного источника сообщений к адресату. Выражение для пропускной способности отличается от выражения (9) тем, что пропускную способность характеризует максимальная энтропия:
Сmax=
бит/с
(14)
В случае для двоичного кода, выражение для расчёта пропускной
способности примет вид:
Cmax
=
бит/с
При наличии помех, пропускная способность канала связи вычисляетсякак произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии источника сообщений относительно исходного сигнала:
Cn
=nбит/с
(15)
или следующим образом:
Cn
=
бит/с
В общем случае:
Cn=
n
=nбит/с
(16)
Если символы источника сообщений неравновероятны и
взаимозависимы, то энтропия источника вычисляется по формуле общей
условной энтропии.
Для симметричных бинарных каналов, в которых сигналы передаются при помощи двух качественных признаков и вероятность ложного приёмаpл = p(1/0) = p(0/1), а вероятность правильного приёма pп = 1 – pл, потери учитываются при помощи условной энтропии вида:
H(B/A)=
бит/c
(17)
Пропускная способность для таких каналов может быть определена
следующим образом:
Cn
= nбит/с
(18)
Таким образом, формула пропускной расчёта способности для
симметричного бинарного канала будет иметь следующий вид:
Cn
=
бит/с
(19)
Для симметричных дискретных каналов связи с числом качественных
признаков m> 2, формула расчёта пропускной способности может быть
представлена в следующем виде:
Cn=
бит/c
(20)