Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
теория информации 2012.doc
Скачиваний:
79
Добавлен:
22.02.2015
Размер:
117.76 Кб
Скачать

Вариант № 9

1. Вероятности состояний сообщений XиYзаданы таблицей

x1

x2

x3

y1

0,1

0,2

0

y2

0

0,3

0

y3

0

0,2

0,2

Определить полные условные энтропии H(Y/X) иH(X/Y).

2. Алфавит состоит из nсимволов, появление каждого из которых в сообщении независимо и имеет вероятность

p(xi) = 2-ki- , гдеki - целые положительные числа.

Показать, что при кодировании такого алфавита по методу Шеннона-Фано на каждый кодовый символ приходится максимально возможное количество информации, равное одной двоичной единице.

3. На входе канала действует сигнал, представляющий собой импульсы напряжения длительности Ти амплитудыx. В канале действует шум, имеющий гауссовское распределение с нулевым средним и дисперсиейσn2. Напряжение на выходе канала измеряется прибором, показывающим среднее значение напряжения за каждый интервал времениТ, соответствующий импульсу на входе. Показание прибора естьy=x+n. Шумnне зависит отх. Пусть дисперсия сигналаσx2ограничена величинойS, аσn2= N0 /2T, гдеN0– односторонняя спектральная плотность белого шума.

а/ Построить график зависимости пропускной способности канала от Т(в натуральных единицах в сек.);

б/ Найти предельное значение пропускной способности каналов C,

когда 2ST/N0 <<1.

  1. Перечислить и доказать свойства взаимной информации.

Вариант № 10

  1. Доказать, что полная условная энтропия системы H(X/Y) не превосходит её безусловной энтропии.

2. В информационном канале для передачи сообщений используются три различных символа с длительностями τ1 = τ 2=10 мсек. иτ3= 20 мсек. Ограничения на допустимую последовательность символов не накладываются. Определить пропускную способность канала без помех и оптимальные статистические характеристики кодированного сигнала.

3. На вход приемного устройства воздействует колебание y(t)=x(t) + n(t). где сигналx(t)и помехаn(t)– независимые гауссовские случайные процессы с нулевыми математическими ожиданиями и дисперсиями, равными соответственноσx2иσn2.

Определить:

1) количество взаимной информации I(x; y), которое содержится в каком-либо значении принятого колебанияy(t), о значении сигналаx(t);

2) полную среднюю взаимную информацию I(X; Y).

4. Связь корректирующей способности кода с кодовым расстоянием. Определить значность кода, исправляющего все одиночные ошибки при передаче алфавита их пяти символов. Сколько кратных ошибок будет при этом исправляться?

Вариант № 11

1. Исход какого из двух опытов обладает большей неопределенностью:

1/ внутри правильного треугольника наугад ставится точка, которая может оказаться внутри или вне вписанного в него круга;

2/ внутри круга наугад ставится точка, которая может оказаться внутри или вне вписанного в него правильного треугольника?

  1. В информационном канале используется код, при котором запрещается передача подряд двух одинаковых символов. Алфавит кода состоит из четырех различных символов. Вероятность передачи всех разрешенных пар символов одинакова. Длительности всех символов также одинаковы и равны 1 мсек.

Определить скорость передачи информации и пропускную способность канала.

  1. Найти дифференциальную энтропию случайной величины Y = Asin ωt,гдеt равномерно распределено в интервале от–π/ωдоπ/ω;А иω– положительные постоянные.

4. Показатели качества корректирующего кода. Требования к корректирующему коду.