Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
зачетная работа Теория информации КС.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
253.44 Кб
Скачать

Вариант 8

  1. Теоретический вопрос: Пропускная способность каналов. Важные частные случаи каналов.

  2. В урне два белых и три черных шара. Из урны вынимают подряд два шара. Найдите энтропию появления двух белых шаров.

  3. Рассмотрите первое свойство энтропии: Энтропия есть величина вещественная, ограниченная и неотрицательная:    H0. Максимальное значение равно 0,531. Для этого составьте программу построения графика функции Hi = -pi log pi при изменении вероятности от нуля до единицы. Значения рi  возьмите через интервал 0,05. Сделайте соответствующие выводы.

  4. Определить энтропию физической системы, состоящей из двух самолетов (истребителя и бомбардировщика), участвующих в воздушном бою. В результате боя система может оказаться в одном из четырех возможных состояний: х1 - оба самолета не сбиты; х2 - истребитель сбит, бомбардировщик не сбит; х3 - истребитель не сбит, бомбардировщик сбит; х4 - оба самолета сбиты. Состояние системы дастся схемой

    X=

    X1

    X2

    X3

    X4

    0,4

    0,2

    0,3

    0,1

  5. Имеются две системы X и Y, объединяемые в одну, вероятности состояний которой представлены следующей матрицей:

0,05

0,15

0

P(X,Y)=

0,2

0,1

0,1

0,1

0,3

0

Определите полную условную энтропию H(Y/X).

  1. Закодируйте методом Шеннона-Фано любую пословицу из русского языка. Определите эффективность полученного кода.

  2. Закодируйте кодом Хаффмана алфавит, состоящий из пяти букв, - а1, а2, а3, а4, а5, вероятности появления которых Р = 0,4; 0,3; 0,15; 0,1; 0,05. Определите эффективность полученного кода.

  3. Закодировать в циклическом коде комбинацию 1111, если образующий многочлен g(x)=x3+x+1

  4. Закодировать инверсным кодом число 615(10)

  5. Закодировать кодом Грея число 326(10) Сделать проверку обратным переводом.

Вариант 9

  1. Теоретический вопрос: Теория информации и второй закон термодинамики

  2. Докажите свойство энтропии: «Энтропия есть величина вещественная, ограниченная и неотрицательная:    Н0».

  3. Определить количество информации, содержащееся в изображении, при условии, что последнее разлагается на 625 строк по 840 элементов в каждой строке. Яркость каждого элемента передается восемью квантованными уровнями.

  1. Определите энтропию (неопределенность) системы, состояние которой описывается случайной величиной Х с рядом распределения

X=

X1

X2

X3

X4

X5

0,26

0,15

0,34

0,2

0,05

  1. По некоторому каналу связи передаются сообщения. Алфавит первичного языка состоит из четырех букв xi, вероятности появления которых равны

X

1

2

3

4

P(X)

0,1

0,4

0,25

0,25

В канале связи при передаче возникают помехи.

Канал связи описан следующей канальной матрицей:

0,2

0,3

0,1

0,4

P(Y/X)=

0,1

0,3

0,1

0,5

0,4

0,3

0,2

0,1

0,3

0,1

0,6

0

Вычислите среднее количество информации, которое переносится одним символом сообщения, если Чему равны информационные потери при передаче сообщения из 100 символов алфавита a, b, c, d? Чему равно количество принятой информации?

  1. Закодировать методом Шеннона-Фано алфавит, состоящий из восьми букв, вероятности появления которых равны P= 0,02; 0,11; 0,13; 0,16; 0,17; 0,18; 0,02; 0,21. Найти эффективность полученного кода.

  2. Пусть алфавит А содержит 6 букв, вероятности которых равны 0,4; 0,2; 0,2; 0,1; 0,05 и 0,05. Произведите кодирование кодом Хаффмана. Вычислить энтропию сообщений Н(Х) и среднюю длину кодового слова.

  3. Закодировать в циклическом коде число 21, если образующий многочлен g(x)=x3+x+1

  4. Закодировать инверсным кодом число 661(10)

  5. Закодировать кодом Грея число 325(8) Сделать проверку обратным переводом.