Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
модуль белик.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
945.66 Кб
Скачать
  1. Введение. Основные понятия и определения системы передачи сообщений. Виды сигналов. Структурная схема системы пдс. (2 часа)

  1. Сведения, являющиеся объектом передачи, распределения, преобразования, хранения или непосредственного использования – это...

    1. символ

    2. объект

    3. информация

    4. сигнал

    5. сообщение

  1. Форма представления информации:

    1. буква

    2. символ

    3. сигнал

    4. сообщение

    5. код

  1. Источник дискретных сообщений без памяти – это такой источник, в котором ...

    1. вероятность появления всех символов одинакова

    2. вероятность появления одного и того же символа равна 1

    3. вероятность появления символа не зависит от того, какие символы появлялись до него

    4. Вероятность появления одного и того же символа равна 0

    5. вероятность появления двух одинаковых символов равна 0

  1. В тракт передачи дискретных сообщений входят:

    1. источник – канал ПДС – информационные характеристики источника – получатель

    2. источник – передающее устройство – канал ПДС – приемное устройство – получатель

    3. получатель – сообщение – источник

    4. получатель – символ – источник

    5. источник – информация – сообщение – получатель

  1. Единица измерения количества информации:

    1. бит

    2. бод

    3. безразмерная величина

    4. символ

    5. бит/символ

  1. Количество информации, приходящееся на один символ аi:

    1. I(аi) = - log21/р(аi)= log2р

    2. I(аi) = log2(1/р)*p

    3. I(аi) = 2*log21/р

    4. I(аi) = log2 р(аi)

    5. I(аi) = log22/р(аi)

  1. Какое количество информации, приходится на символ, появляющийся с вероятностью 0,125?

    1. 0,125

    2. 8

    3. 0,25

    4. 3

    5. 2

  1. Определите количество информации I, которое приходится на символ, поступающий от источника с вероятностью 0.25.

    1. 0.2

    2. 2

    3. 1

    4. 0.25

    5. 0.4

  1. Формула Шеннона для энтропии источника дискретных сообщений:

    1. - Правильный ответ

  1. Среднее количество информации Н(А), которое приходится на один символ, поступающий от источника без памяти 

    1. -Правильный ответ

  1. Мера неопределенности в поведении источника сообщений:

    1. стохастичность

    2. Энтропия

    3. количество информации

    4. производительность источника

    5. вероятность появления сообщения

  1. Если с вероятностью 1 источником выдается всегда одно и то же сообщение, то энтропия источника сообщений равна...

    1. 1

    2. максимальному значению

    3. 0

    4. не может быть определена

  1. Единица измерения энтропии:

    1. Бит/символ

    2. Бод

    3. безразмерная величина

    4. символ

    5. бит

  1. Если символы источника появляются независимо и с одинаковой вероятностью, то энтропия равна

    1. 0

    2. 1

    3. не поддается определению

    4. Максимальному значению