Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Тестов_завдання_в_дело1.doc
Скачиваний:
127
Добавлен:
21.08.2019
Размер:
5.53 Mб
Скачать

Тестові завдання з навчальної дисципліни „Теорія інформації”

Питання низького рівня складності

1. Яку кількість інформації ми отримаємо, якщо дізнаємося, що відбулась подія, ймовірність якої дорівнює 1/3 ?

  1. менше, ніж 1 біт;

  2. 1 біт;

  3. більше, ніж 1 біт та менше, ніж 2 біта;

  4. 2 біта;

  5. 3 біта;

  6. більше, ніж 3 біта.

2. Яку кількість інформації ми отримаємо, якщо дізнаємося, що відбулась подія, ймовірність якої дорівнює 1/4 ?

  1. менше, ніж 1 біт;

  2. 1 біт;

  3. більше, ніж 1 біт та менше, ніж 2 біта;

  4. 2 біта;

  5. більше, ніж 2 біта та менше, ніж 3 біта;

  6. 4 біта.

3. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання 5-тикопійочної монети?

  1. менше, ніж 1 біт;

  2. 1 біт;

  3. більше, ніж 1 біт та менше, ніж 2 біта;

  4. 2 біта;

  5. log2 5 біт;

  6. 5 біт.

4. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання грального кубика?

  1. менше, ніж 1 біт;

  2. 1 біт;

  3. більше, ніж 1 біт та менше, ніж 2 біта;

  4. 2 біта;

  5. log2 6 біт;

  6. 6 біт.

5. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання 10-тикопійочної монети?

  1. менше, ніж 1 біт;

  2. 1 біт;

  3. більше, ніж 1 біт та менше, ніж 2 біта;

  4. 2 біта;

  5. log2 10 біт;

  6. 10 біт.

6. Яку кількість інформації ми отримаємо, якщо дізнаємося, що відбулась подія, ймовірність якої дорівнює 1/5 ?

  1. менше, ніж 2 біта;

  2. 2 біта;

  3. більше, ніж 2 біта та менше, ніж 3 біта;

  4. 3 біта;

  5. більше, ніж 3 біта та менше, ніж 4 біта;

  6. 5 біт.

7. Яку кількість інформації ми отримаємо, дізнавшись результат підкидання грального кубика?

  1. менше, ніж 2 біта;

  2. 2 біта;

  3. більше, ніж 2 біта та менше, ніж 3 біта;

  4. 3 біта;

  5. більше, ніж 3 біта та менше, ніж 4 біта;

  6. 6 біт.

8. Яку кількість інформації ми отримаємо, дізнавшись, що деяка система знаходиться в одному із 7 однаково ймовірних станів?

  1. менше, ніж 2 біта;

2) 2 біта;

  1. log2 7 біт;

  2. 3 біта;

  3. 5 біт;

  4. 7 біт.

9. Яку кількість інформації ми отримаємо, дізнавшись, що деяка система знаходиться в одному із 8 однаково ймовірних станів?

  1. 2 біта;

  2. більше, ніж 2 біт та менше, ніж 3 біта;

  3. 3 біта;

  4. 4 біта;

  5. 6 біт;

  6. 8 біт.

10. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання 50-тикопійочної монети?

1) більше, ніж 10 біт;

  1. log50 біт;

  2. 5 біт;

  3. 2 біта;

  4. 1 біт;

  5. менше, ніж 1 біт.

11. Яку кількість інформації ми отримаємо, якщо дізнаємося, що відбулась подія, ймовірність якої дорівнює 1/20 ?

  1. 2 біта;

  2. більше, ніж 2 біта та менше, ніж 3 біта;

  3. 3 біта;

  4. більше, ніж 3 біта та менше, ніж 4 біта;

  5. 4 біта;

  6. більше, ніж 4 біта.

12. Яку кількість інформації ми отримаємо, дізнавшись результат підкидання грального кубика?

  1. більше, ніж 3 біта;

  2. 3 біта;

  3. більше, ніж 2 біта та менше, ніж 3 біта;

  4. 2 біта;

  5. більше, ніж 1 біт та менше, ніж 2 біта;

  6. 1 біт.

13. Яку кількість інформації ми отримаємо, дізнавшись, що деяка система знаходиться в одному із 50 однаково ймовірних станів?

  1. log50 біт;

  2. більше, ніж 10 біт;

  3. 5 біт;

  4. 2 біта;

  5. 1 біт;

  6. менше, ніж 1 біт.

14. Яку кількість інформації ми отримаємо, дізнавшись, що деяка система знаходиться в одному із 100 однаково ймовірних станів?

  1. 10 біт;

  2. 100 біт;

  3. log2 100 біт;

  4. 4 біта;

  5. 2 біта;

  6. 1 біт.

15. Яку кількість інформації ми отримаємо, якщо дізнаємося, що відбулась подія, ймовірність якої дорівнює 1/16 ?

  1. більше, ніж 4 біта;

  2. 4 біта;

  3. більше, ніж 3 біта та менше, ніж 4 біта;

  4. 3 біта;

  5. 2 біта;

  6. 1 біт.

16. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання 5-тикопійочної монети?

  1. 5 біт;

  2. log2 5 біт;

  3. 2 біта;

  4. більше, ніж 1 біт та менше, ніж 2 біта;

  5. 1 біт;

  6. менше, ніж 1 біт.

17. Яку кількість інформації ми отримаємо, якщо дізнаємося результат підкидання грального кубика?

  1. більше, ніж 2 біта;

  2. 2 біта;

  3. 1 біт;

  4. 3/6 біта;

  5. 2/6 біта;

  6. 1/6 біта.

Питання середнього рівня складності

18. Чому дорівнює кодова відстань (відстань Хеммінга) між кодовими комбінаціями 11110000 та 10100111?

  1. 1;

  2. 2;

  3. 3;

  4. 5;

  5. 7.

19. Чому не можна знайти кодову відстань (відстань Хеммінга) між кодовими комбінаціями 1111111 та 01010101? Тому, що

  1. одна із комбінацій складається тільки з одиниць;

  2. одна з комбінацій має періодичну структуру;

  3. обидві комбінації є комбінаціями двійкового коду;

  4. комбінації мають різну довжину;

  5. інше.

20. Чому дорівнює вага кодової комбінації 10100111?

  1. 1;

  2. 2;

  3. 3;

  4. 5;

  5. 7.

21. Якими є границі значень ваги кодової комбінації двійкового коду довжиною 10?

  1. від 1 до 10;

  2. від 0 до 9;

  3. від – 10 до + 10;

  4. від 0 до 10;

  5. від – 5 до + 5.

22. Чому дорівнює різниця значень вагів цих двох кодових комбінацій: 1011000111 та 1010100100?

  1. 1;

  2. 0;

  3. 3;

  4. 5;

  5. інше.

23. Чому дорівнює кодова відстань (відстань Хеммінга) між кодовими комбінаціями 01010000 та 10100111?

  1. 1;

  2. 2;

  3. 3;

  4. 5;

  5. 7.

24. Якими є границі значень ваги кодової комбінації двійкового коду довжиною 12?

  1. від 0 до 12;

  2. від 1 до 12;

  3. від 0 до 1;

  4. від – 12 до 0;

  5. від – 12 до + 12.

25. Чому дорівнює сума вагів цих двох кодових комбінацій: 10110000 та 10100000?

  1. 8;

  2. 7;

  3. 5;

  4. 3;

  5. 1.

26. Вага кодової комбінації двійкового коду це:

  1. кількість символів алфавіту коду;

  2. кількість символів в кодовій комбінації;

  3. кількість символів “0” в кодовій комбінації;

  4. кількість символів “1” в кодовій комбінації;

  5. різниця між кількістю символів “1” та кількістю символів “0” в кодовій комбінації.

27. Вага кодової комбінації двійкового коду це:

  1. кількість символів алфавіту коду;

  2. сума всіх символів кодової комбінації;

  3. кількість символів “0” в кодовій комбінації;

  4. різниця між кількістю символів “1” та кількістю символів “0” в кодовій комбінації;

  5. інше.

28. Вага кодової комбінації двійкового коду довжиною n може бути

  1. будь-яким цілим числом;

  2. будь-яким цілим числом, модуль якого не перевищує n;

  3. будь-яким раціональним числом, модуль якого не перевищує n;

  4. будь-яким раціональним числом в межах від 1 до n включно;

  5. інше.

29. Чому дорівнює кодова відстань (відстань Хеммінга) між кодовими комбінаціями 01010101 та 10101010?

  1. 0;

  2. 2;

  3. 4;

  4. 6;

  5. 8.

30. Чому дорівнює кодова відстань (відстань Хеммінга) між кодовими комбінаціями 00011 та 11000?

  1. 0; 2) 1; 3) 2; 4) 4; 5) 5.

31. Чому дорівнює кодова відстань (відстань Хеммінга) між кодовими комбінаціями 0011100111 та 1010101010?

  1. 1; 2) 3; 3) 5; 4) 7; 5) 10.

32. Кодова відстань (відстань Хеммінга) між двома кодовими комбінаціями це:

  1. різниця між довжинами цих кодових комбінацій;

  2. різниця між сумою символів “1” та сумою символів “0” в цих комбінаціях;

  3. різниця між цілими двійковими числами, що відповідають цим кодовим комбінаціям;

  4. різниця між вагами цих кодових комбінацій;

  5. інше.

33. Кодова відстань (відстань Хеммінга) між двома кодовими комбінаціями довжини 8 не може

  1. дорівнювати 0;

  2. дорівнювати 1;

  3. дорівнювати 8;

  4. бути від’ємним цілим числом, модуль якого не перевищує 8;

  5. бути додатним цілим числом, модуль якого не перевищує 8.

34. Кодова відстань (відстань Хеммінга) між двома кодовими комбінаціями довжиною n – це:

  1. корінь квадратний з n;

  2. кількість позицій, в яких відрізняються ці кодові комбінації;

  3. різниця між цілими двійковими числами, що відповідають цим кодовим комбінаціям;

  4. різниця між вагами цих кодових комбінацій;

  5. максимум значень вагів цих кодових комбінацій.

35. Мінімальним значенням кодової відстані (відстані Хеммінга) між двома кодовими комбінаціями довжиною 8 є таке число:

  1. – 8;

  2. – 4;

  3. 0;

  4. 1;

  5. 2.

36. Максимальним значенням кодової відстані (відстані Хеммінга) між двома кодовими комбінаціями довжиною 8 є таке число :

  1. 0;

  2. 2;

  3. 4;

  4. 8;

  5. 16.

Питання високого рівня складності

37. Ефективне (економне, статистичне) кодування повідомлень дискретного джерела інформації виконується з метою:

  1. спрощення побудови апаратури;

  2. зменшення обсягу повідомлень;

  3. підвищення завадостійкості системи;

  4. підвищення криптостійкості повідомлень;

  5. спрощення процедури декодування.

38. Які з цих виразів щодо ентропії дискретного джерела (в бітах) та середньої довжини двійкового нерівномірного коду (в розрахунку на один символ джерела), що використовується для ефективного кодування повідомлень цього джерела, є правильними?

  1. середня довжина може за деяких умов дорівнювати ентропії;

  2. середня довжина завжди дорівнює ентропії;

  3. середня довжина завжди є меншою за ентропію;

  4. середня довжина не може бути меншою за ентропію;

  5. середня довжина може бути меншою за ентропію.

39. Чим визначається нижня границя середньої довжини коду при застосуванні ефективного (економного, статистичного) кодування повідомлень дискретного джерела інформації?

  1. потужністю алфавіту джерела;

  2. типом джерела (марковське чи немарковське);

  3. зображенням символів джерела;

  4. швидкістю генерації джерелом символів;

  5. ентропією джерела.

40. Ефективне (економне, статистичне) кодування повідомлень дискретного джерела інформації виконується з метою:

  1. поліпшення статистики джерела;

  2. боротьби із помилками;

  3. спрощення процедури кодування;

  4. спрощення процедури декодування;

  5. стиснення повідомлень.

41. Префіксний нерівномірний код – це код, у якого:

  1. найкоротша кодова комбінація не входить до складу будь якої іншої;

  2. всі кодові комбінації мають різні довжини;

  3. будь яка з більш коротких кодових комбінацій не входить до складу будь якої більш довгої;

  4. будь яка з більш коротких кодових комбінацій не збігається із початком будь якої більш довгої;

  5. інше.

42. Застосування префіксного нерівномірного коду забезпечує:

  1. спрощення процедури кодування;

  2. можливість однозначного декодування повідомлень;

  3. підвищення завадостійкості системи;

  4. спрощення процедури декодування;

  5. зменшення необхідної смуги частот.