Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

125 Кібербезпека / 3 Курс / 3.1_Теорія інформації та кодування / Перелiк питань на екзамен для СБ

.pdf
Скачиваний:
87
Добавлен:
18.10.2019
Размер:
436.27 Кб
Скачать

Перелік питань на екзамен (СБ)

1.Які існують види інформації?

2.Як перевести неперервну інформацію в дискретний (цифровий) вигляд?

3.Що таке частота дискретизації неперервної інформації?

4.Як формулюється теорема дискретизації?

5.Що таке інформація, кодування, канал зв'язку, шум?

6.У чому полягають основні положення Шеннона до визначення кількості інформації?

7.Як визначається кількість інформації, що міститься в одному повідомленні дискретного джерела?

8.Як визначається кількість інформації на одне повідомлення джерела взаємозалежних повідомлень?

9.Що таке повідомлення?

10.У чому полягає різниця між даними, повідомленнями та інформацією?

11.Чим характеризуються неперервні та дискретні повідомлення?

12.У чому полягають операції перетворення сигналу на повідомлення при передачі інформації?

13.Властивості інформації?

14.Які бувають математичні моделі каналів зв’язку?

15.Що таке джерело повідомлень?

16.Що таке ансамбль повідомлень?

17.Що таке ентропія джерела? Які її властивості?

18.За яких умов ентропія джерела максимальна?

19.Як визначається кількість інформації? Які властивості кількості інформації?

20.Що таке умовна ентропія?

21.Як описується модель системи передачі інформації?

22.Які є види умовної ентропії?

23.Які основні властивості умовної ентропії?

24.Як знаходиться часткова умовна ентропія?

25.Як знаходиться загальна умовна ентропія?

26.Чим обумовлена статистична надмірність джерела інформації?

27.Чим визначається ентропія об'єднання двох джерел інформації?

28.Які основні властивості взаємної ентропії?

29.Які є різновиди умовної ентропії?

30.Як знаходиться кількість інформації на одне повідомлення двох статистично залежних джерел?

31.Що таке продуктивність джерела інформації?

32.Як визначається швидкість передачі інформації по каналу зв'язку?

33.Чим визначаються інформаційні втрати при передачі інформації по каналу зв'язку?

34.Чим визначаються інформаційні втрати в каналі за відсутності завад?

35.Чим визначаються інформаційні втрати в каналі при великому рівні завад?

36.Чим визначаються інформаційні втрати в каналі за наявності завад?

37.Як знаходиться кількість інформації, передана в одному повідомленні?

38.Чим визначається пропускна спроможність каналу зв'язку?

39.Чим визначається пропускна спроможність каналу зв'язку за відсутності завад?

40.Як формулюється теорема Шеннона про кодування дискретного джерела за відсутності завад?

41.Як формулюється теорема Шеннона про кодування дискретного джерела за наявності завад?

42.Як формулюється зворотна теорема Фано про кодування дискретного джерела за наявності завад?

43.Що таке економне кодування інформації? З якою метою воно здійснюється?

44.Які існують способи задання кодів?

45.Що таке рівномірні й нерівномірні коди?

46.З якою метою використовуються оптимальні нерівномірні коди?

47.Що таке надлишковість коду? Як вона визначається?

48.Які основні властивості ентропії об’єднання двох джерел?

49.Як визначається кількість інформації на одне повідомлення двох статистично взаємозв’язаних джерел?

50.За яких умов ентропія двох джерел стає максимальною?

51.Чим визначається продуктивність дискретного джерела?

52.Як можна визначити продуктивність дискретного джерела з різною тривалістю вибору повідомлень?

53.Яке кодування інформації називається статистичним? Які алгоритми стиснення даних відносять до статистичних?

54.Що таке оптимальне кодування інформації? Який критерій оптимальності статистичних кодів?

55.Які коди називаються префіксними? Що таке вектор Крафта? Як записується нерівність Крафта? У чому полягає умова оптимальності префіксних кодів?

56.У чому полягає алгоритм побудови птимального коду Шеннона-Фано?

57.У чому полягає алгоритм побудови оптимального коду Хаффмена?

58. Які

переваги

та

недоліки

використання

оптимального

кодування Шеннона-Фано і Хаффмена?

 

 

59.Чим визначається верхня границя стиснення інформації? Які існують границі стиснення при використанні оптимального кодування Шеннона-

Фано і Хаффмена?

60.Які коди характеризуються «наявністю пам'яті»?

61.Які коди називаються блоковими? Що таке порядок блокового коду?

62.У чому полягає метод блокування повідомлень? Як будується блоковий код Хаффмена?

63.У чому полягає арифметичний алгоритм кодування інформації? Які його переваги в порівнянні з іншими статистичними методами стиснення інформації?

64.Як здійснюється декодування даних за арифметичним алгоритмом?

65.У чому полягає адаптивний алгоритм Хаффмена? Що таке упорядковане дерево Хаффмена?

66.Як здійснюється кодування/декодування вхідних даних за адаптивним алгоритмом Хаффмена?

67.Які переваги і недоліки адаптивного алгоритму Хаффмена?

68.У чому полягає основна ідея словникових методів стиснення інформації? У чому переваги використання словникових методів у порівнянні із статистичними?

69.Як визначається швидкість передачі інформації по дискретному каналу?

70.Чому дорівнюють інформаційні втрати при передачі інформації по каналу зв’язку?

71.Як визначається пропускна здатність каналу передачі?

72.Як визначається пропускна здатність каналу при відсутності завад?

73.Чому дорівнюють інформаційні втрати при передачі інформації по каналу зв’язку?

74.Чому дорівнюють інформаційні втрати в каналі з абсолютною статистичною залежністю між входом і виходом?

75.Чому дорівнюють інформаційні втрати в каналі з статистичною незалежністю входу і виходу?

76.Чим визначається продуктивність дискретного джерела?

77.Як формулюється теорема Шеннона про кодування дискретного джерела?

78.У чому полягає зміст теореми Шеннона про кодування дискретного джерела?

79.Характеристики кодів для виявлення та виправлення помилок?

80.Циклічні коди. Побудова твірного полінома.

81.Код Хеммінга та його побудова.

82.Виявлення помилки при передачі інформації за допомогою коду Хеммінга.

83.Рекурентні коди, їх застосування та недоліки.

84.Ітеративні коди, їх застосування та недоліки.

85.Коди, зо виявляють помилки.

86.Показники якості коректую чого коду.

87.Систематичні коди та побудова породжуючої матриці.

88.Зв'язок коректувальної властивості коду із кодовою відстанню.

89.Класифікація завадостійких кодів.

90.Багатопозиційні коди. Код Ріда-Соломона.

91.Стиснення повідомлень при передачі даних.

Практичні:

Обчислити ентропію, максимальну ентропію, надлишковість.

Закодувати, використовуючи алгоритм Шеннона-Фано, Хаффмена, Хеммінга, циклічний код.

Закодувати кодами, що виявляють помилки.

Умовна ентропія, кількість інформації.