
Добавил:
Upload
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз:
Предмет:
Файл:відповіді1.doc
X
- •1 Які існують види інформації?
- •2 Як формулюється теорема дискретизації?
- •3 Що таке інформація, кодування, канал зв'язку, шум?
- •4.Що таке ансамблі та джерела повідомлень
- •5 У чому полягають основні положення Шеннона до визначення кількості інформації?
- •7 Що таке ентропія джерела? Які її властивості?
- •9 Що таке умовна ентропія? Які є види умовної ентропії?
- •11 Як знаходиться часткова умовна ентропія?
- •12 Як знаходиться загальна умовна ентропія?
- •13 Які основні властивості умовної ентропії?
- •14 Чим обумовлена статистична надмірність джерела інформації?
- •15 Чим описується інформаційний канал?
- •17 Чим визначається ентропія об'єднання двох джерел інформації?
- •18 Які основні властивості взаємної ентропії?
- •19 Як знаходиться кількість інформації на одне повідомлення двох статистично залежних джерел?
- •27 Що таке продуктивність джерела інформації?
- •28 Що таке швидкість передачі інформації по каналу зв'язку та як вона визначається?
- •30 Як формулюється теорема Шеннона про кодування дискретного джерела за відсутності завад?
- •32 Як формулюється теорема Шеннона про кодування дискретного джерела за наявності завад?
- •33 Якими статистичними моделями описуються джерела інформації?
32 Як формулюється теорема Шеннона про кодування дискретного джерела за наявності завад?
За наявності завад в каналі основна теорема кодування узагальнюється такою теоремою:
Якщо для будь-якого повідомлення дискретного джерела X задана ймовірність його спотворення в каналі , то для будь-якого > 0 існує спосіб передачі інформації зі швидкістю
,
скільки завгодно близькою до
,
при якому ймовірність помилки в каналі буде менше . Цей спосіб утворює завадостійкий код.
33 Якими статистичними моделями описуються джерела інформації?
1 Шеннон К. Работы по теории информации и кибернетике. - М., Изд-во иностранной литературы, 1963.
Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]