
- •Методичні вказівки
- •Лабораторна робота №1 визначення інформаційних характеристик дискретних повідомлень і каналів зв'язку
- •Загальні положення
- •Хід виконання роботи.
- •Вимоги до оформлення роботи
- •Питання до захисту лабораторної роботи
- •Лабораторна робота №2 узгодження дискретного джерела інформації з дискретним каналом зв'язку без шуму
- •Загальні положення
- •Хід виконання роботи.
- •Вимоги до оформлення роботи
- •Лабораторна робота №3 розрахунок інформаційних характеристик безперервних повідомлень. Дискретизація сигналів
- •Загальні положення
- •Частина 1. Розрахунок інформаційних характеристик джерела безперервних повідомлень
- •Частина 2. Вибір параметрів ацп і розрахунок інформаційних характеристик сигналу на виході ацп
- •Вимоги до оформлення роботи
- •Лабораторна робота №4 завадостійке кодування повідомлень
- •Загальні положення
- •Хід виконання роботи Частина 1 Прості коди з виявленням помилок
- •Частина 2 Код Хеммінга
- •Частина 3 Циклічні коди
- •Питання до захисту лабораторної роботи
Вимоги до оформлення роботи
Звіт по лабораторній роботі повинен містити:
Титульний аркуш.
Аркуш із завданням.
Використовувані розрахункові формули з коментарями.
Проміжні й фінальні результати розрахунків.
Аналіз результатів.
Висновки по роботі.
Контрольні питання до захисту лабораторної роботи
Причини виникнення надмірності й методи боротьби з нею.
Теорема Шеннона для дискретного каналу без перешкод і її фізичний зміст.
Теоретичні основи й методики побудови статистичних кодів Шеннона-Фано й Хаффмена.
Алгоритми стиску даних (арифметичне кодування, словникові методи кодування, кодування довжин повторень, диференціальне кодування).
Лабораторна робота №3 розрахунок інформаційних характеристик безперервних повідомлень. Дискретизація сигналів
Мета роботи: навчиться робити оцінку інформаційних характеристик безперервних повідомлень і каналів зв'язку, а також коректно підбирати параметри АЦП при перекладі безперервного сигналу в цифровий.
Задачі роботи:
Вивчити властивості й метод оцінки диференціальної ентропії безперервних повідомлень.
Вивчити властивості й методи оцінки (-ентропії безперервних повідомлень.
Вивчити способи оцінки інформаційних параметрів аналогових каналів зв'язку.
Вивчити умови узгодження інформаційних характеристик джерел безперервних повідомлень і аналогових каналів зв'язку.
Вивчити способи розрахунку параметрів АЦП.
Загальні положення
У даній лабораторній роботі будуть розглядатися джерела безперервних сообщений, які в кожний момент часу можуть випадковим образом прийняти одне з нескінченної множини можливих станів. Під безперервним повідомленням будемо розуміти деяку безперервну випадкову величину, що однозначно відповідає стану джерела. Імовірнісний опис такого повідомлення X задається його щільністю розподілу w(x).
Для опису інформаційних властивостей безперервних величин уведені наступні величини: диференціальна ентропія й (эпсилон) ентропія.
Диференціальна ентропія не є мірою власної інформації, що втримується в ансамблі значень випадкової величини Х. Вона залежить від масштабу Х и може приймати негативні значення. Інформаційний зміст має не сама диференціальна ентропія, а різниця двох диференціальних энтропій, чим і пояснюється її назва.
-ентропія визначає мінімальну кількість інформації, що втримується в одному відліку безперервного повідомлення для відтворення його із заданою вірністю.
Вихідні дані для лабораторної роботи наведені в таблиці 3.1:
щільність імовірності миттєвих значень первинного сигналу
;
середня потужність сигналу
,Вт;
коефіцієнт амплітуди
первинного сигналу;
максимальна частота спектра первинного сигналу
;
відношення середньої потужності первинного сигналу до середньої потужності помилки відтворення на виході системи передачі
;
відношення сигнал/шум квантування
.
Частина 1. Розрахунок інформаційних характеристик джерела безперервних повідомлень
Повідомлення
безперервного джерела перетвориться
в первинний аналоговий сигнал
звичайно без втрати інформації, тому
розрахунки інформаційних характеристик
джерела проводяться для первинного
сигналу.
Підлягають розрахунку:
диференціальна ентропія джерела
;
умовна диференціальна ентропія
;
эпсилон-энтропия джерела
;
коефіцієнт надмірності джерела
;
продуктивність джерела
;
пропускна здатність каналу зв'язку С.
Диференціальна
ентропія
й умовна ентропія
обчислюються виходячи з відомих функцій
розподілу щільності ймовірності.
Диференціальна ентропія сигналу залежить
від виду розподіл імовірностей
і дисперсії сигналу
,
і відповідні розрахункові формули для
її обчислень наведені в табл. 1. У сигналів
із середнім значенням рівним нулю
.
При
розрахунках думають, що помилка
відтворення на виході системи передачі
є гаусовською. При обчисленні умовної
ентропії
використається значення дисперсії
помилки відтворення (потужності перешкоди
на виході системи передачі)
.
Значення
визначається по заданому відношенню
сигнал/перешкода
й середньої потужності сигналу
виходячи з формули:
де
-
середня потужність первинного сигналу;
-
середня потужність перешкоди на виході
системи передачі.
До обчислень задане в децибелах відношення необхідно представити в разах:
.
Коефіцієнт
надмірності джерела
обчислюється на основі значення
епсілон-энтропіі
й максимально можливого значення
.
Продуктивність
джерела
,
що називають епсілон-продуктивністю,
обчислюють у припущенні, що відліки
випливають через інтервал Котельникова.
Вимоги до пропускної здатності безперервного каналу зв'язки формулюються на основі теореми кодування для каналу з перешкодами.
Таблиця 3.1 - Диференціальна ентропія для деяких законів розподілу випадкових величин
Розподіл імовірності |
Диференціальна ентропія , біт/відлік |
Нормальний
розподіл (рис. 3.1а)
|
|
Двосторонній експонентний розподіл (рис. 3.1б)
|
|
Р
|
|