- •Національний університет біоресурсів і природокористування Кафедра автоматизації сільськогосподарського виробництва
- •Методичні вказівки до виконання
- •Лабораторна робота № 1 Системи числення і цифрова техніка
- •Теоретичні відомості
- •Основою позиційної системи числення є число десять. Загальновживана форма запису числа є насправді не що інше, як скорочена форма запису розкладу за степенями основи системи числення, наприклад:
- •Алгоритми переведення чисел з однієї позиційної системи числення в іншу
- •Представлення від'ємних і дробових чисел у пам'яті комп'ютера
- •Контрольні запитання
- •Лабораторна робота № 2 Представлення даних у пам'яті електронно-обчислювальної машини (еом)
- •Теоретичні відомості
- •1. Системи числення
- •2. Кодіровка ascii
- •3. Кодіровка ascii
- •4. Альтернативна кодова таблиця
- •Завдання на лабораторну роботу
- •Контрольні запитання
- •Лабораторна робота № 3 Ентропія та її властивості. Безумовна, умовна ентропія та ентропія двох джерел
- •Теоретичні відомості
- •Основні властивості ентропії
- •Основні властивості безумовної ентропії дискретних повідомлень:
- •Умовна ентропія
- •Властивості умовної ентропії
- •Завдання на лабораторну роботу
- •Контрольні запитання
- •Лабораторна робота № 4
- •Кодування та стиснення інформації методом хаффмена та Шенона-Фано
- •Мета роботи: Вивчення принципів кодування потоків символів з різною частотою появи символів у потоці, використовуючи метод кодування Хаффмена та Шенона-Фано.
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Лабораторна робота № 5
- •Дослідження завадозахищених кодів
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Порядок виконання роботи
- •Дані для кодування
- •Елементи схеми пофарбовані в зелені кольори дозволяють одержати готові шаблони схем зв'язку, з яких можна створити необхідні схеми.
- •Подвійне нажимання миші в полі елемента викликає набір інструментів для цього елемента з необхідним набором параметрів.
- •Підключення до лінії з'єднання двох елементів здійснюється з використанням правої кнопки миші.
- •Порядок виконання роботи
- •Контрольні запитання
- •Лабораторна робота № 8 Способи стиснення даних методом архівації
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Список літератури
Властивості умовної ентропії
Для статистично незалежних джерел повідомлень А та В умовна ентропія Н(А/В) джерела А відносно джерела В дорівнює безумовній Н(А) ентропії джерела А і навпаки:
Н(А/В) = Н(А); Н(В/А) = Н(В).
Для джерела повідомлень А та В статистично взаємозв'язаних так, що виникнення одного з повідомлень спричинює безумовну появу іншого, умовні ентропії дорівнюють нулю:
Н(А/В) = Н(В/А) = 0.
Умовна ентропія (ентропія джерела взаємозалежних повідомлень) завжди менша від безумовної ентропії (ентропії джерела незалежних повідомлень).
Максимальну ентропію мають джерела взаємонезалежних рівноймовірних повідомлень, умовна ентропія яких дорівнює нулю, а ймовірність р появи символів алфавіту дорівнює р = 1/k, де k — кількість повідомлень в алфавіті.
Загальна умовна ентропія — це питома (середньостатична) кількість інформації, що припадає на будь-яке повідомлення джерела А, якщо відома його статистична взаємозалежність із джерелом В.
Загальна умовна ентропія H(А/В) джерела А відносно джерела В обчислюється як середнє по j значення часткової ентропії Н(А/bj) за всіма j:
.
(12)
Загальна умовна ентропія Н(В/А) джерела В відносно джерела:
.
(13)
Загальна умовна ентропія Н(В/А) визначає (середню) кількістю інформації, яка припадає на будь-яке повідомлення джерела В, статистично залежного від джерела А.
Завдання на лабораторну роботу
Джерело А та В мають розподіли ймовірностей повідомлень:
і
Ентропія якого джерела більша? Яка
максимальна ентропія цього джерела та
за якої умови?
Задано таку матрицю
сумісних ймовірностей появи повідомлень
двох джерел А
та В
з алфавітами
та
,
де
та
Обчислити:
безумовні ймовірності
джерела В,
P(ai)
джерела
A;
безумовну ентропію джерел А і В;
часткову умовну ентропію джерел А і В;
загальну умовну ентропію джерела А відносно В;
загальну умовну ентропію джерела В відносно А;
максимальну ентропію джерел.
Виконати перевірку закону нормування: p(ai/bj), p(bj/ai).
Задано таку матрицю сумісних ймовірностей появи повідомлень двох джерел А та В з алфавітами та , де
та
Визначити часткову та загальну умовну ентропію.
Контрольні запитання
Що таке джерело і ансамбль повідомлень?
Що таке ентропія та які її властивості?
Що таке безумовна та умовна ентропія?
Які основні властивості безумовної ентропії?
Які є різновиди умовної ентропії?
Які основні властивості умовної ентропії?
Як визначається часткова умовна ентропія?
Як визначається загальна умовна ентропія?
Як визначається ентропія об'єднання двох джерел?
Які основні властивості ентропії об'єднання двох джерел?
За яких умов ентропія джерела стає максимальною?
