- •Національний університет біоресурсів і природокористування Кафедра автоматизації сільськогосподарського виробництва
- •Методичні вказівки до виконання
- •Лабораторна робота № 1 Системи числення і цифрова техніка
- •Теоретичні відомості
- •Основою позиційної системи числення є число десять. Загальновживана форма запису числа є насправді не що інше, як скорочена форма запису розкладу за степенями основи системи числення, наприклад:
- •Алгоритми переведення чисел з однієї позиційної системи числення в іншу
- •Представлення від'ємних і дробових чисел у пам'яті комп'ютера
- •Контрольні запитання
- •Лабораторна робота № 2 Представлення даних у пам'яті електронно-обчислювальної машини (еом)
- •Теоретичні відомості
- •1. Системи числення
- •2. Кодіровка ascii
- •3. Кодіровка ascii
- •4. Альтернативна кодова таблиця
- •Завдання на лабораторну роботу
- •Контрольні запитання
- •Лабораторна робота № 3 Ентропія та її властивості. Безумовна, умовна ентропія та ентропія двох джерел
- •Теоретичні відомості
- •Основні властивості ентропії
- •Основні властивості безумовної ентропії дискретних повідомлень:
- •Умовна ентропія
- •Властивості умовної ентропії
- •Завдання на лабораторну роботу
- •Контрольні запитання
- •Лабораторна робота № 4
- •Кодування та стиснення інформації методом хаффмена та Шенона-Фано
- •Мета роботи: Вивчення принципів кодування потоків символів з різною частотою появи символів у потоці, використовуючи метод кодування Хаффмена та Шенона-Фано.
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Лабораторна робота № 5
- •Дослідження завадозахищених кодів
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Порядок виконання роботи
- •Дані для кодування
- •Елементи схеми пофарбовані в зелені кольори дозволяють одержати готові шаблони схем зв'язку, з яких можна створити необхідні схеми.
- •Подвійне нажимання миші в полі елемента викликає набір інструментів для цього елемента з необхідним набором параметрів.
- •Підключення до лінії з'єднання двох елементів здійснюється з використанням правої кнопки миші.
- •Порядок виконання роботи
- •Контрольні запитання
- •Лабораторна робота № 8 Способи стиснення даних методом архівації
- •Теоретичні відомості
- •Порядок виконання роботи
- •Контрольні запитання
- •Список літератури
Контрольні запитання
Який спосіб кодування використовується для представлення даних у пам'яті ЕОМ?
Що називається машинним словом?
Як визначити від’ємне число?
Описати алгоритм отримання прямого коду цілого числа.
Описати алгоритм отримання додаткового коду цілого негативного числа.
Які системи числення широко використовуються для представлення даних в ЕОМ?
Лабораторна робота № 3 Ентропія та її властивості. Безумовна, умовна ентропія та ентропія двох джерел
Мета роботи: оволодіти способами визначення ентропії джерела, часткової, максимальної та загальної умовної ентропії повідомлень.
Теоретичні відомості
Здобуття інформації від джерела знімає певною мірою невизначеність стану спостережуваного об'єкта. Формуючи модель джерела повідомлень (його ансамбль), треба заздалегідь передбачити всі необхідні повідомлення. Кожне таке повідомлення може бути відображене певною кількістю символів, знаків тощо, переносячи певну кількість інформації. При цьому множина повідомлень А є алфавітом повідомлень (первинним), а множина символів, знаків тощо, за допомогою яких спостерігач подає кожне повідомлення у формі, зручній для одержувача, — алфавітом джерела (вторинним). Немає ніякого значення, в якому алфавіті подаються повідомлення. Модель джерела (ансамбль) враховує лише склад їх і розподіл ймовірностей (йдеться про статистично незалежні повідомлення).
Кількість інформації, яка припадає на одне повідомлення джерела, не залежить від складу послідовностей і довжини послідовностей. Інше джерело з іншим ансамблем повідомлень матиме зовсім іншу питому кількість інформації. Ця загальна характеристика джерела повідомлень називається його ентропією Н(А).
Ентропією джерела повідомлень називається питома кількість інформації, яка припадає на одне повідомлення джерела із статистично незалежними повідомленнями. Вона має фізичний зміст середньостатистичної міри невизначеності відомостей спостерігача А відносно стану спостережуваного об'єкта. Точно ентропію можна визначити як математичне сподівання питомої кількості інформації
.
(1)
З цього виразу випливає, що чим вища ентропія, тим більшу кількість інформації в середньому закладено в кожне повідомлення цього джерела, тим важче запам'ятати (записати) або передати таке повідомлення по каналу зв'язку.
Необхідні витрати енергії на передачу повідомлення пропорційні його ентропії (середній кількості інформації на одне повідомлення). Виходить, що кількість інформації в послідовностях визначається кількістю повідомлень N у послідовності та ентропією Н(А) джерела, тобто
i(N) = N·H(A). (2)
Основні властивості ентропії
Розглянемо
вироджене дискретне джерело з єдиним
повідомленням а
А
з
р(а) =
1. Тоді Н(А)
=
0 згідно з (1).
Якщо р(а) = 0, то Н(А) теж дорівнюватиме нулю. Таким чином, ентропія завжди додатна або дорівнює нулю, тобто невід'ємна — це перша властивість.
Друга властивість ентропії випливає з виразу (1), згідно з яким вона є величиною адитивною. Якщо N-вимірні послідовності повідомлень а1, а2, ..., aN розглядати як збільшені повідомлення нового джерела, то його ентропія буде в N разів більшою від початкової.
Якщо алфавіт А = { а1, а2, ..., ak } має k різних повідомлень, то Н(А) ≤ log k. Тут рівність стосується тільки рівноймовірних і статистично незалежних повідомлень аі А. Число k називається обсягом алфавіту повідомлень.
Безумовна ентропія — це кількість інформації, яка припадає на одне повідомлення джерела із статистично незалежними повідомленнями.
Якщо є дискретне джерело статистично незалежних повідомлень з ансамблем А = {а1, а2, ..., aі, ..., ak} та р = {pl, p2, ..., pі,..., рк}, то кількість інформації (середня), що припадає на одне повідомлення aі А й визначається формулою Шеннона
,
(3)
є характеристикою цього джерела в цілому.
Наприклад, джерело з k = 8 незалежними та рівноймовірними повідомленнями має ентропію
біт/повідомлення.
Якщо р = 1 або 0, то до ансамблю А не може входити більш як одне повідомлення. Таким чином,
або (4)
,
де невизначеність 0 · ∞, якщо її розкрити за правилом Лопіталя через граничний перехід, дає
Н0(А) = 0. (5)
Безумовна ентропія K рівноймовірних повідомлень завжди максимальна і обчислюється за формулою Хартлі:
.
(6)
