- •Лекція 1
- •1. Інформаційні системи на транспорті
- •1.1. Класифікація аіс
- •1.2. Структура автоматизованих інформаційних систем
- •Позамашинне інформаційне забезпечення (на папері) складається з:
- •Комплекс технічних засобів аіс складається з
- •Лекція 2
- •Лекція 3
- •2. Моделі даних
- •2.1. Ієрархічна модель даних
- •2.2. Мережева модель даних
- •2.3. Реляційна модель даних
- •Тобто тут атрибути приймають значення з 4-х доменів.
- •Відношення навантаження:
- •Лекція 4
- •3. Реляційні бази даних
- •Таблиця 3 Відношення одержувач:
- •3.1. Первинний ключ (суперключ) відношення
- •3.2. Можливий (потенційний) ключ відношення
- •3.3. Чужий (зовнішній) ключ відношення
- •Лекція 5
- •4. Проектування реляційної бази даних
- •4.1. Цілі проектування рбд
- •4.2. Універсальне відношення
- •4.2.1. Поняття форми відношення. Перша нормальна форма.
- •4.2.2. Проблеми, що можуть виникнути при роботі з рбд
- •Лекція 6
- •4.3. Нормалізація відношення
- •4.3.1. Нормальна форма Бойса-Кодда
- •4.3.2. Функціональні залежності
- •Лекція 7
- •4.4. Er- метод нормалізації відношень
- •4.4.1. Поняття сутності та зв'язку
- •Лекція 8
- •4.4.3.2. Правило №2
- •4.4.3.3. Правило №3
- •4.4.3.4. Правило №4
- •4.4.3.5. Правило №5
- •4.4.3.6. Правило №6
- •4.5. Перевірка отриманих відношень.
- •Лекція 10
- •5. Основні поняття теорії інформації
- •5.1. Одиниці виміру ступеню невизначеності системи
- •5.2. Властивості ентропії
- •Лекція 11
- •5.3. Ентропія та інформація
- •5.4. Ентропія як міра кількості інформації
- •Лекція 12
- •5.5. Кодування дискретних повідомлень
- •5.5.1. Запис повідомлення за допомогою кодів
- •Лекція 13
- •5.5.2. Способи перетворювання кодів
- •Лекція 14
- •5.6. Класифікація (двійкових) кодів
- •5.6.1. Ненадлишкові коди
- •5.6.2. Надлишкові коди
- •5.6.2.1. Коди з виявленням помилок
- •5.6.2.2. Коди з виправленням помилок
- •Лекція 15
- •1.4. Позамашинне інформаційне забезпечення аіс.
- •1.4.1. Системи уніфікованої документації. Документообіг
- •1.4.2. Класифікація та (ідентифікаційне) кодування інформації
- •1.4.3. Методи (ідентифікаційного) кодування
- •Лекція 16
5.1. Одиниці виміру ступеню невизначеності системи
Мірою апріорної (до одержання повідомлення) невизначеності системи Х в теорії інформації є ентропія.
, (Чому
потрібний знак мінус, тому що логарифм
чисел менших за одиницю величина
від’ємна,
≤
)
де
– лічильник можливих станів системи;
–загальна кількість можливих
станів системи;
–ймовірність перебування
системи в і-му стані;
–будь-яке ціле число більше
за одиницю. Від нього залежить розмірність
ентропії. Тобто вибір величини
відповідає вибору
одиниць виміру ентропії:
– десяткові,
– двійкові.
Оскільки всі
ð
,
тому ентропія невід’ємна
величина.
На практиці зручно прийняти
,
тому що це добре
співвідноситься з двійковою системою
подання інформації в ЕОМ
.
За одиницю виміру ентропії прийнятий ступінь невизначеності системи, що має два рівноймовірні стани, й називається ця одиниця біт (bit: binary digit – двійкова цифра).
біт
біт визначає
ентропію одного розряду двійкового
числа, котрий з рівною ймовірністю може
бути нулем чи одиницею.
Ентропія системи, яка має
рівноймовірних станів, дорівнює логарифму
числа можливих станів системи.
,
бо ймовірність і-го
стану системи
.
Наприклад, ентропія системи
,
що має
рівноймовірних станів:
біт
байт.
5.2. Властивості ентропії
Ентропія системи, стан якої відомий, дорівнює нулю.
,
бо границя невизначеності
.
Якщо стан системи відомий, це означає, що ймовірність одного зі станів системи дорівнює одиниці, решти – нулю.
Ентропія системи з кінцевою множиною можливих станів досягає максимуму, якщо всі стани системи рівноймовірні.
.
Приклад 1. Розрахуємо ентропію
інвентарного № вагона. Інвентарний №
вагона складається з
-ми
цифр; число можливих станів системи –
, тому що
-у
цифру не можна вважати випадковою.
біт.
Приклад 2. На вантажний двір
за добу прибуває 2 вагона, причому
– це ймовірність того, що кожний із цих
вагонів виявиться піввагоном.
Знайти ентропію системи
вантажний район, стан якої визначається
прибулим числом піввагонів
протягом
доби.
Система
може перебувати в одному
з трьох станів:
– на вантажний район за добу
не прибуло жодного піввагона,
:
;
– на вантажний район за добу
прибув один піввагон,
:
;
– на вантажний район за добу
прибуло два піввагона,
:
.
Таблиця 30
|
Стан системи |
|
|
|
|
|
Кількість піввагонів |
|
|
|
|
|
Ймовірність |
|
|
|
|
біт.
Лекція 11
5.3. Ентропія та інформація
В міру надходження інформації
про систему, її ентропія зменшується і
може досягти
,
коли ми одержимовсю
інформацію про систему,
тобто з’ясуємо стан, в якому перебуває
система. Таким чином кількістю інформації
можна вважати зменшення ентропії тієї
системи, про яку отримані відомості. До
отримання відомостей ентропія системи
має якесь певне значення
,
після отримання – стан
системи цілком визначений, тобто
.
Отже, кількість отриманої інформації
про стан системи дорівнює
зменшенню ентропії цієї системи.
,
де
– отримана інформація
про стан системи, яку можна оцінити за
допомогою ентропії.
.
Інформація, що необхідна для повного з'ясування стану системи, називається повною інформацією.
Повна інформація про стан системи дорівнює ентропії цієї системи. А формула для її розрахунку має дещо інший вигляд:
.
Величину
розглядають як інформацію, що отримана
від окремого повідомлення про перебування
системи ві-му
стані.
Інформацію від окремого повідомлення про перебування системи в і-му стані називають частковою інформацією.
Якщо
– це часткова інформація
про стан системи від окремого повідомлення,
тоді повну
інформацію
можна розглядати як
інформацію, що отримана від усіх
повідомлень про перебування системи в
різних станах з урахуванням їх
ймовірностей. Формула, за якою визначається
повна інформація
,
має структуру формули
математичного сподівання, тобто повну
інформацію можна розглядати як математичне
сподівання кількості інформації від
окремого повідомлення про стан системи:
,
де
– випадковий стан
системи.
Саме тому повну інформацію називають ще середньою інформацією про стан системи.
Коли всі стани системи рівноймовірні часткова інформація дорівнює повній.
.
Коли стани системи мають різні ймовірності, кількість інформації від різних повідомлень теж різна. Найбільша кількість інформації міститься в повідомленнях про найменш ймовірні (події) стани системи.
Висновок: найбільша часткова інформація міститься в повідомленні про найменш ймовірний стан системи.
Наприклад:
нехай
,
тоді
біт,
але якщо
,
тоді
біт.
Розрахуємо часткову інформацію про прибуття на вантажний район одного, двох піввагонів чи не прибуття жодного:
,
біт,
,
біт,
,
біт.
