- •Лекція 1
- •1. Інформаційні системи на транспорті
- •1.1. Класифікація аіс
- •1.2. Структура автоматизованих інформаційних систем
- •Позамашинне інформаційне забезпечення (на папері) містить у собі
- •Комплекс технічних засобів аіс складається з
- •Лекція 2
- •1.3. Внутрішньомашинне інформаційне забезпечення аіс.
- •Інформаційні банки даних.
- •Основу сучасних аіс складають інформаційні банки даних.
- •Інформаційні банки даних з'явилися з початком використання інтегрованого опрацювання даних.
- •Лекція 3
- •2. Моделі даних
- •2.1. Ієрархічна модель
- •2.2. Сітьова модель
- •2.3. Реляційна модель даних
- •Тобто тут атрибути приймають значення з 4-х доменів.
- •Відношення навантаження:
- •Лекція 4
- •3. Реляційні бази даних
- •Відношення одержувач:
- •3.1. Первинний ключ відношення
- •3.2. Можливий ключ відношення
- •3.3. Чужі ключі
- •Лекція 5
- •4. Проектування реляційної бази даних
- •4.1. Цілі проектування рбд
- •4.2. Універсальне відношення
- •4.2.1. Поняття форми відношення. Перша нормальна форма.
- •4.2.2. Проблеми, що можуть виникнути при роботі з рбд
- •Лекція 6
- •4.3. Нормалізація відношення
- •4.3.1. Нормальна форма Бойса-Кодда
- •4.3.2. Функціональні залежності
- •Лекція 7
- •4.4.1. Поняття сутності і зв'язку
- •Лекція 8
- •4.4.2. Ступінь зв'язку
- •Лекція 9-10
- •4.4.3. Побудова попередніх відношень
- •4.4.3.1. Правило 1
- •4.4.3.2. Правило 2
- •4.4.3.3. Правило 3
- •4.4.3.4. Правило 4
- •4.4.3.5. Правило 5
- •4.4.3.6. Правило 6
- •4.5. Перевірка отриманих відношень.
- •4.6. Концептуальна модель даних
- •Лекція 11
- •5. Основні поняття теорії інформації
- •5.1. Одиниці виміру ентропії
- •Лекція 12
- •5.2. Властивості ентропії
- •5.3. Ентропія та інформація
- •Лекція 13
- •5.4. Ентропія як міра кількості інформації
- •5.5. Кодування дискретних повідомлень
- •Лекція 14
- •5.5.1. Запис повідомлення за допомогою кодів
- •5.5.2. Способи перетворювання кодів
- •Лекція 15
- •5.6. Класифікація (двійкових) кодів
- •5.6.1. Ненадлишкові коди
- •5.6.2. Надлишкові коди
- •5.6.2.1. Коди з виявленням помилок
- •5.6.2.2. Коди з виправленням помилок
- •Лекція 16
- •1.4. Позамашинне інформаційне забезпечення аіс.
- •1.4.1. Системи уніфікованої документації (документообіг)
- •Лекція 17
- •1.4.2. Класифікація та ідентифікаційне кодування інформації
- •1.4.3. Методи ідентифікаційного кодування
- •Лекція 18
- •1.4 .4. Захист від помилок ідентифікаційних кодів
- •1.4.4.1. Захист від помилок інвентарного номера вагона
- •1.4.4.2. Захист від помилок коду єср станції
5.1. Одиниці виміру ентропії
Мірою апріорної (до одержання повідомлення) невизначеності системи Х в теорії інформації є ентропія.
H (Х) = -
logа
P
i
, (Чому потрібний знак мінус, тому що
logа
Pi
0)
де і – лічильник можливих станів системи;
n – загальна кількість можливих станів системи;
P i – ймовірність знаходження системи в і-му стані;
а – основа логарифму: будь-яке ціле число більше 1.
Від нього залежить розмірність величини H(Х).
Тобто вибір а відповідає вибору одиниць виміру ентропії: а=10 – десяткові, а=2 – двійкові.
На практиці зручно прийняти а=2, тому що це добре співвідноситься з двійковою системою подання інформації в ЕОМ (log2 Pi).
За одиницю виміру ентропії прийнятий ступінь невизначеності системи, що має два рівноймовірних стани, й називається ця одиниця біт (bit: binary digit – двійкова цифра).
H(Х)
= -(1/2 ·log
(1/2)
+ 1/2 ·log
(1/2))
= -(1/2·(-1)
+ 1/2 (-1)) = 1 біт
1 біт визначає ентропію одного розряду двійкового числа, котре з рівною ймовірністю може бути 0 чи 1.
Ентропія системи, що має n рівноймовірних станів, дорівнює логарифму числа можливих станів системи.
H(Х) = - n Pilog2 Pi = -n1/nlog2 (1/ n) = -(log2 1- log2 n) = log2 n,
бо ймовірність і-го стану системи Рі=1/n.
Наприклад, ентропія системи Х, що має n = 256 рівноймовірних станів:
H(Х) = log2256 = 8біт = 1байт.
Лекція 12
5.2. Властивості ентропії
Ентропія системи, стан якої відомий, дорівнює нулю.
H(Х) = - (1 log2 1 + 0 log2 0 +…) = 0,
бо границя невизначеності lim Pi log2 Pi 0.
Рі0
Якщо стан системи відомий, це означає, що ймовірність одного зі станів системи дорівнює одиниці, інших – нулю.
Ентропія системи з кінцевою множиною можливих станів досягає максимуму, якщо всі стани системи рівноймовірні.
Hmax(X) = log2 n
Приклад 1. Розрахуємо ентропію інвентарного № вагона. Інвентарний № вагона складається з 8 цифр; число можливих станів системи – 107 , тому що 8-а цифра не випадкова.
біт
Приклад 2. На вантажний двір за добу прибуває 2 вагона, причому P=0,3 – це ймовірність того, що кожний із цих вагонів виявиться піввагоном.
Знайти ентропію системи вантажний двір, стан якої визначається прибулим числом піввагонів M.
Система Х може перебувати в одному з трьох станів:
– на вантажний двір за добу не прибуло жодного піввагона, M=0:
P1=(1-0,3)(1-0,3)=0,49;
– на вантажний двір за добу прибув один піввагон, M=1:
P2=(1-0,3)0,3 + 0,3 (1-0,3)=0,42;
– на вантажний двір за добу прибуло два піввагона, M=2:
P3=0,30,3=0,09.
Таблиця 30
|
Х |
Х1 |
Х2 |
Х3 |
|
M |
0 |
1 |
2 |
|
Р |
0,49 |
0,42 |
0,09 |
H(Х)=(0,49log20,49+0,42log20,42+0,09log20,09)=1,34 біт
5.3. Ентропія та інформація
В міру надходження інформації про систему, її ентропія зменшується і може досягти 0, коли ми цілком одержимо інформацію про систему. Отже, кількість інформації можна вимірювати як зменшення ентропії тієї системи, про яку отримані відомості. До отримання відомостей ентропія системи має якесь певне значення H(X), після – стан системи цілком визначений, тобто H(X)=0. Таким чином отримана інформація про стан системи дорівнює зменшенню ентропії цієї системи.
Ix = H(X) - 0 =H(X),
де Iх – отримана інформація про стан системи, яку можна оцінити за допомогою ентропії.
Ix = - log Pi
Кількість інформації, необхідної для повного з'ясування стану системи, дорівнює ентропії цієї системи і називається повною інформацією.
Ix = (-log Pi)
Величину (-log Pi) можливо розглядати як часткову інформацію, яка отримана від окремого повідомлення про те, чи знаходиться система в і-му стані:
Ixi = - logPi – це часткова інформація про те, чи знаходиться система в і-му стані.
Тоді Iх – це інформація, яка отримана від усіх повідомлень з урахуванням їх ймовірностей. Формула, за якою визначається повна інформація Ix, має структуру формулі математичного очікування, тобто повну інформацію можна розглядати як математичне очікування кількості інформації від окремого повідомлення про стан системи:
Ix = М[ -log P(Х) ], де Х – випадковий стан системи.
Тому повну інформацію називають ще середньою інформацією про стан системи.
Оскільки всі Рi 1, то Ixi та Ix 0.
Коли всі стани системи рівноймовірні, то у цьому випадку часткова інформація дорівнює повної.
Ix = Ixi = log n
Коли стани системи мають різні ймовірності, кількість інформації від різних повідомлень теж різна. Найбільша кількість інформації міститься в повідомленнях про найменш ймовірні (події) стани системи.
Висновок: найбільша часткова інформація міститься в повідомленні про найменш ймовірний стан системи.
Наприклад:
Нехай Рi = 0,1, тоді Ixi = - log Pi = - log 0,1= 3,32 біт,
Рi = 0,01, тоді Ixi = - log 0,01= 6,64 біт.
Часткова інформація про прибуття на вантажний район жодного, одного чи двох п/в:
Ix0 =- log 0,49 = 1,03 біт,
Ix1 = - log 0,42 = 1,25 біт,
Ix2 = - log 0,09 = 3,47 біт.
