- •Відповіді:
- •Етап 3. Відшукання шляху до вузла k з мінімальною вартістю.
- •Для усіх вузлів і суміжних (сусідів) з вузлом .
- •Відповіді
- •Комбінаторне визначення кількості інформації з хартли
- •Імовірне визначення кількості інформації за шенноном
- •Алгоритми і протоколи маршрутизації в комп'ютерних мережах.
Етап 3. Відшукання шляху до вузла k з мінімальною вартістю.
Визначаємо
допоміжну множину
вузлів
(
),
суміжних з
(вузлів-сусідів).
Відшукання такого шляху здійснюється відповідно до виразу:
Для усіх вузлів і суміжних (сусідів) з вузлом .
Якщо
множина
порожня, то алогрітм вважається
завершеним. Максимальне
число кроків алгоритму рівне
.
Етапи 2, 3 циклічно повторяться доти, поки не будуть визначені оптимальні (найкоротші) шляхи від вузла-джерела до усіх вершин мережі, тобто поки безліч не збіжиться з безліччю , що перевіряється на 2-му етапі.
На кожній
ітерації до безлічі
додається новий вузол
,
а значення
на цей момент часу являє собою мінімальну
вартість шляху від вузла-джерела
до вузла
.
Шлях з найменшою вартістю повинний
проходити тільки через вузли, що уже
входять у безліч
.
Варто помітити, що на першій ітерації
вузол
повинний бути зв'язаний із джерелом
прямо. Другий, що додається в безліч
вузол, повинний бути зв'язаний прямо
або з вузлом-джерелом, або з вузлом, уже
доданим до безлічі
.
На наступних кроках значення шляхів з
найменшою вартістю обновляється тільки
для вузлів, ще не включених у безліч
.
Основною гідністю алгоритму Дейкстри є його збіжність – число кроків алгоритму не перевищує . Недоліком є те, що у ряді достатніх окремих випадків визначені алгоритмом «найкоротші відстані» між деякими вузлами мережі не будуть такими.
Білет №2
Кількість інформації: визначення, властивості і основні співвідношення.
Алгоритми і протоколи маршрутизації в комп’ютерних мережах.
Відповіді
Тобто в загальному випадку мірою кількості інформації повинна служити величина, що вимірює зміну імовірності події під впливом повідомлення.
Разом з тим, доцільно пред'явити ще деякі вимоги до визначення кількості інформації. Варто врахувати, що (для дискретної системи) інформація передається звичайно не одним символом, а їх послідовністю. Розумно вимагати, щоб у випадку незалежних символів (повідомлень) загальна кількість отриманої інформації дорівнювало сумі кількостей інформації в окремих символах або повідомленнях. Ще більш загальна розумна вимога полягає в тім, щоб кількість інформації лінійно наростало з ростом числа символом (повідомлень) навіть і при наявності статистичної залежності між ними.
Задоволення цим вимогам призводить до наступного визначення кількості інформації, що не є єдино можливим і єдино застосовуваним, однак відповідає нашим інтуїтивним уявленням.
Кількість
інформації в повідомленні про деяку
подію, апріорна (до прийому повідомлення)
імовірність якого
,
а апостеріорна (після прийому повідомлення)
імовірність якого
,
визначимо як
,
(1)
логарифм відносини відповідних імовірностей. Покажемо, що така міра зручна у світлі представлених вище вимог.
Розглянемо
для простоти спочатку випадок, у якому
відсутні шуми, тобто приймач приймає
повідомлення безпомилково (узагалі
говорячи в лініях зв'язку шуми (причина
помилок) є завжди). У цьому випадку
(імовірність події після прийому
безпомилкового повідомлення про нього)
і кількість інформації дорівнює
.
(2)
Запитується,
яку прийняти основу в логарифмі. Взагалі
говорячи, це байдуже. Від цього міняється
тільки масштаб. Можна, наприклад, прийняти
основу 10 (
),
тоді ми одержимо десяткову одиницю
кількості інформації (дит).
Для аналітичних розрахунків зручно
застосувати натуральний логарифм (
),
і відповідно з'являється натуральна
одиниця кількості інформації (нат).
Найчастіше (це зручно з погляду
особливостей цифрової техніки)
застосовують двійкові логарифми і
відповідно двійкові одиниці інформації
(біти).
Біт
— це кількість інформації (
біт)
(десь і далі будемо позначати
),
що утримується
в повідомленні про настання
одного
з двох рівноймовірних
подій (
).
Співвідношення для визначення кількості інформації були отримані нами інтуїтивно. Обґрунтуємо справедливість (2).
У класичній теорії інформації відомо принаймні два визначення кількості інформації. Обидва визначення дуже близькі між собою, принципове розходження між ними з'являється лише при спробі ввести значеннєвий зміст інформації. Перше визначення (по ХАРТЛИ) використовує комбінаторний підхід, друге (по ШЕННОНУ) поширює на передачу й обробку інформації ймовірну точку зору.
