
- •Оптимальне кодування
- •Основні властивості оптимальних кодів
- •Методика Шенона і Фано
- •Методика Хаффмана
- •Оптимальні нерівномірні коди (онк)
- •Завадостійке кодування
- •Роздільні і не роздільні коди
- •Лінійні групові коди
- •Спосіб формування кодів.
- •Лінійні блокові коди
- •Загальні особливості стиснення інформації.
- •Розглянемо деякі способи стиснення
- •Стиск інформації
- •Метод стиску Лемпеля-Зіва (Lempela-Ziva)
- •Алгоритм lzss
- •Алгоритм lz78
- •Алгоритм lzw
- •Стиск інформації із втратами
- •Загальні теоретичні основи цифрових комунікацій
- •Особливості та алгоритми кодування голосу.
- •Огляд каналів та систем передачі інформації
- •Мережі типу Wi-Fi
- •Мережі типуBluetooth
- •Мережі типу Wi-max
- •Cтандарт іеее 80216
- •Загальні особливості оптичних каналів зв’яку
- •Вірогідність передачі колових повідомлень
- •Деякі способи стиснення при передачі інформації
- •Зонне стиснення інформації
- •Стиснення інформації використанням адаптивного кодування
- •Стиснення інформації збільшення основи коду
- •Ефективність кодуванні при збільшення основи коду
- •Вплив зворотнього зв'язку на ефективність передачі інформації
- •Код Ріда-Соломона
Вірогідність передачі колових повідомлень
Оцінюється відповідністю між кодовими комбінаціями в каналі зв’язку та прийнятими. Оцінка вірогідності обміну інформації визначається ймовірністю спотворення повідомлень, тобто прийняттям помилкового повідомлення Рп у порівнянні із відомою ймовірністю спотворення елемента повідомлення Ре. Таким чином вірогідність передачі є похідною характеристикою, яка залежить як від коректувальної здатності так і від типу каналу зв’язку елементів кодової комбінації.
Для двійкових кодів дія завад на елемент кодової комбінації може привести до різних наслідків у симетричних та несиметричних каналах. Для симетричних каналів ймовірність переходу під впливом завад нуля в одиницю Р01 і одиниці в нуль Р10 є однаковими і Р01=Р10=Ре
Ре – ймовірність спотворення одного елемента.
Для несиметричних каналів ці значення не є однаковими, однак для спрощення досліджень припускають їх також однаковими і рівними Ре. Крім того розрізняють канали із незалежними помилками. Такий канал називається каналом без помилок.
Також розрізняють канали із пакетним розподілом помилок, в яких є залежність ймовірності спотворення наступного елемента, що передається від спотвореного попереднього. Такий канал називається калом з пам’яттю.
Оцінка вірогідності передачі повідомлень через такі двійкові симетричні канали має наступні особливості. У разі передачі повідомлень через канали із незалежними помилками. Ймовірність відсутності спотворень двійкового елемента повідомлення визначається як різниця між 1 та Ре і тоді для двійкової послідовності із n елементів ймовірність правильно прийнятої послідовності Рпр буде визначатися
Ймовірність помилки в такій послідовності визначається
В загальному випадку цей вираз можна подати як
,
де
v=1,2,3….
v-кратність помилки
В переважній більшості Р<<1, тому ймовірність помилки можна подати через вираз
Pn=nPe
Користувальні коди мають можливість виявити і виправити помилки залежно від кодової відстані на певну кількість помилок, тому для оцінювання ефективності кодів необхідно знати ймовірність виникнення в кодовій комбінації помилок будь-якої кратності. При незалежних помилках ймовірність появи v-кратних помилок визначається за формулою Бернуллі
Для кодів з мінімальною кодовою відстанню більше 1, що використовується з метою виявлення всіх помилок кратності Vв=dmin-1 і меншою за Vв ймовірність помилкової (неправильної) комбінації на виході декодера легко знайти, врахувавши, що при передачі в комбінації можуть 4 ситуації:
Комбінація, що приходить з каналу без помилок з ймовірністю Рпр
Комбінація містить не більше як Vв спотворених елементів, що виправляються кодом і ймовірність такої події Рвп
Комбінація містить більше за Vв помилок, але вони розташовані таким чиномЮ що виявляються кодом, ймовірність такої подія Р’вп
Прийнята комбінація містить більше за Vв помилок, відповідно кодом не виявляються і не виправляються. Ймовірність такої події Рнвп
Оскільки ймовірність всіх 4-х перелічених подій дорівнюють 0,25 (?), а ймовірність Р’вп назвичайно низька (приблизно 0), то справедливий вираз
Рп=Рвп+Рнвп