- •Конспект лекцій з курсу «теорія електрозвязку»
- •I. Основна
- •II. Додаткова
- •Теорія електрозв’язку
- •V семестр, залік, екзамен.
- •В. 1. Загальна характеристика курсу.
- •В.2. Місце курсу серед інших дисциплін та взаємодія між ними.
- •В. 3. Предмет теорії зв’язку. Основні його складові.
- •В. 4. Задачі курсу.
- •В. 5. Шляхи і методи дослідження.
- •В. 6. Означення курсу.
- •В. 7. Історія та перспективи розвитку тез.
- •Розділ I Основні поняття та визначення в системі електрозв’язку
- •1.1. Інформація, повідомлення, сигнали.
- •2. Кодування та декодування.
- •1.2.1Двійкова система кодування
- •1.2.2.Декодування.
- •1.2.3.Дискретизація і кодування неперервних сигналів.
- •1. 3. Завади та перекручення.
- •1.3.1.Зосереджені по спектру завади.
- •1. 4. Основні характеристики систем зв’язку.
- •4. 1. Основні відомості з теорії інформації.
- •1.4.2.Оцінка якості передачі сигналу. Неперервні повідомлення.
1.3.1.Зосереджені по спектру завади.
Природа даних завад полягає в наявності сторонніх радіостанцій, що працюють на несучих частотах, близьких до даної. На відміну від флуктуаційних завад з безмежним рівномірним спектром, спектр даних завад зосереджений і, як правило, його ширина менша полоси пропускання приймача. В діапазоні коротких хвиль даний тип завад є основним.
Перекручення – це такі невипадкові зміни форми сигналу, що виникають внаслідок неідеальних характеристик приладів, що використовуються в каналах зв’язку. Головна причина їх наявності : перехідні процеси в лініях зв’язку, ланках приймача та передавача. Перекручення прогнозовані, тому їх вплив можна в тій чи іншій мірі коректувати.
Боротьба з завадами проводиться в основному по трьох напрямках :
1. Послаблення завад в місцях їх виникнення (наприклад, в електричному запалюванні двигунів).
2. Послаблення завад на шляхах їх проникнення в приймач.
3. Послаблення впливу завад на повідомлення в процесі демодуляції та декодування, тобто при обробці прийнятого сигналу.
1. 4. Основні характеристики систем зв’язку.
-
4. 1. Основні відомості з теорії інформації.
Основними інформаційними характеристиками є :
- кількість інформації в повідомленнях;
- надлишковість повідомлень;
- ентропія та продуктивність джерела інформації;
- швидкість передачі інформації;
- пропускна здатність каналу зв’язку.
ТЕЗ дає можливість розрахувати дані параметри.
Для дискретних сигналів.
Нехай “m” - об’єм алфавіту “A” джерела повідомлень. Нехай кожне повідомлення (довжина кодової комбінації) містить “n” символів. Тоді кількість інформації за пропозицією Хартлі (1928р.) вимірюється логарифмічним виразом
I = log N0 = n·log m,
де N0 = mn – кількість різних повідомлень.
Log є тому, що інформація повинна бути адитивною.
Дане кількісне співвідношення для вимірювання величини інформації не враховує випадковий характер її передачі, формування повідомлення. Тобто необхідно пов’язати кількість інформації в повідомленнях з імовірністю її появи. В 1928р. Шенон розв’язав дану задачу. Якщо імовірність появи символів однакова, то кількість інформації, що переносить один символ, буде :
I1 =+ log m.
Імовірність появи одного символу з m усіх буде p = 1/m; або ж m = 1/p. Тоді I1 = -log p – це є зв’язок кількості інформації з імовірністю її появи.
В реальних ситуаціях імовірність появи того чи іншого символу різна. Якщо символ ai є A, то імовірність його появи p(ai). Кількість інформації, що переносить даний символ :
Ii =- log p(ai)
– це випадкова величина. Ймовірність появи інформації Ii буде p(ai).
Середнє значення інформації, що припадає на один символ
m
H(A) = - ∑ p(ai)·log p(ai) (*)
i=1
Вираз (*) відомий як формула Шенона для ентропії джерела дискретних повідомлень. Ентропія є неперервною функцією імовірності появи символів і має властивості :
1. Ентропія джерела повідомлення дійсна.
2.Обмежена та додатна.
3.Ентропія рівна “0”, якщо з імовірністю p= 1 вибирається один і той же символ.
Приймає найбільше значення, якщо усі символи приймаються з одною і тією ж імовірністю
Hmax = -m·p·log p = -m·1/m·log(1/m) = log m.
Часто імовірність появи даного символу залежить від значення попереднього (перехідні процеси). Щоб врахувати усі факти вводять кореляційні зв’язки між символами.
Нехай імовірність p(a´j/ai) – появи символу a´j при попередньо прийнятому символі ai.
Введемо поняття умовної ентропії
Умовна ентропія H(A´/A) – це середня кількість інформації, що переносить один символ при наявності кореляційних зв’язків між двома сусідніми символами в повідомленнях. Зрозуміло, що наявність взаємозв’язків між символами, а також різна ймовірність їх появи, приводить до зменшення кількості інформації, що переноситься одним символом.
Такі втрати інформації кількісно вимірюються коефіцієнтом надлишковості
де – найбільша кількість інформації, що передається одним символом; – кількість інформації, що реально переноситься.
Одиницею вимірювання кількості інформації є «біт» – максимальна кількість інформації, що переносить один символ джерела дискретних повідомлень, якщо алфавіт джерела включає два символи 0 та 1 і використовується двійкова система логарифмів.
Продуктивність джерела :
H´ = H/t (біт/c)
– середнє число інформації, що створюється за 1 сек.
Швидкість передачі інформації по каналу :
R = W·H (біт/c),
де W – швидкість передачі електричних кодових сигналів, H – кількість інформації в одному кодовому сигналі.
Найбільше значення швидкості передачі сигналу називається пропускною здатністю каналу зв’язку :
С = maxR = W·maxH = W·log m.
Зрозуміло, що при плануванні і розробці каналу зв’язку необхідно узгодити значення продуктивності джерела та пропускної здатності каналу.