Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
вступ, розділ 1.doc
Скачиваний:
4
Добавлен:
10.11.2018
Размер:
1.6 Mб
Скачать

1.3.1.Зосереджені по спектру завади.

Природа даних завад полягає в наявності сторонніх радіостанцій, що працюють на несучих частотах, близьких до даної. На відміну від флуктуаційних завад з безмежним рівномірним спектром, спектр даних завад зосереджений і, як правило, його ширина менша полоси пропускання приймача. В діапазоні коротких хвиль даний тип завад є основним.

Перекручення – це такі невипадкові зміни форми сигналу, що виникають внаслідок неідеальних характеристик приладів, що використовуються в каналах зв’язку. Головна причина їх наявності : перехідні процеси в лініях зв’язку, ланках приймача та передавача. Перекручення прогнозовані, тому їх вплив можна в тій чи іншій мірі коректувати.

Боротьба з завадами проводиться в основному по трьох напрямках :

1. Послаблення завад в місцях їх виникнення (наприклад, в електричному запалюванні двигунів).

2. Послаблення завад на шляхах їх проникнення в приймач.

3. Послаблення впливу завад на повідомлення в процесі демодуляції та декодування, тобто при обробці прийнятого сигналу.

1. 4. Основні характеристики систем зв’язку.

  1. 4. 1. Основні відомості з теорії інформації.

Основними інформаційними характеристиками є :

- кількість інформації в повідомленнях;

- надлишковість повідомлень;

- ентропія та продуктивність джерела інформації;

- швидкість передачі інформації;

- пропускна здатність каналу зв’язку.

ТЕЗ дає можливість розрахувати дані параметри.

Для дискретних сигналів.

Нехай “m” - об’єм алфавіту “A” джерела повідомлень. Нехай кожне повідомлення (довжина кодової комбінації) містить “n” символів. Тоді кількість інформації за пропозицією Хартлі (1928р.) вимірюється логарифмічним виразом

I = log N0 = n·log m,

де N0 = mn – кількість різних повідомлень.

Log є тому, що інформація повинна бути адитивною.

Дане кількісне співвідношення для вимірювання величини інформації не враховує випадковий характер її передачі, формування повідомлення. Тобто необхідно пов’язати кількість інформації в повідомленнях з імовірністю її появи. В 1928р. Шенон розв’язав дану задачу. Якщо імовірність появи символів однакова, то кількість інформації, що переносить один символ, буде :

I1 =+ log m.

Імовірність появи одного символу з m усіх буде p = 1/m; або ж m = 1/p. Тоді I1 = -log p – це є зв’язок кількості інформації з імовірністю її появи.

В реальних ситуаціях імовірність появи того чи іншого символу різна. Якщо символ ai є A, то імовірність його появи p(ai). Кількість інформації, що переносить даний символ :

Ii =- log p(ai)

– це випадкова величина. Ймовірність появи інформації Ii буде p(ai).

Середнє значення інформації, що припадає на один символ

m

H(A) = - ∑ p(ai)·log p(ai) (*)

i=1

Вираз (*) відомий як формула Шенона для ентропії джерела дискретних повідомлень. Ентропія є неперервною функцією імовірності появи символів і має властивості :

1. Ентропія джерела повідомлення дійсна.

2.Обмежена та додатна.

3.Ентропія рівна “0”, якщо з імовірністю p= 1 вибирається один і той же символ.

Приймає найбільше значення, якщо усі символи приймаються з одною і тією ж імовірністю

Hmax = -m·p·log p = -m·1/m·log(1/m) = log m.

Часто імовірність появи даного символу залежить від значення попереднього (перехідні процеси). Щоб врахувати усі факти вводять кореляційні зв’язки між символами.

Нехай імовірність p(a´j/ai) – появи символу j при попередньо прийнятому символі ai.

Введемо поняття умовної ентропії

Умовна ентропія H(A´/A) – це середня кількість інформації, що переносить один символ при наявності кореляційних зв’язків між двома сусідніми символами в повідомленнях. Зрозуміло, що наявність взаємозв’язків між символами, а також різна ймовірність їх появи, приводить до зменшення кількості інформації, що переноситься одним символом.

Такі втрати інформації кількісно вимірюються коефіцієнтом надлишковості

де – найбільша кількість інформації, що передається одним символом; – кількість інформації, що реально переноситься.

Одиницею вимірювання кількості інформації є «біт» – максимальна кількість інформації, що переносить один символ джерела дискретних повідомлень, якщо алфавіт джерела включає два символи 0 та 1 і використовується двійкова система логарифмів.

Продуктивність джерела :

H´ = H/t (біт/c)

– середнє число інформації, що створюється за 1 сек.

Швидкість передачі інформації по каналу :

R = W·H (біт/c),

де W – швидкість передачі електричних кодових сигналів, H – кількість інформації в одному кодовому сигналі.

Найбільше значення швидкості передачі сигналу називається пропускною здатністю каналу зв’язку :

С = maxR = W·maxH = W·log m.

Зрозуміло, що при плануванні і розробці каналу зв’язку необхідно узгодити значення продуктивності джерела та пропускної здатності каналу.