Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
пр_роб_1.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
156.67 Кб
Скачать

ЛЬВІВСЬКИЙ КОЛЕДЖ

ДЕРЖАВНОГО УНІВЕРСИТЕТУ ТЕЛЕКОМУНІКАЦІЙ

Затверджую

Заступник директора з НР

____________ Мурін О.С.

«___» __________ 2013 р.

ІНСТРУКЦІЯ

до практичної роботи № .1

Розрахунок інформаційних параметрів каналу звязку .

з навчальної дисципліни Телекомунікаційні та інформаційні мережі .

для груп спеціальності:

5.05090301 “Монтаж, обслуговування і ремонт станційного обладнання

електрозв’язку .

Розглянуто та схвалено на

засіданні циклової комісії

Станційного обладнання електрозв’язку .

Протокол №__ від «___» ______ 2013 р.

Голова циклової комісії

____________________ Романюк А.В. .

(підпис) (прізвище, ініціали)

Склав викладач .

(прізвище, ініціали)

Львів 2013 р.

  1. Мета роботи

Набути практичних навиків проводити розрахунки інформаційних характеристик джерела повідомлення та каналу зв’язку.

  1. Теоретичні відомості

    1. Інформаційні характеристики джерел повідомлень

Кількість інформації дв.од., у повідомленні з ймовірністю його появи , визначається величиною, оберненою до ймовірності повідомлення та обчислюється в логарифмічних одиницях

(2.1)

Одиниці вимірювання кількості інформації

Вибір основи логарифмів в формулі (2.1) визначає одиниці вимірювання кількості інформації. При використанні десяткового логарифма (b=10) інформація вимірюється в десяткових одиницях – дітах. У випадку використання натуральних логарифмів, одиницею вимірювання євляється натуральна одиниця – нат.

В системах, які працюють з двійковими кодами, використовують основу логарифма (b=2), тоді інформація вимірюється в двійкових одиницях – дв.од. Часто замість двійкових одиниць використовується еквівалентна назва – біт, яка утворилася як скорочений запис англійських слів binary digit (двійкова цифра). Відповідно, при біт, тобто 1 біт – кількість інформації, яка передається повідомленням, ймовірність якого .

Дискретні повідомлення складаються з рахункової безлічі символів, створюваних джерелом інформації. Набір символів, якими можуть бути цифри, букви, імпульси й інші знаки, називають алфавітом джерела. Кількість символів у алфавіті зазначає обсяг алфавіту. Типовими дискретними повідомленнями є текст, записаний за допомогою якого-небудь алфавіту, і послідовність чисел. Символи можуть мати різні фізичні властивості, що дають змогу однозначно відрізняти їх один від одного. Ці властивості називають якісними ознаками. При використанні структурних мір інформації враховується кількість символів, зв'язків між ними або комбінацій з них. Кількість інформації в комбінаторній мірі обчислюється як кількість комбінацій символів, що входять в алфавіт. Отже, оцінюється комбінаторна властивість потенціальної структурної різноманітності джерела інформації.

Ентропія джерела , біт/повідомлення, це – середня кількість інформації в одному повідомленні. Для Ма незалежних повідомлень обчислюється як математичне сподівання

(2.2)

Ентропія, як і інформація, завжди додатна й досягає максимального значення

(2.3)

Надмірність (надлишковість) джерела характеризує зменшення ентропії джерела порівняно з максимальним значенням внаслідок того, що деякі з повідомлень несуть малу (а деколи і нульову) кількість інформації. Кількісно надмірність оцінюється коефіцієнтом , що називається коефіцієнтом надмірності і визначається за формулою

, (2.4)

де – ентропія джерела;

– максимальна ентропія джерела із Ма повідомлень.

Для двійкового джерела біт. Ентропія двійкового джерела при , відповідно буде дорівнювати

Продуктивність джерела, , біт/с – це середня кількість інформації, що видається джерелом за одиницю часу

, (2.5)

де – середня тривалість одного повідомлення джерела.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]