
- •Космические
- •1.Обобщенная структурная схема одноканальной рспи
- •Корреляционная функция
- •3.Основы теории информации. Количество информации, заключенной в одном дискрете (символе)
- •3.1 Информационные характеристики дискретных сообщенй
- •3.2 Скорость передачи информации, пропускная способность дискретного канала связи
- •3.4 Скорость передачи информации, пропускная способность канала связи при передачи непрерывных сообщений
- •4. Оптимальные приемники в системах передачи цифровой информации
- •Сверточные коды в рспи
- •Декодирование ск
- •2.Б) Бессиндромное декодирование ск:
- •Применение пс-сигналов в системах передачи цифровой информации
- •Когерентный прием пс-сигналов с дфМн и ортогонал.Информац.Модуляцией
- •Особенность некогерентного приема пс-символов
- •Быстрый поиск
- •Оценка времени поиска псп (последовательный метод поиска)
- •Применение ансамбля пс сигналов для передачи цифровой информации
3.Основы теории информации. Количество информации, заключенной в одном дискрете (символе)
a1,
a2,
a3,…
aм
алфавит сообщения
м -объем алфавита
I (ai) =f (Рi)
Рi – вероятные появления ai сигнала
Рi = Р(ai)
I (ai , bj) =f (Рi)+f(Рj)=f [P(ai , bj)]= f (Рi Рj)
Возьмем производную по Рi
f 1(Рi)=Pj f 1(Рi Рj)
Pi f 1=(Рi)= Pi Pj f 1(Рi Рj)=K – const
Pi f 1 =K
f 1(Рi)=к/ Рi
f (Рi)=Кln Рi+с с- постоянная интегрирования
Рi=1
I (ai)=0
Рi=0
Кln
1+с
=0
С=0
I (ai )= Кln Рi
1= Кln
К=
I (ai )= log2 Рi (бит)
I
(ai1,
ai2,…
ail)=
Рi
3.1 Информационные характеристики дискретных сообщенй
I (А ) – количество информации в фазе, приходящееся на один символ
1) I
(А )=
(ai1,
ai2,…
ail)
log2
Р
-
символы зависимые между собой.
2) Если существует связь между символами ai и aj
I
(А )=
(ai
,aj)
log2
Р
(бит)
3) Если все символы алфавита взаимонезависимы, то
I
(А )=
Рi
log2
Рi=Н(А)
- энтропия источника дискретных сообщений
Н(А) - количество информации в среднем приходящееся на 1 символ алфавита при их взаимной независимости
4) Если символы взаимно независимы и равной вероятности появления, то
Нmax (A)= log2 m – максимальная энтропия
m – объем алфавита
5)
=1-
относительная скорость передачи информации
При прохождении канала связи КС:
А
ai канал bj
j=I,
m
связи
i=I,m
B
n (t)
КС:
-
Симметричные и несимметричные
-
С памятью и без памяти
Наиболее характерные КС – несимметричные без памяти КС
6) взаимное количество информации в среднем на один символ на выходе КС:
I
(А; В )=
Н(А )-Н
(А/В )=
Н (В )-Н
(В/А )
условная энтропия
I (А; В)= Н(А )-Н (А/В )= Н (В )-Н (В/А )
Н(А ) – это источники сообщения
Н(В
)=
(bj
) log2
Р(bj)
если канал связи симметричный без памяти:
m=m1
Р(bj)
=
(ai
,aj)=
(ai)
Р (bj/
ai
)
Условная энтропия – количество информации в среднем приходящийся на искаженный символ
Н (А/В
)=
(ai
, bj)
log2
Р(ai
, bj)
Н (В/А
)=
(ai)·
Р (bj/
ai
)log2
Р (bj/
ai
)
Р (bj/ ai )= Рош, i ≠ j
1 – Рош= Рпр, i = j
Н
(А )
кодирование источника сообщения
неравномерное
Нмакс
(А )
равномерное кодирование
3.2 Скорость передачи информации, пропускная способность дискретного канала связи
Пи – производительность источника
Пи==Vn·
Н(А )
(бит/с)
Vn – скорость передаваемых символов (cим/c)
(количество символов в единицу времени)
Н(А ) – энтропия
В канале без помех:
R=Пи=
Vn·
Н(А )=
Н(А )
(бит/с)
Vn = 1/Тс
Тс - длительность символа
R – скорость передачи информации
R макс=Ск= Vк· Нмакс(А) (бит/с) – максимальная скорость передачи информации в КС
Ск – пропускная способность дискретного канала связи
R=[Н(В)-Н(В/А)]
(бит/с)
Ск
=[Нмакс(В)-Н(В/А)]
(бит/с)
Нмакс(В)= log2 m= Нмакс(А) – для симметричного канала связи без памяти
a1
, a2
m=2 («0» и
«1»)
Н(А
)
=
Рj
log2
Рi
=Р(a1)
log2
Р(a1)
- Р(a2)
log2
Р(a2)=
= Р1 log2 Р1 –(1- Р1) log2 (1- Р1)
H(A)
Нмакс=1
Для бинарного канала с помехами:
R =1/ Тс [- Р1 logР1-(1-Р1) log2 (1-P1)+ Рoш log2 Рош+(1-Рош) log2 (1-Pош)]
Н (В/А
)=
(ai)·
Р (bj/
ai
)log2
Р (bj/
ai
) = Рoш
log2
Рош-(1-Рош)
log2
(1-Pош)
пропускная способность канала
Ск
[1+
Рoш
log2
Рoш
+(1-Рош)
log2
(1-Pош)]
Если m>2
Н (В/А
)=
(ai
) Р(bj/
ai
) log2
Р (bj/
ai
)=-(m-1)
Рoш
log2
Рoш
–
-(1-Рош) log2 (1-Pош)
3.3 Количество информации передаваемой непрерывным сообщением
Х(t) – непрерывное сообщение как случайный процесс
Р(х) – плотность распределения Х(t)
х1, х2, ….. хm
t1, t2, ….. tm
∆= ti- ti-1
В соответствии с теоремой Котельникова
∆=
(n=2+8),
-
верхняя
граничная частота
хi=
хi
Pi=P(xi)=
P(xi)·
∆ x,
∆ x
– ошибка измерения.
xi – усредненное значение амплитуды
I
(x)=
P(xi)
· ∆ xi
log2
Р ( xi)·
∆ xi=
P(xi)
· ∆ xi
log2
Р ( xi)-
∆
xi
log2
∆ xi
=
P(xi)
· ∆ xi
log2
Р ( xi)-
log2∆
xi
I1(x)=lim
I (x)=-
P(x) log2
Р
(x)dx- log2∆
x
∆ xi
0
m ∞
1)
I1(x)=-
P(x) log2
Р
(x)dx- log2∆
x (бит)
h
(x)
дифференциальная энтропия источника непрерывных сообщений
h (x) – это количество информации в среднем приходящееся на одну выборку непрерывного сообщения
∆ x – ошибка
2)
hмакс
(x)=
log2
P(x)=lxp
mx – мат.ожидание
X
(x(t)) КС У(у(t))
n(t)
y(t) = x(t)+ n(t)
I(x;у)= h (x)- h (x/у)= h (у)- h (у/x)
h
(у/x)=
-
P(x,
у) log
Р (у/x)
dx
dу-
условная диф. энтропия - количество
информации в среднем приходящейся на
выборку шумового случайного процесса
Если n(t) – нормальный случайный процесс, x(t) – норм.случ.процесс, то и у(t) – будет нор.случ.процесс
Если
n(t)
σ2n
x(t)
σ2x
y(t)
σ2y
σ2y= σ2x+ σ2n
h
(у/x)=
log2
h
(у)= log2
I(x,у)=
log2-
log2
=
(бит/с)