Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы по ТЭС.docx
Скачиваний:
109
Добавлен:
25.04.2019
Размер:
232.7 Кб
Скачать

1. Регенерация сигнала икм. Вероятности p(1/0),p(0/1)

Регенератор восстанавливает частично искаженные помехой импульсы 1 и 0

структурная схема:

ПФ->Отсчетные устройства->пороговое устройство

^

источник порогового напряжения

На вход ПФ поступает сигнал в сумме с АБГШ(аддитивный белый гауссовский шум) ПФ выделяет сигнал и часть шума. На выходе ПФ имеет процесс z(t)=Uc(t)+x(t)

Отсчетное устройство берет отсчеты процесса z(t) в середине посылки.

Пороговое устройство сравнивает отсчеты zg(t) с пороговым напряжением V. Если zg(t)>V, то на выходе порогового устроства 1, если zg(t)<V, то на выходе порогового устройства 0

Прием 0 вместо 1 называется пропуск цели. Вероятность приема 0 при передаче 1 => p(0/1) - условная вероятность приема 0 при передачи 1

Прием 1 вместо 0 - ложная тревога. Вероятность этого события p(1/0) - условная вероятность приема 1 при передаче 0

Вероятности p(1/0) и p(0/1) это условные вероятности. Их зависимость от порогового напряжения если поражающий сигнал нормальный и шум х(t):

p(1/0)=p(x>V)=∫V W(x)dx=1-F(V/σ) (замена x/σ=y и dx=σ dy)

p(0/1)=p(x<V-Uc)=∫V-Uc-∞ W(x)dx=F((V-Uc)/σ) (замена x/σ=y и dx=σ dy)

Пороговое напряжение, при котором средняя вероятность ошибки минимальна, называется оптимальным пороговым напряжением: Vопт=Uc/2-σ2/Uc * ln(p(1)/p(0))

2. Энтропия двоичного источника

Количество информации, которое заключено в некотором сообщении А с вероятностью появления p(А), равно: I=-log2p(А).Свойства количества информации:

1)чем меньше р, тем больше I.

2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.

3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.

4)количество информации величина неотрицательная.

Т.к. сообщения принимают различные значения с разными вероятностями, то ввели понятие энтропии (это среднее количество информации приходящееся на одно сообщение):

H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).

Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны: Hmax=logm.

Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax.

Энтропия двоичного источника вычисляется по формуле:H=-p(1)*logp(1)-p(0)logp(0)

Основные способы увеличения энтропии:

1)наличие корреляционных связей между символами уменьшает энтропию.

Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.

Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим

2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"

Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.

3)Для дальнейшего увеличения энтропии увеличивают основание кода m.

Билет 13