- •2. Оптимальный Приемник
- •1. Икм. Преимущества и недостатки.
- •2. Оптимальный корреляционный приемник
- •2. Сравнительная помехоустойчивость дам,дчм,дфм
- •1. Характеристики цф
- •2. Потенциальная помехоустойчивость дам,дчм,дфм
- •1. Передаточная характеристика цф.
- •2. Помехоустойчивость оптимального приемника.
- •Оптимальный приемник двоичных сигналов.
- •2. Количество информации. Энтропия.
- •1. Потенциальная помехоустойчивость.
- •2. Укрупнение сообщений
- •1. Потенциальная помехоустойчивость дам,дчм,дфм.
- •2. Построение кодового дерева.
- •1. Некогерентный прием дам. Распределения на выходе детектора.
- •2. Увеличение энтропии путем увеличения m
- •1. Некогерентный прием дчм. Распределения на выходе детектора.
- •2. Увеличение энтропии путем предсказания.
- •1. Дофм
- •2. Кодирование с предсказанием. Дикм
- •1. Регенерация сигнала икм. Вероятности p(1/0),p(0/1)
- •2. Энтропия двоичного источника
- •1. Вероятность ошибки при регенерации сигнала икм.
- •2. Блочный код (7,3)
- •1. Циклический код (7,4)
- •Оптимальный приемник
- •1. Сверточный код
- •2. Оптимальный приемник двоичных сигналов на сф
- •1. Теорема Шеннона
- •2.Оптимальный приемник дчм на сф.
- •2. Согласованный фильтр
- •2. Энтропия
- •2. Циклический код (7,4)
- •1. Характеристики цф
- •2. Оптимальный корреляционный приемник
- •2. Теорема Шеннона
- •2. Энтропия
- •1. Оптимальный приемник двоичных сигналов
- •2. Преимущества и недостатки икм
- •1. Теорема Шеннона
- •2. Способы увеличения энтропии
- •1. Дофм
- •2. Устойчивость цф
- •1. Способы увеличения энтропии
- •2. Оптимальные кодо-сигнальные конструкции
- •1. Прием икм методом однократного отсчета
- •2. Сверточный код
- •1. Оптимальные кодо-сигнальные конструкции
- •2. Циклический код
- •1. Оптимальные кодо-сигнальные конструкции
- •2. Способы увеличения энтропии
- •1. Сверточный код
- •2. Дофм
1. Регенерация сигнала икм. Вероятности p(1/0),p(0/1)
Регенератор восстанавливает частично искаженные помехой импульсы 1 и 0
структурная схема:
ПФ->Отсчетные устройства->пороговое устройство
^
источник порогового напряжения
На вход ПФ поступает сигнал в сумме с АБГШ(аддитивный белый гауссовский шум) ПФ выделяет сигнал и часть шума. На выходе ПФ имеет процесс z(t)=Uc(t)+x(t)
Отсчетное устройство берет отсчеты процесса z(t) в середине посылки.
Пороговое устройство сравнивает отсчеты zg(t) с пороговым напряжением V. Если zg(t)>V, то на выходе порогового устроства 1, если zg(t)<V, то на выходе порогового устройства 0
Прием 0 вместо 1 называется пропуск цели. Вероятность приема 0 при передаче 1 => p(0/1) - условная вероятность приема 0 при передачи 1
Прием 1 вместо 0 - ложная тревога. Вероятность этого события p(1/0) - условная вероятность приема 1 при передаче 0
Вероятности p(1/0) и p(0/1) это условные вероятности. Их зависимость от порогового напряжения если поражающий сигнал нормальный и шум х(t):
p(1/0)=p(x>V)=∫∞V W(x)dx=1-F(V/σ) (замена x/σ=y и dx=σ dy)
p(0/1)=p(x<V-Uc)=∫V-Uc-∞ W(x)dx=F((V-Uc)/σ) (замена x/σ=y и dx=σ dy)
Пороговое напряжение, при котором средняя вероятность ошибки минимальна, называется оптимальным пороговым напряжением: Vопт=Uc/2-σ2/Uc * ln(p(1)/p(0))
2. Энтропия двоичного источника
Количество информации, которое заключено в некотором сообщении А с вероятностью появления p(А), равно: I=-log2p(А).Свойства количества информации:
1)чем меньше р, тем больше I.
2)количество информации в достоверном событии с вероятностью появления p=1 равно 0.
3)аддитивное свойство: количество информации, заключенное в совокупности двух независимых сообщений, равно сумме количеств информации, заключенных в каждом сообщении в отдельности.
4)количество информации величина неотрицательная.
Т.к. сообщения принимают различные значения с разными вероятностями, то ввели понятие энтропии (это среднее количество информации приходящееся на одно сообщение):
H=-∑mk=1 pklogpk, m – основание кода, pk - вероятность определенного символа).
Энтропия дискретного источника независимых сообщений максимальна, если все сообщения равновероятны: Hmax=logm.
Избыточность это степень отличия энтропии от максимального значения: R=(Hmax-H)/Hmax.
Энтропия двоичного источника вычисляется по формуле:H=-p(1)*logp(1)-p(0)logp(0)
Основные способы увеличения энтропии:
1)наличие корреляционных связей между символами уменьшает энтропию.
Чтобы увеличить энтропию, мы кодируем не буквы а слова. Это называется укрупнение алфавита источника.
Эта же цель достигается путем предсказания - кодирования с предсказанием последующих символов по предыдущим
2) Неравновероятность символов уменьшает энтропию. Для устранения неравновероятности строят "кодовое дерево"
Наиболее вероятные символы передаются наиболее короткими кодовыми комбинациями.
3)Для дальнейшего увеличения энтропии увеличивают основание кода m.
Билет 13
