Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ГОСЫ ВГКС / ГОСЫЕБАТЬИХВСРАКУ / ГОС практика / КССТа.НСвТК.ТЭС.СТвТК_шпоры.doc
Скачиваний:
666
Добавлен:
13.02.2016
Размер:
547.33 Кб
Скачать

24.Детектирование ам сигналов. Однотактный ам-р на диоде.

Детектирование-это процесс выделения модулирующего сигнала из ВЧ-модулированного. Детектирование также наз. демодуляцией. Существуют различные виды мод-ов,но частотный детектор(ЧД) и фазовый д-р(ФД) обязательно в своём составе содержат амплитудный д-р(АД).Если модуляция была двойной ,то сигнал подвергают А,Ч,Ф детектированию, а затем используется импульсный детектор.Т.к. спектр модулированного колебания содержит только ВЧ компоненты, а спектральные составл-ие модулирующего колебания U (t) отсутствуют, то детектор должен содержать НИ устройство.рис

На выходе НЭ появляется составляющая U(t) . U(t)-модулирующий сигнал.Для выделения составляющих используется ФНЧ.

Наиболее распространённая НЦ для детектирования-АМ на диоде рис

Ток в цепи I при положительных полу периодах входного напряжения (однополупериодное выпрямление с углом отсечки Q=90)

1.m=0 IR00(θ) IRm= α0(θ)Um/R

2.m не=0

IR00(θ)* Um)(1+U(t))/R= α0(θ) Um/R+ α0(θ) Um*m* U(t)/R

Среднее значение тока выходной цепи пропорционально инфо. сигналу U(t). Коэфф-ент пропорциональности α0Um*m/R. Для выделения ВЧ составляющей тока модулир-го сигнала U(t) используется Rc фильтр НЧ , параметры которого 1/C<<R<<1/λC

Рис.

27.Информационные характеристики источников дискретных сообщений. Свойство энтропии.

Инф-я – это совокупность новых сведений в окружающем нас мире. Сообщение – это форма представления информации. В основу измерения количества информации положены вероят­ностные характеристики передаваемых сообщений, которые не свя­заны с конкретным содержанием сообщений, а отражают степень их неопределенности (неожиданности). Чем < вероятность сообщения, тем > информации оно несет.

1. Кол-во инф-и. I(ai). Это величина, обратная вероятности появления сообщения, выраженная в логарифмах. I(ai) = logb (1/P(ai)). Где b - основание логарифма, ai – некоторое сообщение, P(ai) – вероятность появления этого сообщения. Если P(ai)=1, то I(ai)=0. Единицы измерения: если b=10 – десятичный логарифм (дит), b=е – натуральный логарифм (нат), b=2 – двоичный логарифм (бит). Один бит – это кол-во инф-и, которое передается сообщению, вер-ть которого P(ai)=0,5.

2. Энтропия источника H – это среднее кол-во информации, приходящееся на одно сообщение. H= ∑ P(ai) × I(ai) = ∑ P(ai) × logb (1/P(ai)). Единица измерения - (бит*сообщение), m- общее число сообщений источника, Н всегда положительна. Hmax = log2 m. Эти выражения справедливы для источника сообщения без памяти: очередное сообщение выбирается независимо от результата предыдущего. Для источника с зависимыми сообщениями энтропия вычисляется как математическое ожидание, кол-во инф-и этих сообщений. Энтропия независимого источника > энтропии зависимого источника.

3. Часто источник может создавать избыточные сообщения, кот. Несут малое или нулевое кол-во инф-и. Наличие избыточности сообщает, что часть сообщения можно не передавать, а восстановить на приемной стороне по известным статистическим связям (телеграмма, например). Для количественной оценки избыточности используется коэффициент избыточности. χи = (Hmax-H) /Hmax= 1- (H/Hmax). Причины избыточности: статические связи между сообщениями, различные вероятности отдельных сообщений. Достоинства избыточности: ↑ помехоустойчивости, можно восстанавливать пропущенные буквы. Недостатки: ↑ времени передачи сообщения, излишняя нагрузка для канала связи. Непрерывное сообщение принимает бесконечное число значений по времени и уровню, поэтому кол-во инф-и и энтропия источника непрерывных сообщений ∞. В реальных условиях берутся отсчеты сигнала в дискретных точках(теория Котельникова). Их можно представить конечным числом уровней(L), тогда среднее значение кол-ва информации в одном отсчете(энтропия одного отсчета): Нотсч.= ∑ Pi *log2 (1/ Pi), где L – кол-во уровней, Pi – вер-ть появления в квантованном сообщении i-го уровня.

4. Производительность источника – это среднее кол-во инф-и, созданной источником в единицу времени(бит/с). Если за время tН источник дискретных сообщений выдал n сообщений, то кол-во произведенной им инф-и I(A, tH)=n*H(A), где A – множество ai, tН – время непрерывного сообщения. Н’ Д.И.(А) = lim ((n*H)/ tН) = H/tср , где tср = tН / n. Для непрерывных сообщений при их преобразовании в цифровую форму с частотой дискретизации fД и энтропией отсчета Нотсч(А) производительность источника H’ Н.И.(А) = fД * Нотсч(А).