Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Схема системы передачи информации.docx
Скачиваний:
17
Добавлен:
19.09.2019
Размер:
153.17 Кб
Скачать
  1. Пропускная способность непрерывного канала

Пусть сигнал   на выходе канала представляет собой сумму полезного сигнала   и шума  , т.е.  , причем   и   статистически независимы. Допустим, что канал имеет ограниченную полосу пропускания шириной  . Тогда в соответствии с теоремой Котельникова (см. п. 1.5) функции  ,   и   можно представить совокупностями отсчетов  , и  , где  . При этом статистические свойства сигнала   можно описать многомерной ПРВ  , а свойства шума – ПРВ  .

Пропускная способность непрерывного канала определяется следующим образом:

,

 

где      – количество информации о какой-либо реализации сигнала   длительности T, которое в среднем содержит реализация сигнала   той же длительности  , а максимум ищется по всем возможным распределениям .

Когда сигнал на входе канала имеет нормальное распределение и отсчеты независимы величина   максимизируется [6]. Поэтому пропускная способность гауссовского канала с дискретным временем, рассчитанная на единицу времени, с учетом (4.16) может быть записана в виде

.

(4.17)

Полученное выражение показывает, что пропускная способность гауссовского канала с дискретным временем определяется числом импульсов, передаваемых в секунду, и отношением сигнал/шум ( ).

С учетом взаимосвязи скорости передачи информации и полосы частот непрерывного канала от (4.17) можно перейти к формуле Шеннона, которая устанавливает связь пропускной способности гауссовского канала с полосой пропускания непрерывного канала и отношением мощности сигнала к мощности помехи:

.

(4.18)

График отношения   изображен на рис. 4.6. Заметим, что при малом отношении 

,

 

а пропускная способность канала связи прямо пропорциональна этому отношению.

При большом отношении   в (4.18) можно пренебречь единицей и считать, что

,

 

т.е. зависимость пропускной способности непрерывного канала от отношения сигнал/шум логарифмическая.

Пропускная способность канала, как предельное значение скорости безошибочной передачи информации, является одной из основных характеристик любого канала.

  1. Постановка задачи оптимального различения сигналов; критерии оптимального различения Различение двух детерминированных сигналов

Предположим, что в наблюдаемой на входе приемника реализации y(t) может быть один из двух полезных сигналов S1(t) или S2(t), y(t) = S1(t) + n(t)    или      y(t) = S2(t) + n(t),         t   [0,T].

По наблюдениям y(t) на интервале времени [0,T] и имеющейся априорной информации необходимо принять решение о том, какой из двух сигналов присутствует в принятом колебании. Данная задача называется задачей различения сигналов.

Аналогично задаче обнаружения, задачу различения можно сформулировать как задачу оценивания. Представим наблюдаемый процесс в виде y(t) =  S1(t) + (1 -  )S2(t) + n(t).

Параметр   может принимать случайным образом одно из двух значений:   = 1 (присутствует сигнал S1(t)) с априорной вероятностью Р1 и   = 0 (присутствует сигнал S2(t)) с априорной вероятностью Р0 = 1 - Р1. Задача различения в этом случае формулируется как оценка значения случайной величины q по наблюдениям реализации y(t) на интервале времени t   [0,T].

В такой формулировке данная задача ничем не отличается от задачи обнаружения, поэтому можно воспользоваться полученными ранее результатами.

Наиболее распространенными критериями оптимальности обнаружения являются следующие:

1.     Критерий минимума среднего риска

                                 (2.2) 

где rл и rп – «весовые» коэффициенты, выбираемые, исходя из значимости каждой ошибки.

Величина  называется средним риском.

2.     Критерий минимальной «взвешенной» вероятности ошибки

                                             (2.3)

где a и b – весовые коэффициенты.

3.     Критерий минимума вероятности полной ошибки (или критерий

идеального наблюдателя, или критерий Зигерта-Котельникова)

                               (2.4)

4.     Критерий Неймана – Пирсона

                                              (2.5)

Величиной Рл задаются, исходя из физической постановки задачи. При этом Рп минимизируют.

Если априорные вероятности Р(а0) и Р(а1) неизвестны, что имеет место во многих случаях, то критерием  пользоваться невозможно. В радиолокации чаще пользуются критерием Неймана – Пирсона.

  1. Корреляция – математическая операция, схожа со свёрткой, позволяет получить из двух сигналов третий. Бывает: автокорреляция (автокорреляционная функция), взаимная корреляция (взаимнокорреляционная функция, кросскорреляционная функция). Пример:

 [Взаимная корреляционная функция]

 [Автокорреляционная функция]

Корреляция - это техника обнаружения заранее известных сигналов на фоне шумов, ещё называют оптимальной фильтрацией. Хотя корреляция очень похожа на свёртку, но вычисляются они по-разному. Области применения их также различные (c(t)=a(t)*b(t) - свертка двух функций, d(t)=a(t)*b(-t) - взаимная корреляция).

Корреляция – это та же свёртка, только один из сигналов инвертируется слева направо. Автокорреляция (автокорреляционная функция) характеризует степень связи между сигналом и его сдвинутой на τ копией. Взаимнокорреляционная функция характеризует степень связи между 2-мя разными сигналами.

Свойства автокорреляционной функции:

  • 1) R(τ)=R(-τ). Функция R(τ) – является чётной.

  • 2) Если х(t) – синусоидальная функция времени, то её автокорреляционная функция – косинусоидальная той же частоты. Информация о начальной фазе теряется. Если x(t)=A*sin(ωt+φ), то R(τ)=A2/2 * cos(ωτ).

  • 3) Функция автокорреляции и спектра мощности связаны преобразованием Фурье.

  • 4) Если х(t) – любая периодическая функция, то R(τ) для неё может быть представлена в виде суммы автокорреляционных функций от постоянной составляющей и от синусоидально изменяющейся составляющей.

  • 5) Функция R(τ) не несёт никакой информации о начальных фазах гармонических составляющих сигнала.

  • 6) Для случайной функции времени R(τ) быстро уменьшается с увеличением τ. Интервал времени, после которого R(τ) становится равным 0 называется интервалом автокорреляции.

  • 7) Заданной x(t) соответствует вполне определённое R(τ), но для одной и той же R(τ) могут соответствовать различные функции x(t)