- •2.. Ортонормированный базис. Обобщенный ряд Фурье.
- •I.Свойство линейности.
- •II. Теорема о сдвигах.
- •IV.Теорема о спектре производной и неопределённого интеграла.
- •V. Теорема о свёртке.
- •VI.Теорема Планшереля
- •5.. Спектры модулированных сигналов.
- •6... Аналитический сигнал. Основные понятия и определения. Спектр аналитического сигнала
- •7… Преобразования Гильберта и его свойства. Применение преобразования Гильберта.
- •1) Преобразования Гильберта для гармонических сигналов
- •8... Автокорреляционная функция и ее свойства. Связь автокорреляционной функции и энергетического спектра сигнала.
- •9.. Взаимокорреляционная функция и ее свойства. Связь взаимокорреляционной функции и взаимного энергетического спектра.
- •10.. Дискретное преобразование Фурье. Свойства дискретного преобразования Фурье. Обратное дискретное преобразование Фурье.
- •11 Алгоритм быстрого преобразования Фурье. Число вычислительных операций. Сравнение дискретного и быстрого преобразования Фурье.
- •13.. Стационарные и эргодические случайные процессы.
- •14 ..Спектральные представления случайных процессов. Теорема Винера-Хинчина.
- •15 Белый шум и его свойства. Гауссовский случайный процесс.
- •17.. Шумоподобные сигналы и их свойства. Применение шумоподобных сигналов.
- •19.. Модуляция шумоподобных сигналов по форме и их детектирование.
- •20.. Основные положения линейной теории разделения сигналов. Структурная схема системы многоканальной передачи информации.
- •21.. Фазовое разделение сигналов.
- •22 Разделение сигналов по форме. Системы подвижной связи сдма.
- •23.. Информационные характеристики дискретных сообщений и сигналов.
- •24.. Взаимная информация и ее свойства.
- •25.. Пропускная способность каналов связи.
- •26 ..Информация в непрерывных сигналах. Дифференциальная энтропия.
- •27.. Информация в непрерывных сообщениях. Эпсилон-энтропия.
- •28.. Задача оптимального приема дискретных сообщений. Элементы теории решений.
- •29.. Критерии оптимизации приема дискретных сообщений.
- •30.. Алгоритм оптимального приема дискретных сообщений при полностью известных сигналах (Когерентный прием).
- •31.. Реализация алгоритма оптимального когерентного приема на основе корреляторов
- •33 Потенциальная помехоустойчивость оптимального когерентного приемника дискретных сообщений.
- •34.. Сравнение по помехоустойчивости систем когерентного приема с различными видами дискретной модуляции.
- •35.. Оптимальный прием дискретных сообщений с неопределенной фазой (Некогерентный прием).
- •36 Помехоустойчивость систем с различными видами дискретной модуляции при некогерентном приеме.
- •37 Прием дискретных сообщений в каналах с замираниями.
- •38 Основные принципы цифровой фильтрации
- •39 Характеристики и свойства цифровых фильтров. Алгоритм линейной цифровой фильтрации.
- •40 Трансверсальные (нерекурсивные) цифровые фильтры
- •41 Рекурсивные цифровые фильтры.
- •42 Устойчивость цифровых фильтров
- •43 Понятие вейвлет-преобразования. Основные вейвлеты, применяемые в системах связи.
- •44 Непрерывное и дискретное вейвлет-преобразования.
- •16.2 Дискретный вейвлет-анализ.
- •16.3 Непрерывное вейвлет-преобразование
24.. Взаимная информация и ее свойства.
Определим теперь информацию, содержащуюся в одном ансамбле относительно другого, например, в принятом сигнале относительно переданного сообщения. Для этого рассмотрим сообщение двух дискретных ансамблей A и B, вообще говоря, зависимых. Его можно интерпретировать как пару ансамблей сообщений, либо как ансамбли сообщения и сигнала, с помощью которого сообщение передаётся, либо как ансамбли сигналов на входе и выходе канала связи и т. д. Пусть P(ak ,bl)совместная вероятность реализаций ak и bl . Cовместной энтропией ансамблей A и B будем называть:
(10.6)
Введём также понятие условной энтропии:
(10.7)
где P(ak / bl)- условная вероятность ak , если имеет место bl .
Из теоремы умножения вероятностей
![]()
следует,
что
. (10.8)
Для условной энтропии справедливо двойное неравенство:
(10.9)
Рассмотрим два крайних случая:
1.Равенство
имеет место в том случае, когда, зная
реализацию
,
можно точно установить реализацию
.
Другими словами,
содержит
полную информацию об
.
2.Другой
крайний случай, когда
имеет место, если события
и
независимые. В этом случае знание
реализации
не уменьшает неопределённости
,
т.е.
не
содержит никакой информации об А.
(10.12)
Взаимная
информация измеряется в тех же единицах,
что и энтропия. Величина
показывает, сколько мы в среднем получаем
бит информации о реализации ансамбля
,
наблюдая реализацию ансамбля
.
Сформулируем основные свойства взаимной информации:
,
причём равенство имеет место тогда и
только тогда, когда
и
независимы между собой
,
то есть
содержит столько же информации
относительно
,
сколько
содержит относительно
.
Это свойство вытекает из симметрии
выражения. Поэтому можно также записать:
(10.13)
3.
,
причём равенство имеет место, когда по
реализации
можно точно установить реализацию
.
4.
,
причём равенство имеет место, когда по
реализации
можно точно установить реализацию
.
5.
Полагая
и учитывая, что
получим:
(10.14)
Это
позволяет интерпретировать энтропию
источника как его собственную информацию,
то есть информацию, содержащуюся в
ансамбле
о самом себе.
(10.15)
получим
соответствующие равенства для энтропии
и количества информации, рассчитанных
не на одно сообщение, а на единицу
времени. Величина
называется скоростью передачи информации
от
к
(или
наоборот). Рассмотрим пример: если
-
ансамбль сигналов на входе дискретного
канала, а
-
ансамбль сигналов на его выходе, то
скорость передачи информации по каналу.
(10.16)
-
производительность источника
передаваемого сигнала
.
“производительность
канала”, то есть полная собственная
информация о принятом сигнале за единицу
времени.
Величина
представляет собой скорость “утечки”
информации при прохождении через канал,
а
-
скорость передачи посторонней информации,
не имеющий отношения к
и создаваемой присутствующими в канале
помехами. Соотношение между
и
зависит от свойств канала. Так, например,
при передаче телефонного сигнала по
каналу с узкой полосой пропускания,
недостаточной для удовлетворительного
воспроизведения сигнала, и с низким
уровнем помех теряется часть полезной
информации, но почти не получается
бесполезной. В этом случае![]()
.
Если же расширяется полоса, сигнал
воспроизводится точно, но в паузах ясно
прослушиваются “наводки” от соседнего
телефонного канала, то, почти не теряя
полезной информации, можно получить
много дополнительной, как правило,
бесполезной информации и![]()
.
