
- •Основные понятия теории связи – сообщение, сигнал, канал связи, линия связи и т.Д.
- •4.Понятие о показателях качества систем связи.
- •Детерминированные сигналы и их математические модели
- •8 Геометрическое представление сигнала в пространствах Эвклида и Гильберта.
- •9.Теорема Котельникова как частный случай разложения сигналов в обобщенный ряд Фурье.
- •10. Применение теоремы Котельникова к сигналам с неограниченным спектром.
- •3.Балансная и однополосная модуляции.
- •4.Полярная модуляция.
- •5. Амплитудная модуляция дискретными процессами.
- •6. Спектр.
- •2.2 Сигналы с угловой модуляцией
- •1. Общая запись сигналов с чм и фм.
- •2. Спектр при тональной модуляции.
- •3.Ширина спектра (техническая).
- •5. Узкополосная угловая модуляция.
- •6. Частотная модуляция дискретным процессом.
- •7. Частотная манипуляция.
- •9. Модуляция с минимальным частотным сдвигом.
- •10. Фазовая модуляция и манипуляция дискретным процессом.
- •11. Многократная фазовая модуляция. Относительная фазовая модуляция.
- •2.3 Импульсные модулированные сигналы аим, шим, вим
- •1. Способы формирования, общая запись.
- •Спектры, возможность демодуляции фильтрами нижних частот
- •Икм, способ записи, формирование.
- •4. Шумы квантования.
- •5.Расчет дисперсии ошибки квантования.
- •6. Дельта-модуляция.
- •2.4 Широкополосные сигналы, их использование в связи
- •1. Классификация, основные параметры.
- •Псевдослучайные сигналы. М-последовательности. Получение сигналов. Оптимальный фильтр.
- •3.4 Нелинейное безынерционное преобразование суммы гармонических процессов
- •1. Комбинационные частоты.
- •2.Преобразование частоты.
- •4 Детектирование модулированных сигналов
- •Детектирование сигналов с гармоническими переносчиками
- •1.Детектирование сигналов с ам
- •2. Синхронный детектор.
- •4.Детектор на диоде с линейно-ломаной характеристикой.
- •6. Детектирование сигналов с балансной и однополосной модуляциями.
- •7.Детектирование сигналов с фазовой модуляцией
- •8. Балансный фазовый детектор. Типы фазовых детекторов:
- •10. Детектирование частотно-модулированных сигналов.
- •11. Детектор на расстроенных контурах.
- •Применение фнч для выделения модулирующего процесса.
- •6. Детектирование сигналов с шим.
- •3. Предоставление цифровых сигналов дискретным преобразованием Фурье.
- •4.Быстрое преобразование Фурье. См выше
- •9.. Классификация цифровых фильтров
- •11. Цифровые модуляторы и детекторы.
- •6 Случайные сигналы и их математические модели
- •6.1 Определение случайного процесса, его основные характеристики – закон распределения, моменты, функция корреляции
- •1.Стационарные случайные процессы, их характеристики.
- •Спектральная плотность мощности стационарного процесса, её связь с функцией корреляции.
- •4.Функция корреляции и спектральная плотность мощности узкополосного процесса.
- •7. Функция корреляции и спектральная плотность мощности дискретных случайных процессов.
- •6.2 Преобразования случайных процессов линейными системами
- •1.Временной и частотный методы анализа стационарных линейных систем при случайных воздействиях.
- •Частотный метод анализа точности стационарных линейных систем
- •2.Энтропия совокупности двух сообщений, условная энтропия, их свойства.
- •3. Взаимная информация двух сообщений.
- •4.Производительность источника дискретных сообщений.
- •4.Двумерная энтропия, условная энтропия, их свойства
- •8.4 Пропускная способность дискретного m-ичного канала
- •1.Определение.
- •2. Пропускная способность дискретного двоичного канала.
- •16. Отношение мощностей сигнала и помехи на выходах оптимальных фильтров.
- •10.2 Потенциальная помехоустойчивость приема непрерывных сообщений
- •2. Сравнение видов модуляции по потенциальной помехоустойчивости.
- •2.Принципы уплотнения и разделения каналов.
- •3. Искажения сообщений в многоканальных системах
2.Энтропия совокупности двух сообщений, условная энтропия, их свойства.
Понятие условной энтропии связано с понятием энтропии марковского процесса - иначе говоря изначально рассматривается вероятность появления некоторого сообщения, с учётом того, что известно о появлении некоторого другого сообщения. Условная энтропия источника S c Si символами задаётся выражением:
H(S|Si1,Si2....,Sim)=E(s)(P(Si|Si1,Si2......Sim)*log[2](1/P(Si|Si1,Si2......Sim)))
- в данном случае записана формула для энтропии дискретного источника при условии, что мы уже наблюдали последовательность символов (Si1,Si2......Sim).
Если рассматриваются две статичтически зависиые величины, то энтропия объединения двух статистически связанных переменных величин равна сумме энтропии первого ансамбля и энтропии второго относительно первого. ((добавить формулы) см. формулы в лекциях.)
Свойства условной энтропии - 1) Условная энтропия всегда меньше или равна безусловной для той же функции распределения вероятностей, это связано с тем, произведением вероятностей (Si1,Si2......Sim). 2) Если имеется однозначная связь межнду появлением некоторой последовательности сообщений (условием) и появлением некоторого другого сообщения, то ксловная энтропия при налии данного условия становится равной нулю. 3) Если статистические связи между двумя переменными величинами отсутсвуют, то условнаяэнтропия их объединения не будет меньше безусловной энтропии их\ объединения.
3. Взаимная информация двух сообщений.
а
рис.3 показана(условно) собственная
энтропия H(x) и H(y), условные энтропии
H(x/y) и H(y/x) и совместная энтропия H(x,y). Из
этого рисунка, в частности, следует
соотношения
и
Рис. 3
Рис. 4
Часть
рисунка, отмеченная штриховкой, называется
взаимной информацией H(
).
Она показывает, какое(в среднем) количество
информации содержит сообщение x о
сообщении y(или наоборот, сообщение y о
сообщении x).
Как следует из рис. 3
H(x↔y)=H(x)-H(x/y)=H(y)-H(y/x) (20)
Если
сообщения x и y полностью независимы, то
взаимная информация отсутствует и
H(x
)=0.
Если x и y полностью зависимы (x и y содержат
одну и ту же информацию), то H(
)=H(x)=H(y).
Понятие взаимной информации очень
широко используется в теории передачи
информации. Требования к взаимной
информации различны в зависимости от
того, с какой информацией мы имеем дело.
Например, если x и y – это сообщения,
публикуемые различными газетами, то
для получения возможно большей
суммарной(совместной) информации
взаимная (т.е. одинаковая в данном случае)
информация должна быть минимальной.
Если же x и y – это сообщения на входе и
на выходе канала связи с помехами, то
для получения возможно большей информации
её получателем необходимо, чтобы взаимная
информация была наибольшей. Тогда
условная энтропия H(x/y) – это потери
информации в канале связи (ненадёжность
канала). H(x/y) – энтропия шума(помех)
равная H(ξ),
т.е. H(y/x)=H(ξ) .
4.Производительность источника дискретных сообщений.
Мера избыточности показывает, насколько полно (эффективно) используются знаки данного источника Избыточность источника - следствие физических свойств источника. Естественная избыточность источника устраняется, а в случае необходимости увеличения помехоустойчивости при передаче сообщений вводится так называемая рациональная избыточность, позволяющая обнаружить и устранить ошибки.
Производительность источника сообщений - количество информации, вырабатываемое источником в единицу времени (скорость создания сообщений, поток входной информации).
Наибольшая производительность источника будет достигаться при максимальной энтропии.
5.Избыточность источника.
6.Максимальная скорость передачи информации по двоичному симметричному каналу.
8.2 Эффективное кодирование источников дискретных сообщений Теорема Шеннона о кодировании сообщений при отсутствии помех.
Неравномерные коды.
Код Шеннона – Фано.
8.3 Информационные характеристики непрерывных сообщений
1.Энтропия непрерывного сообщения.
Строго говоря, энтропия непрерывных сообщений ( сигналов) равна бесконечности, так как бесконечно количество возможных значений сигналов, его логарифм и неопределенность выбора значений случайной величины. Поэтому вероятность возникновения отдельной реализации бесконечно мала, а ее информативность бесконечно велика.
Дифференциальная энтропия.
3. Свойства дифференциальной энтропии.
1. Дифференциальная энтропия в отличии от обычной энтропии дискретного источника не является мерой собственной информации, содержащейся в ансамбле значений случайной величины Х. Она зависит от масштаба Х и может принимать отрицательные значения. Информационный смысл имеет не сама дифференциальная энтропия, а разность двух дифференциальных энтропий, чем и объясняется ее название. 2. Дифференциальная энтропия не меняется при изменении всех возможных значений случайной величины Х на постоянную величину. Действительно, масштаб Х при этом не меняется и справедливо равенство
|
|
(3.36) |
Из этого следует, что h(x) не зависит от математического ожидания случайной величины, т.к. изменяя все значения Х на С мы тем самым изменяем на С и ее среднее, то есть математическое ожидание. 3. Дифференциальная энтропия аддитивна, то есть для объединения ХY независимых случайный величин Х и Y справедливо: h(XY)= h(X)+ h(Y). Доказательство этого свойства аналогично доказательству (1.8) аддитивности обычной энтропии