- •1. Виды сигналов. Классификация сигналов
- •2. Элементы теории сигналов. Подразделение передаваемых сигналов по диапазонам частот. Особенности распространения сигналов
- •3. Элементы теории информации. Понятие меры. Основные направления определения меры информации. Виды сообщений.
- •4. Структурные меры информации. Кванты. Биты
- •5.Аддитивная мера (Хартли).
- •6. Статистические меры информации. Вероятность и информация
- •7.Понятие энтропии. Энтропия ансамбля.
- •9. Энтропия объединения. Условная, безусловная, взаимная, совместная.
- •11. Дискретизация информации. Квантование по уровню.
- •12. Дискретизация по времени и восстановление непрерывной функции.
- •13. Теорема Котельникова. Воспроизводящие функции.
- •14. Кодирование информации. Общие понятия, определения. Цели кодирования. Общая схема системы передачи информации.
- •15. Модуляция носителей информации. Виды носителей и сигналов.
- •16.Модуляция и кодирование.Детерминированные и случайные сигналы.
- •17. Временная и спектральная формы описания сигналов.
- •18.Спектры сигналов с носителем в виде постоянного состояния (невозмущённый носитель, прямая модуляция).
- •19. Спектры сигналов с гармоническим носителем. Амплитудная модуляция.
- •20. Амплитудно-манипулированные сигналы. Балансная модуляция. Модуляция с подавлением боковой полосы частот. Формы сигналов.
- •22. Системы передачи информации. Каналы связи. Пропускная способность канала с помехами.
- •23. Пропускная способность непрерывного к. Пропускная способность симмет-го дискр-го к. Техническая эффек-ть системы передачи инф-ии.
- •24. Выбор полосы пропускания канала. Информационная эффективность канала. Согласование характеристик канала и сигнала.
- •26. Частотное, временное и фазовое разделение сигналов.
- •2.Временное разделение.
- •3.Фазовое разделение
- •27. Помехоустойчивый прием сигналов.
- •28. Частотная фильтрация.
- •29. Метод накопления.
- •30. Корреляционный метод фильтрации (временная фильтрация).
- •31. Согласованная фильтрация.
- •32. Кодирование. Выражение информации в цифровом виде. Классификация аналого – кодовых преобразователей.
- •33. Аналого – кодовые преобразователи считывания (метод масок).
- •34. Аналого – кодовые преобразователи последовательного счета
- •35. Аналого – кодовые преобразователи поразрядного уравновешивания.
- •36. Эффективное кодирование. Особенности систем эффективного кодирования. Префиксные коды.
- •37. Построение кода Шеннона – Фано (пояснить на примере).
- •38. Методика Хаффмена (пояснить на примере).
9. Энтропия объединения. Условная, безусловная, взаимная, совместная.
О
бъед-ние-совок-ть
2-х и более взаимосвяз-х ансамблей
дискретных случ-х переем-х.

ОбъединениеХУ:

Вероят-ть произвед-я совместных завис-й событий х и у = произв-ю безусловн-х вероят-й. р(х) или р(у)на условные вероят-ти р(у/х) или р(х/у):р(у/х)=р(х,у)/р(х); р(х/у)=р(у,х)/р(у);
Схема передачи дискретной инф-иипо каналу связи.Н(х),Н(у)-безусл-е энтропии источ-ка и прием-ка.(сред-ее кол-во инф-ии на символ подав-й ист-ком /прием-ком);Н(у/х),Н(х/у)-услоная энтропия у относ-но х или мера кол-ва инф-ии в приемнике,когда известно что перед-ся х.Н(х,у)-взаимная энтропия сис-мы передачи/ приема в целом или средняя инф-ия за пару перед-го или прин-го сигнала.Если в сис-ме нет потерь и искажений ,то условн. энтропия=0,а кол-во взаим-й инф-ии = энтропии ,либо ист-ка,либо прием-ка.
I
(x,y)=
H(x,y)=H(x)=H(y);
10. Кол-во информации и избыточность. Тезаурус.
А = {a1, a2,.., an} – массив информации, к – объём алфавита.
1. Должен использоваться одинаковый алфавит
2. Вероятность появления букв не равна
3. Чем длиннее сообщение, тем скорее мы его потеряем.
max H(A)= log2 к = H0 – максимальная энтропия
Если неопред-ть снимается полностью, то кол-во инфор-ии равно энтропии I=H; I= H1 – H2 – Общий случай (кол-во инф – послед-е уменьшение энторопии)
I’= log2 Q= log2 1/p=- log2 p – мера информации по Хартли, Q – число событий.
Избыт-ть инфор-ии:
Абсолютная избыточность представл. собой разнгость м/у возможным количеством инф-ии и энтропии.
Xабс= I’-H = Hmax – H;
Относительная: Xu=(Hmax-H)/Hmax=1-H/Hmax;
Избыточность дискретного источника х обусловлена тем, что элементы сообщения не равномерны и между буквами существует связь
Xu=Xp+Xc-XpXc
Энтропия, шум, тезаурус. Под понятием тезаурус понимают запас знаний или словарь, испол-мый приемником инф-ии.
Ист-к
(H-H2=I)
отдано в канал(I
- I
)потеря на
шум N,в
приемник воспринято(I-Q)
I=H1-H2 поступает в канал, где часть инф-ии мен-ся, искаж-ся шумом N. Оставш-ся часть информ-ии I достигает прием-ка и восприн-ся в той степени в какой позволяет тезаурус. Если тезаурус неадекватен перед-ой инф-ии (очень мал или вообще отсутствует), то самая новая и полезная инф-ия не воспринимается в след-ии того что она не будет принята прием-ком с приемом новой инф-ии тезаурус может увеличиться.
11. Дискретизация информации. Квантование по уровню.
П
реобразование
непрерывного информац-го множества
аналоговых сигналов в дискретные, наз-сядискретизацией
или квантованием по уровню.
При квантовании по уровню диапазон возможных изменений функций разбивается на n интервалов квантований.
(
a,b)
– интервал квантования разбиваем на N
частей.
Xi=Xi-Xi-1; i=1,2…n; с границами
X0=a,X1;…Xn-1,Xn=b.
В результате квантования любое из значений X принадлежащий интервалу Xi(Xi-1; Xi) округляется до некоторой величины Xi=i*X;
Величины Xi i=1,2…n носят название уровней квантования, при квантовании по уровню воспроизводится отображение всевозможных значений величины X на дискретную область, состоящую из величин Xi-уровней квантования.
Замена истинных значений функции X соответствующими дискретными значениями – уровнями квантования Xi вносят ошибку или шум квантования.
Квантование по уровню равномерное (частный случай) при котором интервалы (шаги) квантования одинаковы
X=Xi=Xi-Xi-1=(b-a)/n; i=1,2…n.




