- •1. Виды сигналов. Классификация сигналов
- •2. Элементы теории сигналов. Подразделение передаваемых сигналов по диапазонам частот. Особенности распространения сигналов
- •3. Элементы теории информации. Понятие меры. Основные направления определения меры информации. Виды сообщений.
- •4. Структурные меры информации. Кванты. Биты
- •5.Аддитивная мера (Хартли).
- •6. Статистические меры информации. Вероятность и информация
- •7.Понятие энтропии. Энтропия ансамбля.
- •9. Энтропия объединения. Условная, безусловная, взаимная, совместная.
- •11. Дискретизация информации. Квантование по уровню.
- •12. Дискретизация по времени и восстановление непрерывной функции.
- •13. Теорема Котельникова. Воспроизводящие функции.
- •14. Кодирование информации. Общие понятия, определения. Цели кодирования. Общая схема системы передачи информации.
- •15. Модуляция носителей информации. Виды носителей и сигналов.
- •16.Модуляция и кодирование.Детерминированные и случайные сигналы.
- •17. Временная и спектральная формы описания сигналов.
- •18.Спектры сигналов с носителем в виде постоянного состояния (невозмущённый носитель, прямая модуляция).
- •19. Спектры сигналов с гармоническим носителем. Амплитудная модуляция.
- •20. Амплитудно-манипулированные сигналы. Балансная модуляция. Модуляция с подавлением боковой полосы частот. Формы сигналов.
- •22. Системы передачи информации. Каналы связи. Пропускная способность канала с помехами.
- •23. Пропускная способность непрерывного к. Пропускная способность симмет-го дискр-го к. Техническая эффек-ть системы передачи инф-ии.
- •24. Выбор полосы пропускания канала. Информационная эффективность канала. Согласование характеристик канала и сигнала.
- •26. Частотное, временное и фазовое разделение сигналов.
- •2.Временное разделение.
- •3.Фазовое разделение
- •27. Помехоустойчивый прием сигналов.
- •28. Частотная фильтрация.
- •29. Метод накопления.
- •30. Корреляционный метод фильтрации (временная фильтрация).
- •31. Согласованная фильтрация.
- •32. Кодирование. Выражение информации в цифровом виде. Классификация аналого – кодовых преобразователей.
- •33. Аналого – кодовые преобразователи считывания (метод масок).
- •34. Аналого – кодовые преобразователи последовательного счета
- •35. Аналого – кодовые преобразователи поразрядного уравновешивания.
- •36. Эффективное кодирование. Особенности систем эффективного кодирования. Префиксные коды.
- •37. Построение кода Шеннона – Фано (пояснить на примере).
- •38. Методика Хаффмена (пояснить на примере).
5.Аддитивная мера (Хартли).
В
теории инф-ии важн-ю роль играет
комбинаторика чисел и кодов.L-длина
числа, кол-во разрядов. H
- глубина числа, основание кода - кол-во
различ-х элем-в (знаков) содер-ся в
принятом алфавите. Глубина числа
соответствует основаниям сис-мы счисления
и кодирования. Один полный алфавит
занимает одно числовое гнездо, глубина
которого h.
I-кол-во числовых гнезд, т.е. кол-во повторений алфавита. Некоторое кол-во чисел и представл-ся числовым полем. Q=HL (кол-во чисел, кот-е можно представить в этом поле).
В следствии показ-го з-на зав-ти Q(L) число Q явл-ся неудоб-й мерой для оценки информационной емкости, поэтому вводят вторую аддит-ю логарифмическую меру, позвол-щую вычислять количественную инфор-ию, в двоич-х ед-цах-битах.
I(кол-во инфор-ии)=log2Q=log2HL=L*log2H{бит}
6. Статистические меры информации. Вероятность и информация
Энтропия-мера неопределенности пол-го сообщения. Чем меньше вер-ть, тем больше энтропия. При вероятностном подходе событие рассм-ся как сообщение о случ. событие, так и реализация случ-й величин. Кол-во инф-ии ставится в зависимость от априорных вероятностей совершения этих событий. Вер-ть сообщения P(x);g=1-P(x)-вер-ть против. события. События и антисобытия в совокупности образуют однопредметное событие. Сущ-ут 2-х предметное событе, когда нужно сделать выбор. В орпед-ый момент времени присутствует только одно событие. P=q=0.5
События м. рассматриваться как исходы некоторого опыта, причем все возможные исходы составляют ансамбль или полная группа событий. Сумма всех вер-ей равна 1.
P
Вер-ти
могут изменяться во времени.Процессы
наз-ся нестационарными.
|
Исход опыта |
A1 |
A2 |
Ak |
|
Значение величины |
X1 |
X2 |
Xk |
|
Вер-ть исхода |
P1 |
P2 |
Pk |
В инф-ке энтропия хар-ет способность ист-ка отдавать инф-ию.
,
N-общее
кол-во молекул; ni-
кол-во молекул, обладающих скоростью.
ni/N=Pi,
,
,![]()
7.Понятие энтропии. Энтропия ансамбля.
Ансамблем наз-ся полная группа событий или поле несовместных событий с известным распределением вероятностей, состовляющих 1.Энтропия ансамбля-кол-ая мера его неопределенности, а значит информативности. Энтропия количественно выр-ся как средняя ф-ия множества вероятностей каждого из воз-ых исходов опыта. N-кол-во возм. исходов;
k-кол-во
без повторений, ni-повторения,Ii-кол-во
инф-ии i-го
опыта.![]()
ni/N=Pi,![]()
H=Iср
Для натур-го логарифма ед-цы измер-я 1Нит. Для десятичного 1Дит. 1Нит.=1,44 бит;1Дит.=3,3219 бит. Энтропия м.б. определена как среднее кол-во инфор-ии на одно сообщен-е или мат. ожид-е кол-ва инфор-ии для измер-й вх-й вел-ны х. H(x)=M[I(x)];
Требования для фун-ии H(p):
1)H(p)-непрерывна на интервале 0≤pi<1, т.е. при малых изменениях P велич. энтропии мало измен-ся.
2)H(p) симметр-но отн-но веороятности р, т.е. не измен-ся при любой перемене мест аргумента pi
3)H(p1,p2,...pk-1 ,q1,q2) =H(p1,p2...,Pk)+Pk*H (p1/pk,p2/pk)
Если событие xi состоит из 2-х событий xi1 и xi2, вероятности которых q1 и q2, причем q1+q2=1. Общая энтропия будет равна сумме энтропий неразветвленной системы и разветвленной части с весом P, при вер-х q1/pk, q2/pk.

H(1/2;1/3;1/6)=H(1/2;1/2)+1/2*H(2/3;1/3)
8.Свойства энтропии.
Неопред-ть в каждой ситуации хар-ся вел-й наз-ой энтропией
1)Энтропия всегда неотриц-на, т.к. знач-е вероят-й выраж-ся дроб-ми велич-ми: log2pi=-(-Qi),а их log отриц.;
2)Энтропия=0, в том случае, когда одно событ.=1, а остал-е=0;Это когда о величине изв-но все заранее и рез-т не приносит новой инф-ии
3)Энтропия имеет max знач-е в том случае, когда все вероят-ти равны м/у собой.
H
=-log2(1/k);p1=p2=..=-pk=1/k
K=h,h-глубина алфавита; Q=hl,l-число букв в слове. l=1, то I=log2Q=log2h.
Совпадение оценок кол-ва инф-ии по Шеннону и по Хартли свид. о полном использовании информац. емкости системы (только при равновер.)
В случае не равных вероятностей кол-во инф-ии по Шеннону меньше инф.емкости.
![]()
P1=P2=0,5
=1бит
P1=0,9 P2=0,1
;
P1=1,P2=0,H=0 бит
