
- •Раздел I. Основы теории информации.
- •1.Информация:основные понятия, свойства информации.
- •2. Символы и сигналы, их виды
- •3. Способы измерения информации: геометрическая мера, комбинаторная мера
- •4.Аддетивная мера информации. Мера Хартли.
- •5.Статистическая мера информации. Связь вероятности информации.
- •6.Энтропия и ее основные свойства.
- •Раздел II. Переносчики информации
- •1.Физические сигналы и их математическое описание. Виды сигналов
- •2. Спектральные характеристики сигналов
- •3. Отличительные (информационные) признаки сигналов
- •4. Виды сообщений
- •5. Квантование сигналов и его роль в спд
- •6. Виды квантования: по уровню, по времени.
- •7. Квантование по уровню и времени
- •8. Дифференциальное квантование
- •9. Теорема Котельникова. Функция отсчетов и ее свойства
- •10. Практическое значение теоремы Котельникова
- •Раздел III. Способы формирования сообщений
- •1. Нанесение и снятие информации с материальных носителей.
- •2. Типы переносчиков сигналов
- •3. Непрерывные методы модуляции, основные понятия и виды.
- •4. Амплитудная модуляция (ам) и ее особенности.
- •5. Частотная и фазовая модуляция
- •6. Спектры модулированных колебаний
- •7. Балансная модуляция (дбп и обп)
- •8. Полярная модуляция
- •9. Амплитудная манипуляция (аМн)
- •10. Частотная манипуляция (чАм)
- •11. Фазовая манипуляция (афМн и офм/фрм)
- •12. Двухкратные непрерывные модуляции
- •13. Импульсные методы модуляции, их виды
- •14. Аим: виды и особенности
- •15. Шим, характеристика, особенности.
- •16. Фим, ее особенности
- •18. Ким(икм) – особенности, область изменения
- •19. Δ-модуляция
- •20. Разностно-дискретная модуляция
- •21. Λ-δ-модуляция
- •22. Многократные методы модуляции
- •23. Демодуляция (детектирование) сигналов
- •Раздел IV. Передача данных по каналам связи
- •1.Основные хар-ки каналов связи
- •2. Скорость передачи данных по каналам связи
- •3. Согласование физических характеристик сигналов и каналов связи
- •4.Согласование статических свойств источника сообщений и канала связи
- •5. Принцип работы идеального приемника в.А. Котельникова
- •6. Критерий эффективности передачи данных по каналам связи.
- •Раздел V. Основы теории кодирования
- •1.Кодирование информ. И его роль в спд
- •2. Непомехоустойчивые коды, их виды и особенности
- •3. Код Грея, его особенности и назначение(рефлексный или отражательный код)
- •4. Основные принципы эффективного кодирования.
- •5. Эффективное кодирование по алгоритму Шеннона-Фана
- •6. Эффективное кодирование по алгоритму Хафмена
- •7. Помехоустойчивое кодирование, использование принципа избыточности для повышения помехоустойчивости спд
- •8. Основные виды помехоустойчивых кодов
- •9. Использование избыточности кодов для обнаружения ошибок
- •10. Кодовое расстояние Хемминга и его использование для коррекции ошибок.
- •11. Декодирование по принципу максимального правдоподобия
- •12. Связь максимальной кратности обнаруживаемых и исправляемых ошибок с минимальным кодовым расстоянием.
- •13. Показатели качества корректирующего кода
- •14. Геометрическая интерпретация блоковых корректирующих кодов
- •15. Принципы построения блоковых линейных кодов
- •16. Циклические коды, их особенности и принципы построения
- •17. Коды бчх, общая характеристика.
3. Способы измерения информации: геометрическая мера, комбинаторная мера
счетное множество дискретных элементов, используемых для формирования дискретных сообщений наз. алфавитом. А элементы этого алфавита принято наз. буквами. Число букв в алфавите наз объемом алфавита, элементы представляющие собой минимальные неделимые части информ в дискретных моделях информ систем наз квантами информ.
Геометрическая мера. Данная мера основана на оценке числа квантов на которые может быть разбита рассматриваемое информац. Пространство в пределах заданных конструктивных габаритов.
Комбинаторная мера. Такая мера используется в тех случаях когда необходимо оценить возможности передачи при помощи различных комбинаций информ элементов. Образование таких комбинаций представляет собой один из методов кодирования. В рамках комбинаторной меры кол-во информ вычисляется как число возможных комбинаций, образованных из информационных элементов. При этом кол-во информ содержащееся в сообщении оказывается зависящей от способа образования комбинаций. В комбинаторики рассматривают различные способы организации комбинации элементов:
1. сочетание из n элементов по k
2.перестановка из n элементов = n!
3.Размещение
В результате получается что кол-во информ. зависит от способа построения комбинаций, т.е. имеет неоднозначный характер. Эти меры информ не удобны и не универсальны.
4.Аддетивная мера информации. Мера Хартли.
В 1928 г американский инжер Р.Хартли предложил использовать логарифмическую (аддитивную) меру информ. Эта мера базируется на методике использующей след. допущения:
1.Сигналы с помощью кот передаются сообщения, носят дискретный характер
2. Алфавит, который используется для передачи сообщений состоит из конечного числа m элементов
3.Все символы алфавита статистически независимы, т.е. могут занимать произвольную позицию в слове.
4.все символы используемого алфавита равновероятны
5.Передача сообщений происходит в отсутствии помех, если m – объем алфавита, n – число букв в слове, то будем иметь N=mn – число возможных сообщений в рамках этого алфавита. Хартли предложил оценивать кол-во информ. через логарифм числа возможных сообщений с одинаковым числом букв в каждом слове I=logaN= logamn=n*logam. Основание логарифма в общем случае может быть произвольным и влияет только на единицу измерения информ.
a=10 log10N=lgN [I]10=1дит
a=e≈2,72 logeN=lnN [I]e=1нит
a=2 log2N=ldN [I]2=1бит
1нит=1,44269 бит 1дит=3,332193бит
I=logaN= logamn=n*logam
I=n*logam a=2, m=2, n=1 I=1*log22=1 бит
Т.к. согласно исходным предположениям все символы равновероятны, то и все N слов образованных из элементов этого алфавита, т.е. p1=p2=…=pN=1/N => N=1/p, где р- вероятность слова I=logaN= loga1/р=loga=01-loga=0р= - logaр => I= - logaр
Следовательно, кол-во информ, содержащееся в любом N равномерных сигналов = log вероятности появления этого сигнала взятому с отрицательным знаком. Если условия равновероятности не выполняется, то формула Хартли перестает быть справедлива.