- •Раздел I. Основы теории информации.
- •1.Информация:основные понятия, свойства информации.
- •2. Символы и сигналы, их виды
- •3. Способы измерения информации: геометрическая мера, комбинаторная мера
- •4.Аддетивная мера информации. Мера Хартли.
- •5.Статистическая мера информации. Связь вероятности информации.
- •6.Энтропия и ее основные свойства.
- •Раздел II. Переносчики информации
- •1.Физические сигналы и их математическое описание. Виды сигналов
- •2. Спектральные характеристики сигналов
- •3. Отличительные (информационные) признаки сигналов
- •4. Виды сообщений
- •5. Квантование сигналов и его роль в спд
- •6. Виды квантования: по уровню, по времени.
- •7. Квантование по уровню и времени
- •8. Дифференциальное квантование
- •9. Теорема Котельникова. Функция отсчетов и ее свойства
- •10. Практическое значение теоремы Котельникова
- •Раздел III. Способы формирования сообщений
- •1. Нанесение и снятие информации с материальных носителей.
- •2. Типы переносчиков сигналов
- •3. Непрерывные методы модуляции, основные понятия и виды.
- •4. Амплитудная модуляция (ам) и ее особенности.
- •5. Частотная и фазовая модуляция
- •6. Спектры модулированных колебаний
- •7. Балансная модуляция (дбп и обп)
- •8. Полярная модуляция
- •9. Амплитудная манипуляция (аМн)
- •10. Частотная манипуляция (чАм)
- •11. Фазовая манипуляция (афМн и офм/фрм)
- •12. Двухкратные непрерывные модуляции
- •13. Импульсные методы модуляции, их виды
- •14. Аим: виды и особенности
- •19. Δ-модуляция
- •20. Разностно-дискретная модуляция
- •21. Λ-δ-модуляция
- •22. Многократные методы модуляции
- •23. Демодуляция (детектирование) сигналов
- •Раздел IV. Передача данных по каналам связи
- •1.Основные хар-ки каналов связи
- •2. Скорость передачи данных по каналам связи
- •3. Согласование физических характеристик сигналов и каналов связи
- •4.Согласование статических свойств источника сообщений и канала связи
- •5. Принцип работы идеального приемника в.А. Котельникова
- •6. Критерий эффективности передачи данных по каналам связи.
- •Раздел V. Основы теории кодирования
- •1.Кодирование информ. И его роль в спд
- •2. Непомехоустойчивые коды, их виды и особенности
- •3. Код Грея, его особенности и назначение(рефлексный или отражательный код)
- •4. Основные принципы эффективного кодирования.
- •5. Эффективное кодирование по алгоритму Шеннона-Фана
- •6. Эффективное кодирование по алгоритму Хафмена
- •7. Помехоустойчивое кодирование, использование принципа избыточности для повышения помехоустойчивости спд
- •8. Основные виды помехоустойчивых кодов
- •9. Использование избыточности кодов для обнаружения ошибок
- •10. Кодовое расстояние Хемминга и его использование для коррекции ошибок.
- •11. Декодирование по принципу максимального правдоподобия
- •12. Связь максимальной кратности обнаруживаемых и исправляемых ошибок с минимальным кодовым расстоянием.
- •13. Показатели качества корректирующего кода
- •14. Геометрическая интерпретация блоковых корректирующих кодов
- •15. Принципы построения блоковых линейных кодов
- •16. Циклические коды, их особенности и принципы построения
- •17. Коды бчх, общая характеристика.
5.Статистическая мера информации. Связь вероятности информации.
Мера Хартли не отражает случайной возник. сообщений. Поэтому сущ. Необходимость в установлении связи м/у кол – во информ. и вероятностью появления соответствующего сообщения. При статистическом подходе рассматривается как мера вероятности появления соответствующего сообщения или события. В рамках такого подхода чем событие более вероятно тем меньше информ. о нем мы имеем и наоборот. Такой подход к оценки количественной информ. предложил 1946 американский математик Клот Шеннон. В общем случаии любые события можно рассматривать как исход любого опыта. Полная группа всевозможных исходов данного опыта наз. ансамблем событий. Вероятность любого из событий = значению Рi, причем по теореме о полной вероятностиP1+Р2+…+РN=n=1. В реальных сообщений принимаемые символы имеют различную вероятностьPi=ni/Ni. Каждое такое событие несет некоторое кол- во информ.Ii= logaPi
Iср=(n1*I1+n2*I2+….+nk*Ik)/N=p1*I1+p2*I2+…+pk*Ik=∑piIi
Iср=-∑pi*logaPi =H-энтропия.
Способ измерения кол-во информ. предложенный Шенном, явл. Обобщение способа Хартли на случай неравно вероятных не зависимых сообщений. В общем случаи можно считать, что кол-во информ. характеризует уменьшение энтропии информ. системы. В результате процесса познания, если неопределеность ситуации снимается полностью то кол-во информ будет равно кол-во энтропии источника. В случаи неполного разрешения ситуации информ. которую мы сможем получить будет оценивается выражением ∆I=H1-H2.
6.Энтропия и ее основные свойства.
Iср=-∑pi*logaPi=H-энтропия.
Способ измерения кол-во информ. предложенный Шенном, явл. Обобщение способа Хартли на случай неравно вероятных не зависимых сообщений. В общем случаи можно считать, что кол-во информ. характеризует уменьшение энтропии информ. системы. В результате процесса познания, если неопределеность ситуации снимается полностью то кол-во информ будет равно кол-во энтропии источника. В случаи неполного разрешения ситуации информ. которую мы сможем получить будет оценивается выражением ∆I=H1-H2.
Свойства энтропии:
1.Э. изеряется в техже единицах что и кол – во иформ.
2. Знак «-» перед суммой означает что э. всегда положительна Н0, т.к 0< р<1logP<0
3.Э. достигает макс. значения если все события равно вероятны. Н=Нmax, ели Р1=Р2=Рk
4.Э.=0, если Рi=1
Среднее кол-во информ. выдаваемая источником сообщений в единицу времени наз. производительностью источника.Н’=Н/t [I’]=[H’]=бит/с
Для каналов передачи информации используют аналогичную характеристику наз. скорость передачи данных по каналу связи. Согласование производительности источника и скорости пер. дан. По каналам связям явл. Одной из важнейших задач в теории и практики систем пер.дан.
Раздел II. Переносчики информации
1.Физические сигналы и их математическое описание. Виды сигналов
Материальными переносчиками @ служат сигналы, представляющие собой любые физич. или иные процессы, удовл. след. усл-ю. Они допускают возможность упр-я пар-ми процесса в соотв-вии с выбранным алгоритмом, т.е. допускают возможность кодир-я сигнала. Эти процессы могут распространяться по соотв. каналам связи. Они м.б. восприняты и зарегистрированы соотв. конечными ус-вами.
В техн. сис. наиб. распространение получили процессы ЭМ природы. По хар-ру поведения во времени сигналы принято разделять на непр. и дискретные. В кач-ве непр. сигнала можно рассм. сигналы в виде перем. тока нек. частоты ω, мгновенное зн-е кот. i(t)=Jmsin(cos)(ωt+φo). Гармонич. непр. сигналы в чистом виде не пригодны для передачи @ в силу их строгой периодичности во времени, поскольку знание исходных пар-ров такого процесса в нач.мом.вр. делает авт-ки известными зн-я пар-ров этого процесса в любой последующий мом.вр. Для передачи сообщений с пом. гармонич. сигналов необх. обеспечить изменение 1 из хар-ных пар-ров такого сигнала в соотв-вии с законом изменения контролируемого пар-ра в соотв-вии с передаваемым сообщением. Другими словами для передачи сообщений с пом. непр. гарм. процессов необ-мо вып-ть модуляцию пар-ров этого процесса.
Дискретные сигналы могут реализоваться в виде кратковременных отклонений использованного физического (или иного) процесса от стац. состояния. Такие сигналы принято называть импульсными. Если в кач-ве д.с. исп-ся кратковременное воздействие постоянного эл. тока, то такие сигналы наз-ся видеоимпульсами (ви). Если сигналы реализуются ввиде кратковременной посылки ограниченного числа ВЧ колебаний, то такой сигнал наз. радиоимпульсом(ри). Можно считать, что огибающая любого ри предст. соб. ви. В о.сл. форма ви или огибающая ри м.б. произвольной. Наиболее распространены импульсы след. формы.
На пр-ке для передачи @ преимущественно исп-ся неодиночные импульсы, а их последовательности, для кот. сущ-ют свои хар-ные пар-ры.
K=1/Q=τ Fсл, Fc=1/T, Q=T/τ,
где К – к-т заполнения, Q – скважность.