- •1. Виды сигналов. Классификация сигналов
- •2. Элементы теории сигналов. Подразделение передаваемых сигналов по диапазонам частот. Особенности распространения сигналов
- •3. Элементы теории информации. Понятие меры. Основные направления определения меры информации. Виды сообщений.
- •4. Структурные меры информации. Кванты. Биты
- •5.Аддитивная мера (Хартли).
- •6. Статистические меры информации. Вероятность и информация
- •7.Понятие энтропии. Энтропия ансамбля.
- •9. Энтропия объединения. Условная, безусловная, взаимная, совместная.
- •11. Дискретизация информации. Квантование по уровню.
- •12. Дискретизация по времени и восстановление непрерывной функции.
- •13. Теорема Котельникова. Воспроизводящие функции.
- •14. Кодирование информации. Общие понятия, определения. Цели кодирования. Общая схема системы передачи информации.
- •15. Модуляция носителей информации. Виды носителей и сигналов.
- •16.Модуляция и кодирование.Детерминированные и случайные сигналы.
- •17. Временная и спектральная формы описания сигналов.
- •18.Спектры сигналов с носителем в виде постоянного состояния (невозмущённый носитель, прямая модуляция).
- •19. Спектры сигналов с гармоническим носителем. Амплитудная модуляция.
- •20. Амплитудно-манипулированные сигналы. Балансная модуляция. Модуляция с подавлением боковой полосы частот. Формы сигналов.
- •22. Системы передачи информации. Каналы связи. Пропускная способность канала с помехами.
- •23. Пропускная способность непрерывного к. Пропускная способность симмет-го дискр-го к. Техническая эффек-ть системы передачи инф-ии.
- •24. Выбор полосы пропускания канала. Информационная эффективность канала. Согласование характеристик канала и сигнала.
- •26. Частотное, временное и фазовое разделение сигналов.
- •2.Временное разделение.
- •3.Фазовое разделение
- •27. Помехоустойчивый прием сигналов.
- •28. Частотная фильтрация.
- •29. Метод накопления.
- •30. Корреляционный метод фильтрации (временная фильтрация).
- •31. Согласованная фильтрация.
- •32. Кодирование. Выражение информации в цифровом виде. Классификация аналого – кодовых преобразователей.
- •33. Аналого – кодовые преобразователи считывания (метод масок).
- •34. Аналого – кодовые преобразователи последовательного счета
- •35. Аналого – кодовые преобразователи поразрядного уравновешивания.
- •36. Эффективное кодирование. Особенности систем эффективного кодирования. Префиксные коды.
- •37. Построение кода Шеннона – Фано (пояснить на примере).
- •38. Методика Хаффмена (пояснить на примере).
3. Элементы теории информации. Понятие меры. Основные направления определения меры информации. Виды сообщений.
Важнейшим вопросом теории инф-ции явл. установ-е меры кол-ва и кач-ва инфор-ции.
Меры отвечают 3-м основным направ-ям: структ-му, статич-му и сематич-му.
Дискретные сообщения слогаются из счетного мн-ва элементов, создаваемых источником последовательно во времени.
Набор элементов наз. алфавитом источника, элементы - буквами. Число букв в алфавите – объем алфавита.
Струк-я теория – рассматр-т диркет-е строение массивов инф-ции и их измерение простым подсчетом информац-х э-тов или комбинаторным методом предлаг-ет простейшее кодир-е массивов инф-ии. Под сооб-ем понимают совок-сть знаков или первичных сигналов содержащих инф-ию. Иначе говоря, сообщение - это информация представленная в какой-либо форме.
Статичес-я теория оперирует понятием энтропия, как мера неопред-ти учит-я вероят-ть появления, а след-но информатив-ть тех или иных сообщен.
Сематическая теория – учит-т целесообр-ть, цен-ность, полез-ть или сущест-ть инф-ции. Источ-ки инф-ции и создаваемые ими сообщения раздел-ся на дискретные и непрерывные.
Дискр-е – складыв-ся из множ-ва элем-в создаваемого источником послед-го во времени. Дискрет-й источник в конечное время созд-т конеч-е множ-во сообщен.(текст, послед-ть и т.д.)
Непрер-е – отражен-е какой-либо физ.вел. измен-ся в зад-ом интервале времени, получ-е коенеч-го множ-ва сообщен. за конеч-й промеж-к времени достиг-ся путем дискретиз-и во времени и квантованием по уровню.
4. Структурные меры информации. Кванты. Биты
С
трук-е
меры учитыв-т только дискрет-е строение
данного инфор-го комплекса, в данном
случ-е кол-во содержащ-ся инфор-ии
определяется, связями м/у ней или
комбинациями. Информац-й элемент -
неделимые частицы-кванты инфор-ии. В
струк-й теории различ-т:геометрическую,
комбинат-ю и аддит-е меры (мера Хартли)
инфор-ии.
Ед-ца измер-я кол-ва инфор-ии в данном
случ-е –биты.
Геометр-е
меры сводится
к измер-ю длины, площ-ди, или объема
геометрии модели данного инфор-го
комплекса. Геометр-м методом опред.
потенциал-я энергия, т.е. максим-но
возмож-е кол-во инф-ции задан-е в
структур-х габаритах. Кол-вом
инф-ии будем
наз-ть инф-ую
емкость исслед-ой информац-й сис-мы.
mX=X/ΔX; mY=Y/ΔY; mZ=Z/ΔZ;
m- кол-во инф-ии в квантах. Если дискрет-е отсчеты по X, Y и Z осущ-ся ч/з интервалы ΔX, ΔY, ΔZ, то непрер-е координаты распад-ся на элем-ты, т.е. кванты M=mXmYmZ – общее кол-во Инф-ии.
К комбинаторной мере целесообразно прибегать тогда, когда треб-ся оценить возм-ть передачи инфор-ии при помощи разл-х комбин-й и элем-в, образование комбинац-й будет одной из форм кодир-я инфор-ии. Кол-во инфор-ии вычисляется как кол-во комбинаций элемен-в, т.о. оценке подвергается комбинатор-е свойство потенциал-го структ-го разнообр-я.
Аддитивная мера – см 5 вопр!!!
Квантование сигнала - преобразование сигнала в последовательность импульсов (квантование сигнала по времени) или в сигнал со ступенчатым изменением амплитуды (квантование сигнала по уровню), а также одновременно и по времени, и по уровню.
БИТ (англ. bit, от binary — двоичный и digit — знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике — двоичная цифра, двоичный разряд. Число бит памяти ЭВМ определяет максимальное количество двоичных цифр, вмещаемых ею; число бит данных есть количество двоичных разрядов, в которых они записаны.
