
- •1. Информация, сообщение, сигнал, помеха. Классификация сигналов и помех.
- •2. Структурная схема цифровой и аналоговой систем передачи информации. Назначение элементов схемы.
- •3. Энергетические характеристики сигналов. Условие ортогональности сигналов, когерентные сигналы.
- •4. Линейные операторы сигналов. Условия линейности. Линейная зависимость сигналов.
- •5. Линейные пространства сигналов. Сигналы и векторы. Физический смысл нормы и квадрата нормы сигнала.
- •6. Частотное представление сигналов как детерминированных процессов. Системы базисных функций (сигналов). Обобщенный ряд Фурье.
- •11. Условия неискаженной передачи сигналов через линейный четырехполюсник системы передачи информации.
- •12. Дискретизация непрерывных сигналов. Теорема Котельникова. Виды погрешностей. Практическое значение теоремы.
- •13. Дискретное преобразование Фурье. Спектр дискретного сигнала.
- •14. Непрерывные сигналы как случайные стационарные процессы. Вероятностные характеристики случайных сигналов.
- •15. Частотное и временное представление случайных стационарных, эргодических сигналов. Теорема Хинчина – Винера.
- •18. Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв. Единицы количества информации.
- •25) Теорема Шеннона о пропускной способности дискретного канала с шумами. Способы повышения верности передачи информации.
- •26) Энтропия непрерывного источника информации.
- •27) Объем непрерывного сигнала, объем канала. Способы деления объема канала, системы передачи информации.
- •28) Гауссовский канал и его пропускная способность, предел пропускной способности.
- •29) Помехоустойчивые коды, классификация. Блочные линейные (n, k)-коды, уравнения формирования контрольных элементов, проверки, синдром ошибки на примере кода (6, 3).
- •30) Геометрическое представление линейных (n, k)-кодов. Операции над векторами в пространстве кодовых комбинаций, кодовое расстояние, вес кодовой комбинации, минимальное кодовое расстояние.
- •31) Представление кодов с помощью матриц. Производящие и проверочные матрицы линейных (n, k)-кодов. Минимальное кодовое расстояние, обнаруживающая и исправляющая способность кода.
- •33) Проверочная матрица кода, исправляющего ошибки первой кратности. Структурная схема декодирующего устройства на примере кода (6, 3).
- •20 Количество информации в букве сообщения при неравновероятности и взаимозависимости букв. Энтропия марковского источника.
- •21 Избыточность. Коэффициент сжатия (информативность). Причины избыточности. Методы сжатия сообщений.
- •22 Дискретный канал передачи информации и его характеристики. Количество информации, передаваемое через канал одной буквой. Пропускная способность канала.
- •23 Двоичный симметричный канал и его пропускная способность. Каналы с независимыми ошибками и пакетами ошибок.
22 Дискретный канал передачи информации и его характеристики. Количество информации, передаваемое через канал одной буквой. Пропускная способность канала.
В начале рассмотрим дискретный канал, через который в единицу времени передается V символов из ансамбля с объемом алфавита т.
При передаче каждого символа в среднем по каналу передается количество информации
где А И В — ансамбли дискретных случайных символов соответственно на входе и выходе канала.
Лишь Н(А) не зависит от свойств канала и определяет источник сигналов на входе,
Пусть на вход канала подаются сигналы от различных источников с разными распределениями вероятностей р(А), но при одинаковых значениях т и V. Для каждого источника количество информации, передаваемое по каналу, свое. Мак- симальное количество информации, взятое по всем возможным источникам, ха-130
рактеризует канал и называется пропускной способностью канала (в расчете на один символ):
Чаще используют понятие пропускной способности канала С в расчете на единицу времени, бит/с
23 Двоичный симметричный канал и его пропускная способность. Каналы с независимыми ошибками и пакетами ошибок.