- •1. Информация, сообщение, сигнал, помеха. Классификация сигналов и помех.
- •2. Структурная схема цифровой и аналоговой систем передачи информации. Назначение элементов схемы.
- •3. Энергетические характеристики сигналов. Условие ортогональности сигналов, когерентные сигналы.
- •4. Линейные операторы сигналов. Условия линейности. Линейная зависимость сигналов.
- •5. Линейные пространства сигналов. Сигналы и векторы. Физический смысл нормы и квадрата нормы сигнала.
- •6. Частотное представление сигналов как детерминированных процессов. Системы базисных функций (сигналов). Обобщенный ряд Фурье.
- •11. Условия неискаженной передачи сигналов через линейный четырехполюсник системы передачи информации.
- •12. Дискретизация непрерывных сигналов. Теорема Котельникова. Виды погрешностей. Практическое значение теоремы.
- •13. Дискретное преобразование Фурье. Спектр дискретного сигнала.
- •14. Непрерывные сигналы как случайные стационарные процессы. Вероятностные характеристики случайных сигналов.
- •15. Частотное и временное представление случайных стационарных, эргодических сигналов. Теорема Хинчина – Винера.
- •18. Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв. Единицы количества информации.
- •25) Теорема Шеннона о пропускной способности дискретного канала с шумами. Способы повышения верности передачи информации.
- •26) Энтропия непрерывного источника информации.
- •27) Объем непрерывного сигнала, объем канала. Способы деления объема канала, системы передачи информации.
- •28) Гауссовский канал и его пропускная способность, предел пропускной способности.
- •29) Помехоустойчивые коды, классификация. Блочные линейные (n, k)-коды, уравнения формирования контрольных элементов, проверки, синдром ошибки на примере кода (6, 3).
- •30) Геометрическое представление линейных (n, k)-кодов. Операции над векторами в пространстве кодовых комбинаций, кодовое расстояние, вес кодовой комбинации, минимальное кодовое расстояние.
- •31) Представление кодов с помощью матриц. Производящие и проверочные матрицы линейных (n, k)-кодов. Минимальное кодовое расстояние, обнаруживающая и исправляющая способность кода.
- •33) Проверочная матрица кода, исправляющего ошибки первой кратности. Структурная схема декодирующего устройства на примере кода (6, 3).
- •20 Количество информации в букве сообщения при неравновероятности и взаимозависимости букв. Энтропия марковского источника.
- •21 Избыточность. Коэффициент сжатия (информативность). Причины избыточности. Методы сжатия сообщений.
- •22 Дискретный канал передачи информации и его характеристики. Количество информации, передаваемое через канал одной буквой. Пропускная способность канала.
- •23 Двоичный симметричный канал и его пропускная способность. Каналы с независимыми ошибками и пакетами ошибок.
18. Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв. Единицы количества информации.
Существует 3 вида ДИИ:
ДИИ, буквы которого равновероятны и взаимонезависимы (не существует в реальности)
ДИИ, буквы которого неравновероятны и взаимонезависимы
ДИИ, буквы которого неравновероятны и взаимозависимы
Количество информации в букве сообщения при равновероятности и взаимной независимости букв:
[бит], где N – это количество букв в алфавите,
– вероятность появления буквы
19. Количество информации в букве сообщения при неравновероятности и взаимной независимости букв. Мера количества информации.
25) Теорема Шеннона о пропускной способности дискретного канала с шумами. Способы повышения верности передачи информации.
1 (вроде говорится о теореме Шеннона-Хартли) Пропускная способность канала C, на которой можно передать данные при средней мощности сигнала S через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N равна:
где B – полоса пропускания канала Гц.
2 Если скорость передачи сообщений меньше пропускной способности канала связи, то существуют коды и методы декодирования такие, что средняя и максимальная вероятности ошибки декодирования стремятся к нулю, когда длина блока стремится к бесконечности.
Основной способ повышения верности – введение в передаваемую последовательность избыточности с целью обнаружения и исправления ошибок в принятой информации.
Для повышения также используют корректирующие коды, исправляющие ошибки. Структура кода и его исправляющие возможности рассчитываются для некоторого идеализированного канала с известной статистикой ошибок. Использования корректирующего кодирования воздействует и на способ передачи, и на способ приема.
26) Энтропия непрерывного источника информации.
Энтропия непрерывного источника информации бесконечна, так как неопределенность выбора из бесконечного числа возможных состояний бесконечно велика.
27) Объем непрерывного сигнала, объем канала. Способы деления объема канала, системы передачи информации.
1
Vc – объем непрерывного сигнала, Vk – объем канала, – длительность сигнала, – ширины спектра, – превышения средней мощности сигнала над помехой, – время передачи канала для отправителя, – ограниченная полоса частот, – допустимый диапазон изменения мощности.
2 Делить объем можно по: по f – системы с ЧРК (частотное разделение канала); по t – системы с ВРК (временное разделение канала); деление по d (мощности) не производят, так как сигналы с большей мощностью будут являться помехами для сигналов с меньшей; системы с кодовым разделением канала – сигналы имеют одинаковую мощность и, присвоенный каждому сигналу отдельно, уникальный идентификатор.