- •1. Информация, сообщение, сигнал, помеха. Классификация сигналов и помех.
- •2. Структурная схема цифровой и аналоговой систем передачи информации. Назначение элементов схемы.
- •3. Энергетические характеристики сигналов. Условие ортогональности сигналов, когерентные сигналы.
- •4. Линейные операторы сигналов. Условия линейности. Линейная зависимость сигналов.
- •5. Линейные пространства сигналов. Сигналы и векторы. Физический смысл нормы и квадрата нормы сигнала.
- •6. Частотное представление сигналов как детерминированных процессов. Системы базисных функций (сигналов). Обобщенный ряд Фурье.
- •11. Условия неискаженной передачи сигналов через линейный четырехполюсник системы передачи информации.
- •12. Дискретизация непрерывных сигналов. Теорема Котельникова. Виды погрешностей. Практическое значение теоремы.
- •13. Дискретное преобразование Фурье. Спектр дискретного сигнала.
- •14. Непрерывные сигналы как случайные стационарные процессы. Вероятностные характеристики случайных сигналов.
- •15. Частотное и временное представление случайных стационарных, эргодических сигналов. Теорема Хинчина – Винера.
- •18. Типы дискретных источников информации, их характеристики. Количество информации в букве сообщения при равновероятности и взаимной независимости букв. Единицы количества информации.
- •25) Теорема Шеннона о пропускной способности дискретного канала с шумами. Способы повышения верности передачи информации.
- •26) Энтропия непрерывного источника информации.
- •27) Объем непрерывного сигнала, объем канала. Способы деления объема канала, системы передачи информации.
- •28) Гауссовский канал и его пропускная способность, предел пропускной способности.
- •29) Помехоустойчивые коды, классификация. Блочные линейные (n, k)-коды, уравнения формирования контрольных элементов, проверки, синдром ошибки на примере кода (6, 3).
- •30) Геометрическое представление линейных (n, k)-кодов. Операции над векторами в пространстве кодовых комбинаций, кодовое расстояние, вес кодовой комбинации, минимальное кодовое расстояние.
- •31) Представление кодов с помощью матриц. Производящие и проверочные матрицы линейных (n, k)-кодов. Минимальное кодовое расстояние, обнаруживающая и исправляющая способность кода.
- •33) Проверочная матрица кода, исправляющего ошибки первой кратности. Структурная схема декодирующего устройства на примере кода (6, 3).
- •20 Количество информации в букве сообщения при неравновероятности и взаимозависимости букв. Энтропия марковского источника.
- •21 Избыточность. Коэффициент сжатия (информативность). Причины избыточности. Методы сжатия сообщений.
- •22 Дискретный канал передачи информации и его характеристики. Количество информации, передаваемое через канал одной буквой. Пропускная способность канала.
- •23 Двоичный симметричный канал и его пропускная способность. Каналы с независимыми ошибками и пакетами ошибок.
20 Количество информации в букве сообщения при неравновероятности и взаимозависимости букв. Энтропия марковского источника.
В реальных источниках
информации элементы сообщения чаще
всего и неравновероятны, и взаимозависимы.
Действительно, в тексте буквы появляются
не только с разной вероятностью
,
но и взаимосвязаны между собой. Значит,
нужно учитывать условные вероятности
,
т.е. вероятность появления буквы j,
если перед ней была буква i.
Например, после согласной, как правило,
идет гласная буква, хотя есть
исключения.
Отсюда следует, что
количество информации при неравновероятных
и взаимозависимых элементах сообщения
может быть найдено из выражения:
(6)
Для источника, символы которого появляются с неравной вероятностью и взаимозависимостью (марковского источника), К. Шенноном получено следующее выражение энтропии
Марковский источник обладает самым большим коэффициентом избыточности. А энтропия является самой маленькой среди всех источников
21 Избыточность. Коэффициент сжатия (информативность). Причины избыточности. Методы сжатия сообщений.
Избыточность источника с объемом алфавита k
определяет, какая доля максимально возможной для данного алфавита энтро- пии не используется источником
Избыточность кодов определяется наличием в кодовых комбинациях кон-трольных (проверочных) символов и соотношением их числа с числом информа-ционных символов.
Информативность это отношение энтропии источника к энтропии оптимального источника. Оптимальный источник, символы которого равновероятны и взаимонезависимы. Оптимальный источник имеет максимальное значении энтропии при одинаковом количестве букв в алфавите
Коды, способные обнаруживать и исправлять ошибки, называют помехо-устойчивыми, или корректирующими. Эти коды всегда обладают избыточно-стью, тем большей, чем выше их способность обнаруживать и исправлять ошиб-ки. Избыточность кодов определяется наличием в кодовых комбинациях кон-трольных (проверочных) символов и соотношением их числа с числом информа-ционных символов.
Избыточность в сообщении появляется из-за создания помехоустойчивогокода или кода с исправлением ошибок
Избыточность появляется из-за неравновероятности появления символов и их взаимозависимосто
При кодировании со сжатием без потерь выделяются две разновидности методов: Первая основана на раздельном кодировании символов. Основная идея состоит в том, что символы разных типов встречаются неодинаково части и если кодировать их неравномерно, - так, чтобы короткие битовые последовательности соответствовали часто встречающимся символам, - то в среднем объем, кода бу-дет меньше. Такой подход, именуемый, статистическим кодированием, реализо-ван, в частности, в широко распространенном коде Хаффмана, о котором мы расскажем подробно ниже.
Очевидно, что посимвольное кодирование не использует такого важного резерва сжатия данных, как учет повторяемости последовательностей (цепочек) символов.
Простейший вариант учета цепочек – так называемое «кодирование повто-ров» или код RLE,
Гораздо более универсальным является алгоритм, позволяющий эффек-тивно кодировать повторяющиеся цепочки разных символов, имеющие при этом произвольную длину. Такой алгоритм был разработан Лемпелем и Зивом и при-меняется в разных версиях в большинстве современных программ-архиваторов.
К методам сжатия изображений относятся «блочный» алгоритм JPEG ос-нованный на независимом «огрублении» небольших фрагментов изображений (квадраты 8х8 пикселей). Здесь с ростом степени сжатия проявляется мозаич-ность изображения. Блочный метод JPEG (разработанный специальной группой международного комитета по стандартизации) получил сейчас повсеместное распространение и ниже мы рассмотрим его подробнее. Достигается степень сжатия – в среднем в десятки раз.
При волновом сжатии в отличие от блочного изображение как бы «размы-вается» (чем выше степень сжатия, тем более нечетки границы и детали). При передаче данных получаемое изображение постепенно «проявляется» в деталях. Это позволяет получателю самому выбирать необходимый компромисс между качеством и скоростью получения изображения, что очень удобно, например в Интернет. К тому же «размытость» не столь резко воспринимается глазом как потеря качества по сравнению с «мозаичностью». Так что при субъективно близ-120
ком уровне качества волновой метод дает большую степень сжатия по сравне- нию с «блочным». Именно такой подход реализован в новом стандарте JPEG 2000.
