
- •1. Определение информации. Семиотика и ее составные части. Фазы обращения информации.
- •2. Структура системы связи. Основные задачи каждого блока системы связи.
- •3. Измерение информации. Дискретный источник информации. Мера информации по Хартли и ее свойство
- •4. Измерение информации по Шеннону.
- •5. Свойства информации по Шеннону.
- •6. Энтропия нескольких источников информации.
- •7. Энтропия непрерывного источника. Относительная энтропия.
- •8. Избыточность источника сообщений.
- •9. Взаимосвязь между энтропией и числом сообщений.
- •10. Пропускная способность двоичного канала.
- •11. Согласование характеристик сигнала и канала.
- •Амплитудная модуляция
- •12. Пропускная способность непрерывного канала с помехами.
- •13. Классификация методов преобразования непрерывной информации в дискретную форму.
- •14. Теорема дискретизации Котельникова в.А. И ее особенности.
- •Свойства ряда Котельникова:
- •15. Корреляционный критерий дискретизации.
- •16. Адаптивные методы дискретизации.
- •Нулевая степень воспроизводящей функции
- •Первая степень приближающего многочлена
- •17. Квантование по уровню. Шум квантования.
- •О терминах
- •Основные принципы построения цап с резистивными цепочками Первый вариант
- •19. Ацп поразрядного взвешивания. Ацп поразрядного уравновешивания на конденсаторах
- •Первый шаг
- •Быстродействие
- •20. Устройство выборки - хранения. Принцип действия и схемы увх
- •21. Распределение мощности в спектре периодического сигнала.
- •22. Спектр периодической последовательности прямоугольных импульсов. Пример.
- •23. Спектр одиночного прямоугольного импульса. Пример.
- •24.Теорема Парсеваля о распределении энергии в спектре непериодического сигнала.
- •25. Взаимосвязь между длительностью импульса и шириной его спектра.
- •26. Спектральная плотность мощности случайного процесса.
- •27. Цели кодирования. Эффективное кодирование. Методы эффективного
- •Цели изучения темы «Эффективное кодирование».
- •Задачи эффективного кодирования.
- •28. Техническая реализация кодирующего и декодирующего устройств эффективного кода.
- •29. Теорема Шеннона о пропускной способности канала без помех и
- •30. Теорема Шеннона о пропускной способности канала при наличии помех. Классификация помехоустойчивых кодов.
- •31. Общие принципы использования избыточности в блоковых кодах.
- •32. Групповой код. Математическое введение. Определение количества
- •33. Таблицы опознавателей и проверочные уравнения для различных кодов (7;4); (7;3); (8;2); (9;3).
- •34. Техническая реализация группового кода и его матричная запись.
- •35. Циклический код. Математическое введение. Выбор образующего многочлена по требуемой корректирующей способности кода.
- •36.Методы построения циклического кода.
- •6.4.1. Методом умножения
- •6.4.2. Методом деления
- •6.4.3. По методу группового кода
- •37. Техническая реализация кодирующих устройств циклического кода по методу умножения (примеры).
- •38. Техническая реализация кодирующих устройств циклического кода по методу деления (примеры).
- •39. Техническая реализация кодирующих устройств циклического кода по методу группового кода (примеры).
- •40. Техническая реализация декодирующих устройств циклического кода, исправляющих одиночную ошибку. Пример.
- •41. Техническая реализация декодирующих устройств циклического кода, исправляющего 2-ые смежные ошибки. Пример.
- •42. Рекуррентный код. Кодирующее и декодирующее устройства. Пример.
- •43.Итеративные коды. Код с повторениями.
- •Модифицированный код с повторением
29. Теорема Шеннона о пропускной способности канала без помех и
следствие из нее. Способы сжатия информации.
В любом реальном сигнале всегда присутствуют помехи. Однако, если их уровень настолько мал, что вероятность искажения практически равна нулю, можно условно считать, что все сигналы передаются неискаженными. В этом случае среднее количество информации, переносимое одним символом, можно считать:
J(Z; Y) = Hапр(Z) – Hапост(Z) = Hапр(Y),
так как H(Y) = H(Z) и H(Y/Z) = 0, а max{J(Z; Y)} = Hmax(Y) – max энтропия источника сигнала, получающаяся при равномерном распределении вероятностей символов алфавита Y.
p( y1) = p( y2) = ... = p( ym) = 1/My,
т.е. Hmax(Y) = logaMy
и, следовательно, пропускная способность дискретного канала без помех в единицах информации за единицу времени равна:
Cy = Vy · max{J(Z; Y)} = Vy · Hmax(Y) = Vy · logaMy
или Ck = Vk · logaMy,
где Mk – должно быть max возможное количество уровней, допустимое для передачи по данному каналу (конечно, Mk = My);
Vk – определяется частотными переключательными способностями канала:
Если источник информации создает поток информации
,
а канал связи обладает пропускной способностью С ед. информации в единицу времени, то при H(x) ≤ C:
Сообщения, вырабатываемые источником, всегда можно закодировать так, чтобы скорость их передачи была сколь угодно близкой к
.
Не существует способа кодирования, позволяющего сделать эту скорость большей, чем Vx max.
Согласно сформулированной теореме существует метод кодирования, позволяющий при:
H(x) ≤ C – передавать всю информацию, вырабатываемую источником при ограниченном объеме буфера;
H(x) > C – такого метода кодирования не существует, так как требуется буфер, объем которого определяется превышением производительности источника над пропускной способностью канала, умноженной на время передачи.
Из этой теоремы вытекает следующее следствие: если источник информации имеет энтропию H(X), то сообщения всегда можно закодировать так, чтобы средняя длина кода lср (количество символов сигнала на одну букву сообщения) была сколь угодно близкой к величине:
,
то есть при а = 2 (бит) и My = 2 {0; 1} имеем:
,
где pi – вероятность встречи данного элемента алфавита;
li – количество символов в i-ой кодовой комбинации;
ε – бесконечно малая величина ≥ 0, т.е. lim lср = H(x).
Это следует из равенства:
.
Таким образом, lср выступает критерием эффективности кодирования. Чем ближе lср к H(x), тем лучше мы закодировали. В инженерной практике это различие можно считать допустимым 3÷5% (до 10%). Из этого же критерия следует, что если буквы имеют равномерное распределение вероятностей их употребления, то
H(x) @ log2 M,
а lср тоже равно log2 M. Пределы эффективного кодирования:
H(x) ≤ lср ≤ log2 M.
30. Теорема Шеннона о пропускной способности канала при наличии помех. Классификация помехоустойчивых кодов.
Теория помехоустойчивого кодирования базируется на результатах исследований, проведенных Шенноном и сформулированных им в виде теоремы:
при любой производительности источника сообщений, меньшей, чем пропускная способность канала, существует такой способ кодирования, который позволяет обеспечить передачу всей информации, создаваемой источником сообщений, со сколь угодно малой вероятностью ошибки;
не существует способа кодирования, позволяющего вести передачу информации со сколь угодно малой вероятностью ошибки, если производительность источника сообщений больше пропускной способности канала.
Хотя доказательство этой теоремы, предложенной Шенноном, в дальнейшем подвергалось более глубокому и строгому математическому представлению, идея его осталась неизменной. Доказывается только существование искомого способа кодирования, для чего находят среднюю вероятность ошибки по всем возможным способам кодирования и показывают, что она может быть сделана сколь угодно малой. При этом существует хотя бы один способ кодирования, для которого вероятность ошибки меньше средней.
Источник создает информацию со скоростью Vх букв в секунду и энтропией каждой буквы в среднем Н(х), т.е. его производительность:
Н(х) = Vх · Н(х) [бит/сек].
В соответствии с теоремой о эффективном кодировании среднее количество символов на одну букву lср ≥ Н(х), т.е. в первом приближении можно получить, что
Н(х) = Vх · lср [бит/сек].
Условие пропуска информации по каналу Н(х) ≤ C = Vk.
При наличии помех пропускная способность канала связи падает, т.е. при двоичном симметричном канале имеем:
Ck = Vk · [1 – H(Pош)].
Теорема о помехоустойчивом кодировании требует чтобы
Vx · lср = Н(х) ≤ Ck = Vk · [1 – H(Pош)].
где lср – средняя длина кодовой комбинации для записи одной буквы.
По сравнению с эффективным кодом lср увеличивается до:
.
Однако, такой величины lср1 помехоустойчивые коды не достигают. Это можно рассматривать как теоретический предел.
Обеспечение передачи информации с весьма малой вероятностью ошибки и достаточно высокой эффективностью возможно при кодировании чрезвычайно длинных последовательностей знаков. На практике степень достоверности и эффективности ограничивается двумя факторами: размерами и стоимостью аппаратуры кодирования и декодирования и временем задержки передаваемого сообщения. В настоящее время используются относительно простые методы кодирования, которые не реализуют возможностей, указанных теорией. Однако постоянно растущие требования в отношении достоверности передачи и успехи в технологии создания больших интегральных схем способствуют внедрению для указанных целей все более сложного оборудования.
Классификация кодов:
В этом случае кодирование должно осуществляться так, чтобы сигнал, соответствующий принятой последовательности символов, после воздействия на него предполагаемой в канале помехи оставался ближе к сигналу, соответствующему конкретной переданной последовательности символов, чем к сигналам, соответствующим другим возможным последовательностям. (Степень близости обычно определяется по числу разрядов, в которых последовательности отличаются друг от друга.)
Это достигается ценой введения при кодировании избыточности, которая позволяет так выбрать передаваемые последовательности символов, чтобы они удовлетворяли дополнительным условиям, проверка которых на приемной стороне дает возможность обнаружить и исправить ошибки.
Коды, обладающие таким свойством, называют помехоустойчивыми. Они используются как для исправления ошибок (корректирующие коды), так и для их обнаружения.
У подавляющего большинства существующих в настоящее время помехоустойчивых кодов указанные условия являются следствием их алгебраической структуры. В связи с этим их называют алгебраическими кодами. (В отличие, например, от кодов Вагнера, корректирующее действие которых базируется на оценке вероятности искажения каждого символа.)
Алгебраические коды можно подразделить на два больших класса: блоковыеинепрерывные.
В случае блоковых кодов процедура кодирования заключается в сопоставлении каждой букве сообщения (или последовательности из kсимволов, соответствующей этой букве) блока изnсимволов. В операциях по преобразованию принимают участие только указанныеkсимволов, и выходная последовательность не зависит от других символов в передаваемом сообщении.
Блоковый код называют равномерным, еслиnостается постоянным для всех букв сообщения.
Неравномерныеблоковые коды не употребляются из-за сложности устройств необходимых для их реализации.
При кодировании разделимымикодами выходные последовательности состоят из символов, роль которых может быть отчетливо разграничена. Это информационные символы, совпадающие с символами последовательности, поступающей на вход кодера канала, и избыточные (проверочные) символы, вводимые в исходную последовательность кодером канала и служащие для обнаружения и исправления ошибок.
При кодировании неразделимымикодами разделить символы выходной последовательности на информационные и проверочные невозможно.
Непрерывными(рекуррентными) называют такие коды, в которых введение избыточных символов в кодируемую последовательность информационных символов осуществляется непрерывно, без разделения ее на независимые блоки. Непрерывные коды также могут быть разделимыми и неразделимыми.