- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
24.1 Код Шеннона-Фано.
При отсутствии статистических связей между символами скорость передачи информации будет максимальна при условии равной вероятности передачи символов 0 и 1. В соответствии с этим построение кода Шеннона-Фано производится методом дихотомий (последовательного деления пополам). Все подлежащие кодированию символы сообщения разбиваются на две группы так, чтобы суммы вероятностей появления элементов сообщений в каждой группе были бы по возможности одинаковы.
В результате такого разбиения как бы образовано новое сообщение, состоящее всего из двух элементов вероятности появления которых примерно одинаковы. Всем символам первой группы приписывается 0 и всем символам второй группы – 1. Каждая из полученных групп затем разбивается на две подгруппы с одинаковыми суммарными вероятностями и т. д. Процесс деления повторяется до тех пор, пока в каждой подгруппе останется по одному символу.
---------
Правило построения кода заключается в следующем:
1.Символы исходного сообщения (буквы) располагаются в порядке убывания их вероятности и разбиваются на две группы так, чтобы суммы вероятностей в группах были примерно одинаковы.
2.В качестве первого символа кода всем буквам, вошедшим в первую группу, приписывается единица, а буквам второй группы —нуль.
3.Каждая из полученных групп вновь разбивается на две подгруппы примерно с одинаковыми вероятностями.
4.Буквам первых подгрупп в качестве следующего символа кода приписывается единица, а к буквам второй подгруппы —нуль и т. д.
Разбиение на подгруппы производится до тех пор, пока в каждой .подгруппе не останется по одной букве.
---------
24.2 Свойства корреляционной функции стационарного случайного процесса
Корреляционная функция устанавливает связь между значением случайного процесса в различные моменты времени. Она определяется как среднее значение произведения значений случайной величины x(t) в моменты времени t1 и t2
1) , тогда и становятся независимыми величинами.
При увеличении (или ) коррел. ф-я стремится к квадрату мат. ожидания случайного процесса. При коррел. ф-я равна мощности постоянной составляющей реализации случайного стационарного процесса.
2) , тогда и - увеличиваются
Корреляционная функция ССП равна среднему значению его квадрата.
При корреляционная функция равна полной средней мощности случайного процесса.
3)
Дисперсия ССП – это разность между средней мощностью процесса и мощностью постоянной составляющей.
4)Корреляционная функция является четной функцией .
5)Коррел. ф-я по абсолют. значению максимальная при .
Так как среднее значение положительной величины (квадрата суммы или разности двух величин) не может быть отрицательным
24.3 Правила построения кода Хеминга
Предназначенный для обнаружения и исправления однократной ошибки. При построении кода каждый из k проверочных символов определяется как результат суммирования по модулю 2 определенного сочетания информационных символов. В результате этого сумма проверяемых информационных и контрольного символа всегда является четной. Количество контрольных символов определяется по формуле: ,де -количество символов в кодовой комбинации. Контрольные символы располагаются на местах определенных по степеням двойки (1, 2, 4, 8, 16…)
В коде Хэмминга проверки на четность организованы таким образом, что получается число, указывающее номер позиции, на которой произошло искажение.
При проверке на четность мы используем номер позиции соответствующие единице находящейся в том разряде, какую проверку мы делаем, то есть если 1проверка, то смотрим единицы по первому разряду, и т.д. например:
Если число единиц на проверочных позициях четное то контрольный символ равен 0, а если число единиц на проверочных позиция не четное, то контрольный символ равен 1. После окончания проверки мы узнаем, на какой позиции находится ошибочный символ, если таковой имеется, по результату проверок, поскольку оно организовано таким образом , что получается число указывающее на номер позиции на которой произошло искажение.