- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
17.1 Энтропия объединения двух случайно зависимых источников.
Для определения информативности сообщений объединения двух источников, используем совместную вероятность p(xi,,yj).
Энтропия объединения двух источников определим суммированием слагаемых вида:
В результате чего получим выражение:
Найдем
Покажем, что первак сумма являет собой энтропию сообщения Х.
И выполнив суммирование по j, с учетом, что
получим результат
Энтропия объединения равняется сумне двух энтропий: безусловной энтропии сообщения H(X) и условной энтропии
Таким образом, условная энтропия характеризует ту дополнительную информацию, которую дают сообщения Y при условии, что известны сообщения Х.
Легко показать, что
1) Если сообщения полностью независимы, то, как следует из рассмотрения свойств условной энтропии,
2) В случае жесткой статистической зависимости
17.2 Восстановительные функции. Требования к ним.
Задачи восстановления дискретных сообщений, во многих случаях похожи с задачами интерполирования функции. В случае восстановления начального сообщения формируется некоторый многочлен x’(t), который называется восстановительным, значения которого совпадают со значениями в точках отсчетов t = kΔt.
Как функции f(t – kΔt), который называют базисными, могут бать использованы такие: ряд Котельникова, ряд Фурье… Восстановление непрерывного сообщения может осуществляться интерполяционным, экстраполяционным либо комбинированным методом. Интерполяционные методы обеспечивают построение восстановительного многочлена в точках ,который лежат между отсчетными точками, в которых определено значение x(kΔt).
Экстраполяционные методы позволяют восстановить сообщения в точках, которые лежат за пределами интервала, который содержит известные значения x(kΔt).
Екстраполяційні методи дозволяють відновити повідомлення в точках, які лежать за межами інтервалу, що містить відомі значення x(kΔt).
Использование интерполяционных методов требует задержки сигнала на время, равное інтервалу интерполяции. В то же время интерполяционные методы требу ют меньшей избыточности отсчетов в сравнении с экстраполяционными при одинаковой точности.
Кмобинированные методы используют лучшие качестве обоих методов.
Главное требование к восстановительной функции – обеспечить допустимую точность восстановления!
Оценку точности восстановления непрерывного сообщения проводять на основе разных критериев.Текущую погрешность восстановления сообщения ε(t) определяют разностью Оценку погрешности можна определить для отдельных реализаций сигнала или усереднить по множеству реализаций.
Критерий найбольшего отклонения на интервале дискретизации t Δti.
Этот критерий обычно используют, если известны априорные даные о сигнале (например, его производные).
Среднеквадратический критерий, определяют выражением:
Средний квадрат погрешностии ε2 определяют усреднением по множеству реализаций.
Интегральный критерий, как мера отклонения восстановленого сообщения от изначального, имеет вид