- •1.1 Помехи в электронных системах. Характеристики помех.
- •1.2 Свойства эргодичности ссп.
- •1.3 Код с парным количеством единиц.
- •2.1 Помехи. Характеристики помех.
- •1) Источники помех, которые находятся вне системы;
- •2) Источники помех, которые находятся в системе.
- •2.2 Свойства стационарности ссп.
- •2.3 Ошибки и искажения в системах передачи
- •3.1 Структура системы с линейно независимыми сигналами.
- •3.2 Квантование по уровню
- •3.3 Код Хемминга.
- •4.1 Построение неразделимого циклического кода
- •4.2 Энтропия статистически зависимых сообщений
- •4.3 Амплитудная модуляция
- •5.1 Понятие информации. Измерение информации.
- •5.2 Спектр ссп
- •5.3 Условие линейной независимости
- •6.1 Количество информации, ее связь со сложностью структуры источника
- •6.2 Интервал корреляции, суть понятия
- •6.3 Обнаружение двукратных ошибок кодом Хэмминга
- •7.1 Статистический подход к измерению информации
- •7.2 Эффективная ширина спектра стационарного случайного процесса
- •7.3 Построение неразделимого циклического кода
- •8.1 Энтропия дискретных сообщений. Свойства энтропии
- •8.2 Определение количества информации при наличии помех
- •8.3 Код, обнаруживающий пакетную ошибку
- •9.1 Энтропия непрерывных сообщений
- •9.2 Скорость передачи информации
- •9.3 Виды ошибок при передаче и воспроизведении информации
- •10.1 Распределения с максимальной энтропией
- •10.2 Корреляционный критерий дискретизации
- •10.3 Системы с частотным уплотнением
- •11.1 Непрерывные сообщения. Случайный или детерминированный процесс?
- •11.2 Какие характеристики сигналов определяют выбор интервала дискретизации?
- •11.3 Системы с временным уплотнением
- •12.1 Типичные сообщения. Свойства типичных сообщений
- •12.2 Корреляционная функция ссп. Свойства корреляционной функции
- •12.3 От чего зависят корректирующие свойства циклического кода?
- •13.1 Основные характеристики случайных процессов
- •13.2 Пропускная способность канала связи
- •13.3. Уплотнение информации в системах передачи и регистрации информации
- •14.1 Понятие стационарности случайного процесса.
- •14.2 Теорема Котельникова-Шеннона.
- •15.1 Мера Хартли. Свойство аддитивности.
- •15.2 Дискретизація повідомлень.
- •15.3 Условия ортогональности и взаимности.
- •16.1 Шумы и помехи в системах связи. Характеристики шумов и помех.
- •16.2 Функция отсчетов. Её свойства.
- •16.3 Дельта-модуляция.
- •17.1 Энтропия объединения двух случайно зависимых источников.
- •17.2 Восстановительные функции. Требования к ним.
- •17.3 Фазова маніпуляція. Застосування у цифрових системах передачі.
- •18.1 Факторы, определяющие пропускную способность канала связи.
- •18.2 Функция отсчетов. Её свойства.
- •18.3 Условия исправления ошибок циклическим кодом.
- •19.1 Пропускна спроможність неперервного каналу зв”язку
- •19.2 Поняття ефективної ширини спектра свп.
- •19.3 Кратність помилки, кодова відстань, пакетна помилка. Поняття.
- •20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
- •20.2 Мета і завдання кодування
- •20.3 Семантичний підхід до визначення кількості інформації
- •21.1 Критерій найбільшого припустимого відхилення. Загальний підхід.
- •21.2 Пропускна спроможність дискретного каналу без завад.
- •21.3 Обмінні співвідношення у каналах передачі інформації
- •22.1 Оптимальное кодирование. Критерий оптимальности кода
- •22.2 Семантичний підхід до визначення кількості інформації
- •22.3 Построение циклического кода
- •23. 1 Понятие стационарности (ссп).
- •23.2 Условная Энтропия .Понятие.
- •23.3 Оптимальное кодирование. Критерий оптимальности кода
- •24.1 Код Шеннона-Фано.
- •24.2 Свойства корреляционной функции стационарного случайного процесса
- •24.3 Правила построения кода Хеминга
- •25.1 Код Хаффмена
- •25.2 Властивості ентропії
- •25.3 Перетворення сигналів при ущільненні повідомлення.
- •26.1 Кодування блоків повідомлень. Переваги та недоліки
- •26.2 Оцінка похибки відновлення дискретизованих повідомлень
- •26.3 Відносна фазова маніпуляція
20.1 Залежність пропускної спроможності неперервного каналу зв’язку від смуги частот.
Пропускная способность канала связи зависит от полосы частот передаваемого сигнала и отношения сигнала к шуму в канале. Примем, что ширина полосы пропускания канала связи равна величине или, по крайней мере, не меньше , т. е. всегда имеется возможность согласования сообщения и канала по полосе частот. Зависимость пропускной способности от отношения сигнала к шуму, при малых отношениях практически линейна, а при больших отношениях сигнала к шуму переходит в логарифмическую.
(III-18)
Из (Ш-18) следует, что с увеличением полосы частот канала пропускная способность неограниченно возрастает. На самом деле это не так, поскольку с увеличением возрастает мощность шума , в результате чего происходит уменьшение пропускной способности.
20.2 Мета і завдання кодування
Кодирование преследует две основные цели: повысить помехоустойчивость передачи и повысить эффективность передачи, т. е. обеспечить наилучшее согласование скорости передачи с пропускной способностью канала связи. В соответствии с этим кодовые сигналы должны строиться с учетом статистики источника информации, структуры помех в линии связи и параметров канала связи.
Кодирование обеспечивает изменение структуры сигналов и ни в коей мере не должно изменять количества информации, заключенной в первоначальном сообщении.
Элементарные сигналы (символы кода), составляющие кодовую комбинацию, должны различаться по какому-либо одному или нескольким параметрам, называемым часто кодовыми признаками. В качестве кодовых признаков применяются такие параметры, как величина, полярность, время (продолжительность или фаза импульсов), частота заполнения импульса и т. п.
Общее число символов, составляющих кодовую комбинацию, называется значностью, или длиной кода . Количество значений кодовых признаков, используемых в кодовых комбинациях, называется основанием кода .
20.3 Семантичний підхід до визначення кількості інформації
Семантические меры информации оценивают смысл, содержание информации, ее целесообразность и существенность. Содержательность события выражается через функцию меры – содержательности его отрицания , где – содержательность события ; – функция меры, – знак отрицания.
Оценка содержательности базируется на математической логике, в которой логические функции истинности и ложности имеют формальное сходство с вероятностью события и его отрицания: и .
Логическая оценка количества информации имеет внешнее сходство со статистической.
где – логическая оценка количества информации.
Отличие логической оценки в том, что она учитывает меры истинности или ложности событий, а не вероятности их реализаций.
Существенность информации отражает степень важности информации о том или ином значении параметра с учетом времени и пространства .
Полезность информации для решения данной задачи можно оценивать по эффекту, который оказывает полученная информация на решение задачи. Если вероятность достижения цели увеличивается, тo информацию следует считать полезной. Можно также оценивать полезность информации числом попыток, которые совершает получатель информации для достижения цели. При таких оценках информация может быть пустой, если она не изменяет вероятности или числа проб для достижения цели, положительной или отрицательной величиной.
Можно также оценивать ценность сообщений с помощью теории статистических решений. В этом случае во внимание принимается цель, с которой передается сообщение, т. е. учитываются результаты использования сообщений. Для оценки вводятся две характеристики: ценностная энтропия и ценность информации. Под ценностной энтропией, понимают средние потери при определённой выбранной стратегии.