- •1. Определение информации. Семиотика и ее составные части. Фазы обращения информации.
- •2. Структура системы связи. Основные задачи каждого блока системы связи.
- •3. Измерение информации. Дискретный источник информации. Мера информации по Хартли и ее свойство
- •4. Измерение информации по Шеннону.
- •5. Свойства информации по Шеннону.
- •6. Энтропия нескольких источников информации.
- •7. Энтропия непрерывного источника. Относительная энтропия.
- •8. Избыточность источника сообщений.
- •9. Взаимосвязь между энтропией и числом сообщений.
- •10. Пропускная способность двоичного канала.
- •11. Согласование характеристик сигнала и канала.
- •Амплитудная модуляция
- •12. Пропускная способность непрерывного канала с помехами.
- •13. Классификация методов преобразования непрерывной информации в дискретную форму.
- •14. Теорема дискретизации Котельникова в.А. И ее особенности.
- •Свойства ряда Котельникова:
- •15. Корреляционный критерий дискретизации.
- •16. Адаптивные методы дискретизации.
- •Нулевая степень воспроизводящей функции
- •Первая степень приближающего многочлена
- •17. Квантование по уровню. Шум квантования.
- •О терминах
- •Основные принципы построения цап с резистивными цепочками Первый вариант
- •19. Ацп поразрядного взвешивания. Ацп поразрядного уравновешивания на конденсаторах
- •Первый шаг
- •Быстродействие
- •20. Устройство выборки - хранения. Принцип действия и схемы увх
- •21. Распределение мощности в спектре периодического сигнала.
- •22. Спектр периодической последовательности прямоугольных импульсов. Пример.
- •23. Спектр одиночного прямоугольного импульса. Пример.
- •24.Теорема Парсеваля о распределении энергии в спектре непериодического сигнала.
- •25. Взаимосвязь между длительностью импульса и шириной его спектра.
- •26. Спектральная плотность мощности случайного процесса.
- •27. Цели кодирования. Эффективное кодирование. Методы эффективного
- •Цели изучения темы «Эффективное кодирование».
- •Задачи эффективного кодирования.
- •28. Техническая реализация кодирующего и декодирующего устройств эффективного кода.
- •29. Теорема Шеннона о пропускной способности канала без помех и
- •30. Теорема Шеннона о пропускной способности канала при наличии помех. Классификация помехоустойчивых кодов.
- •31. Общие принципы использования избыточности в блоковых кодах.
- •32. Групповой код. Математическое введение. Определение количества
- •33. Таблицы опознавателей и проверочные уравнения для различных кодов (7;4); (7;3); (8;2); (9;3).
- •34. Техническая реализация группового кода и его матричная запись.
- •35. Циклический код. Математическое введение. Выбор образующего многочлена по требуемой корректирующей способности кода.
- •36.Методы построения циклического кода.
- •6.4.1. Методом умножения
- •6.4.2. Методом деления
- •6.4.3. По методу группового кода
- •37. Техническая реализация кодирующих устройств циклического кода по методу умножения (примеры).
- •38. Техническая реализация кодирующих устройств циклического кода по методу деления (примеры).
- •39. Техническая реализация кодирующих устройств циклического кода по методу группового кода (примеры).
- •40. Техническая реализация декодирующих устройств циклического кода, исправляющих одиночную ошибку. Пример.
- •41. Техническая реализация декодирующих устройств циклического кода, исправляющего 2-ые смежные ошибки. Пример.
- •42. Рекуррентный код. Кодирующее и декодирующее устройства. Пример.
- •43.Итеративные коды. Код с повторениями.
- •Модифицированный код с повторением
9. Взаимосвязь между энтропией и числом сообщений.
При работе линии связи большое значение имеют статистические закономерности больших последовательностей букв.
Пусть имеет место алфавит из M букв, а источником выдается последовательность из N букв.
Возможное число различных последовательностей – M N. Вероятности появления каждой из них при неравной вероятности букв, из которых они состоят, различны.
Оказывается, что для таких последовательностей можно доказать теорему:
«Как бы ни были малы два числа ε > 0 и δ > 0 при достаточно большом N все последовательности могут быть разбиты на две группы.
Первая группа включает подавляющее число (большинство) таких последовательностей, каждая из которых будет иметь настолько ничтожную вероятность, что даже суммарная вероятность всех таких последовательностей очень мала и при достаточно большом N будет меньше сколь угодно малого числа ε > 0. Эти последовательности называются нетипичными.
Вторая группа (типичные последовательности) при достаточно большом N отличается тем, что вероятности этих последовательностей почти не отличаются друг от друга. Вероятность ( p) появления каждой из них удовлетворяет неравенству:

где
–
энтропия на целую последовательность;
–энтропия на букву;
H – энтропия источника с учетом статистических связей и неравновероятности букв.
Другими словами,
почти достоверно, что
весьма
близко кH,
когда N
– велико – это свойство ассимптотической
равновероятности достаточно длинных
последовательностей (N
> 1000).
Для достаточно длинных последовательностей с весьма малой погрешностью можно ожидать, что
![]()
или
,
откуда
,
а число типичных последовательностей

(точнее это можно записать так:
,
где δ – сколь угодно мало).
Доказательство сложно. Для простейшего случая отсутствия статистических связей теорема является следствием закона больших чисел, который можно изменить так: с вероятностью близкой к 1 в длинной последовательности из N элементов будет N·p1 – элементов первого алфавита, N·p2 – второго и т.д. (частота встречаемости стремится к вероятности при числе испытаний стремящихся к бесконечности). Следовательно, для типичной последовательности вероятность её появления будет равна:
,
откуда

и
.
Типичные последовательности составляют лишь незначительную часть всех возможных последовательностей. Число всех возможных последовательностей длиной в N-букв равно:
.
Число типичных последовательностей:
.
Следовательно,
,
так как
.
Доля нетипичных последовательностей велика.
Решим такую задачу.
Какова вероятность того, что обезьяна путём случайных нажатий на клавиатуре пишушей машинки, имеющей всего 32 клавиши (буквы и пропуск), наберет типичное сообщение длиною N = 20 букв?
Решение
Обезьяна путем случайных нажатий может создать одно из Qе сообщений:
.
Из них имеют смысл только те, что соответствуют языку, т.е. типичным сообщениям.
.
Вероятность того, что случайно набранное сообщение будет типичным равна:
.
Эта вероятность бесконечно мала.
10. Пропускная способность двоичного канала.
Нарисуем схему передачи информации.

Рис. 2.9
Будем передавать по линии связи последовательность двоичных символов, состоящую из нулей и единиц. Помехи в линии связи могут превратить ноль в единицу и наоборот. Представим себе модель двоичной линии связи.

Рис. 2.10
Введены следующие обозначения:
вероятность безошибочной передачи "0" –
,
т.е. вероятность получения "0" на
приёмной стороне, если передавался
"0";
–вероятность
получения единицы на приёмной стороне,
если передавался "0"; аналогично введем
и
;Py(0) и Py(1) – вероятности встречаемости нуля и единицы на передающей стороне;
Pz(0) и Pz(1) – вероятности встречаемости нуля и единицы на приёмной стороне.
Конечно, выполняются условия:

Подсчет пропускной способности линии связи будем вести по формуле:

где Vлс max – максимальная скорость передачи импульсов по данной линии связи;
–максимальное
количество информации, приходящееся в
среднем на один символ.
Vлс max считается по формуле
,
(2.2)
где Δtmin – минимально допустимый интервал времени для передачи по данной линии связи.
Он определяется физическими свойствами линии связи (тонкий или толстый коаксиал; витая пара; оптический канал). Δtmin определяется по формуле Котельникова В.А. (будет рассмотрена в главе 8) по формуле:
,
(2.3)
где Fmax
– максимальная частота, пропускаемая
этим каналом. Она определяется
экспериментально путём подачи на вход
канала сигнала постоянной амплитды и
переменной частоты. Если амплитуда на
выходе канала упадет до
,
то эта частота и принимается за
максимальную (см. рис. 2.11).

Рис. 2.11
зависит
от помех и от вероятностей встречаемости
нулей и единиц на передающей стороне.
.
(2.4)
.
(2.5)

Hапост(Z) – это остаточная неопределенность на приёмной стороне, если известно какой символ со стороны Y передавался.
Pz(0) и Pz(1) – определяют априорную неопределенность на стороне "Z". При этом
;
(2.7)
.
(2.8)
Все необходимые для расчета пропускной способности линии связи формулы приведены.
Рассмотрим три частных случая.
1. Отсутствие
ошибок, т.е.
.
Тогда Pz(0)
= Py(0)
и Pz(1)
= Py(1);
;

То есть в этом случае максимальная пропускная способность линии связи равна максимальной скорости передачи нулей и единиц по этой линии связи при условии, что вероятность передачи нулей и единиц на передающей стороне одинакова, т.е. Py(0) = Py(1) = 1/2.
2. Имеет место
,
т.е. доля ошибок при передаче нулей и
единиц одинакова. Это двоичный симметричный
канал.
Подставив pош в формулу 2.6, имеем:

а формула 2.1 может быть видоизменена

3. При
придётся
воспользоваться всем набором формул
от 2.1 до 2.8. Лучше решать задачу не в общем
виде, а подставлять числовые значения
и
.
Вероятность Py(0),
дающую
,
искать через приравниваниеI
'на 1 символ(Z;
Y)
нулю. Решение уравнения I
'(Z;
Y)
= 0 получить графически, задавая различные
значения Py(0).
