
- •Введение
- •1 Лекция 1. Сигнал, информация и сообщение.
- •1.1 Сообщение как случайный процесс
- •1.2. Формы представления детерминированных сигналов.
- •1.2.1. Временная форма
- •1.3 Мера Хартли. Количественная оценка информации
- •2 Лекция 2. Дискретный канал без помех
- •2.1. Понятие информации
- •2.2 Дискретный канал передачи информации без помех
- •2.3 Пропускная способность канала
- •2.4 Теоремы для пропускной способности канала без помех
- •2.5 Математическая модель дискретного канала без помех
- •3 Лекция 3. Дискретный канал с помехами
- •3.1 Понятие помехи
- •3.2. Виды помех
- •4 Лекция 4. Дискретный канал передачи информации с помехами
- •4.1 Дискретный канал передачи информации с помехами
- •4.2 Пропускная способность канала с помехами
- •4.3 Теоремы для пропускной способности канала с помехами
- •4.4 Математическая модель дискретного канала с помехами
- •5 Лекция 5. Принципы дискретизации и восстановление информации
- •5.1 Представление информации в непрерывном виде
- •5.2 Принципы дискретизации и восстановление информации
- •5.3 Критерии качества восстановления.
- •6 Лекция 6. Непрерывный канал
- •6.1 Разложение непрерывного сигнала в ортогональные ряды
- •6.2 Ряды Фурье и их применение в технике связи
- •6.3 Теорема Котельникова (Основная теорема Шеннона)
- •6.4 Пропускная способность непрерывного канала (без помех и с помехами)
- •6.5 Модель нкс
- •7 Лекция 7. Методы формирования и преобразования сигналов в системах связи
- •7.1 Методы модуляции носителей информации
- •7.2 Модуляция гармонического сигнала (несущей частоты)
- •7.3 Амплитудная (ам), частотная(чм), фазовая(фм) модуляции
- •7.3.2 Частотная модуляция
- •8 Лекция 8. Фазовая модуляция.
- •8.1 Фазовая модуляция
- •8.2 Временное, спектральное и векторное представление сигналов
- •8.3 Ширина полосы частот и различие в спектрах чм и фм сигналов
- •9 Лекция 9. Импульсная модуляция.
- •9.2 Методы дискретной модуляции.
- •10.2 Избыточность сообщений
- •10.3 Теорема об эффективном кодировании.
- •11 Лекция 11. Помехоустойчивые корректирующие коды.
- •11.1. Общие сведения.
- •11.2 Блоковые коды
- •11.2.1. Общие принципы использования избыточности
- •11.2.2 Связь корректирующей способности кода с кодовым расстоянием.
- •12 Лекция 12. Коды обнаруживающие ошибки.
- •12.1 Коды обнаруживающие ошибки.
- •12.2 Математическое введение к групповым кодам
- •12.3 Построение двоичного группового кода
- •12.3.1 Определение числа избыточных символов.
- •13 Лекция 13. Помехоустойчивые корректирующие коды.
- •13.1 Составление таблиц опознавателей.
- •13.2 Определение проверочных равенств.
- •13.3 Коды Хэмминга.
- •13.4 Коды Рида-Соломона.
- •13.5 Код Голея.
- •13.6 Непрерывные коды.
- •14 Лекция 14. Циклические коды.
- •14.1 Циклические коды
- •14.2 Выбор образующего многочлена по заданному объему кода и заданной корректирующей способности.
- •15 Лекция 15. Методы построения циклических кодов.
- •15.1 Методы построения циклических кодов.
- •15.2 Декодирование цк.
- •16 Лекция 16. Теория помехоустойчивых систем
- •16 Теория помехоустойчивых систем
- •16.1 Критерии оптимального приёма сообщений
- •16.2 Синтез алгоритмов и схем оптимальных приёмников, корреляционный приёмник, приёмник с согласованным фильтром
- •17 Лекция 17. Приёмник с согласованным фильтром
- •17.1 Приёмник с согласованным фильтром (продолжение)
- •17.2 Анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов
- •18 Лекция 18. Различные методы приема сигналов
- •18.1 Фазоманипулированные сигналы
- •18.2 Сигналы с относительной фазовой манипуляцией
- •1 9 Лекция 19. Многоканальная связь
- •19. Многоканальная связь
- •19.1 Методы частотного, временного и фазового разделения сигналов
- •20 Лекция 20. Методы многоканальной связи
- •20.1 Разделение сигналов по форме
- •20.2 Комбинационное разделение
- •20.3 Цифровые методы передачи непрерывных сообщений
- •20.4 Аналого-цифровые и цифро-аналоговые преобразователи
- •21 Лекция 21. Цифровые методы модуляции
- •21.1 Дискретизация по времени и квантования
- •21.2 Импульсная - кодовая модуляция (икм)-модуляция, дифференциальная икм
- •21.3 Структура кадров икм-30
- •Содержание
1 Лекция 1. Сигнал, информация и сообщение.
Цель лекции: ознакомление с основными понятиями информации, сообщении, сигналов и энтропией информации.
Содержание:
а) сообщение как случайный процесс;
б) формы представления детерминированных сигналов;
в) мера Хартли. Количественная оценка информации;
г) энтропия как мера неопределенности выбора;
д) связь энтропии Шеннона с энтропией Больцмана.
1.1 Сообщение как случайный процесс
Главное отличие случайных сигналов от детерминированных состоит в том, что после наблюдения их на конечном отрезке времени tн нельзя предсказать их будущее. Все случайные сигналы являются непредсказуемыми. Таким образом, для случайных сигналов нельзя подобрать математическую формулу, по которому можно было бы рассчитать их мгновенные значения. Изменением основных закономерностей случайных сигналов занимается теория вероятностей, нахождение таких характеристик случайных явлений, которые были бы неслучайными и позволяли проводить математические расчеты случайных явлений. Исследование осуществляется статистическими методами.
Случайный
процесс
Х(t)-
это такая функция времени t,
значение которой при любом фиксированном
значении аргумента t
является случайной величиной. Из этого
определения следует, что если будет
производиться наблюдение изменения во
времени любой случайной величины Х, то
это уже будет случайный процесс Х(t).
Гармонический сигнал
,у
которого хотя бы один из параметров
-случайная
величина, также является случайным
процессом.
Пусть ξ(t) есть случайный процесс. В некоторый фиксированный момент времени t1 различные реализации процесса будут иметь различные значения ξ1(t1), ξ2(t1),…, ξn(t1). Значение ξ(t1) является случайной величиной.
Одномерная плотность вероятности случайного процесса {ξk(t)} для
t=
t1:
.
(1.1)
Двумерная плотность вероятности случайного процесса:
.
(1.2)
Произведение
выражает
вероятность того, что в момент времени
t1
функция
ξ(t)
находится
в интервале между х1
и
,
а в момент времени t2
-
в интервале между х2
и
.
Аналогично определяются трехмерный,
четырехмерный и т.д. законы распределения.
Наиболее полной характеристикой
случайного процесса является n
–
мерный закон распределения, т.е.
распределение значения ξ(t)
для n
произвольно
выбранных моментов времени.
.
(1.3)
1.2. Формы представления детерминированных сигналов.
1.2.1. Временная форма
В зависимости от структуры информационных параметров, сигналы могут быть:
- непрерывные (аналоговые)
- дискретные
- дискретные-непрерывные
.
1.3 Мера Хартли. Количественная оценка информации
Энтропия как мера неопределенности выбора
Дискретный источник – в некоторый момент времени случайным образом может принять одно из конечного множества возможных состояний U1,…,Un, т.к. одни состояния могут быть чаще, а другие реже, то информация характеризуется ансамблем U, т.е. полной совокупностью:
причем
(1.4)
Необходимо ввести меру выбора.
Условия ввода меры:
1) монотонность возрастания с увеличением возможностей выбора
можно было бы взять число состояний. – Нельзя! т.к. при N=1 выбора нет. - не удовлетворяет требованиям аддитивности.
2) аддитивность: информация содержащаяся в 2-х источниках должна быть равна сумме информации в каждом из них: I=I1+I2 ,
с другой стороны: I=f(MN) т.е. f(MN) = f(M) + f(N).
Эти условия можно выполнить, если
Логарифмическая мера информации была предложена американским ученым Хартли в 1928 г. Если основание log=log2, то имеем единицу информации – бит (binary digit).
К сожалению, мера Хартли не учитывает вероятностные характеристики информации. Допустим: - источник p1=1, p2=0
- источник p1=p2=0,5
В 1-ом случае нет - вероятности и исход – заранее известен. т.о. получение сообщения от 1-го источника информации не прибавляет.
Во 2-ом случае – исход заранее неизвестен. Поэтому информация полученная от 2-го источника max, т.е. вероятностная мера информации должна удовлетворять следующим условиям:
- быть непрерывной функцией вероятности состояния источника p1, p2,…, pN (pi=1);
- max ее (меры) значения должен достигаться при равенстве вероятностей;
- мера информации должна зависеть только от функции распределения СВ и не зависеть от ее конкретных значений.
Вероятностная мера информации как мера неограниченности выбора состояния из ансамбля была предложена Клодом Шенноном:
-
энтропия (1.5)
В данной системе с=1 , тогда:
(
1.6)
1.4
Связь энтропии Шеннона с энтропией
Больцмана.
Рассмотрим взаимосвязь меры Шеннона с мерой Хартли. Если в ИС имеется N состояний и они p вероятны, то
.
(1.7)
В случае разности вероятностных состояний информация по Шеннону < информации по Хартли. Так для двух равновероятных событий по Хартли:
I=log 2 = 1 бит.
по Шеннону: H=-(p1log2p1+p2log p2) H=1 бит Max достигается при p1=p2=0,5
Рис 1.1.