- •Часть 1
- •Раздел 1. Элементы общей теории сигналов
- •1.1 Классификация сигналов
- •1.2. Некоторые элементы функционального анализа сигналов
- •1.3 Основы теории ортогональных сигналов
- •Раздел 2. Спектральные представления сигналов
- •2.1. Понятие о спектре периодических и непериодических сигналов
- •2.2 Спектральное представление периодических сигналов
- •2.3 Спектральное представление непериодических сигналов
- •2.4 Теоремы о спектрах
- •2.5 Спектральные представления сигналов с использованием негармонических функций
- •Раздел 3. Сигналы с ограниченным спектром
- •3.1. Некоторые математические модели сигналов с ограниченным спектром
- •3.2 Теорема Котельникова
- •3.3. Узкополосные сигналы
- •3.4. Аналитический сигнал и преобразования Гильберта
- •Раздел 4. Основы корреляционного анализа сигналов
- •4.1. Взаимная спектральная плотность сигналов. Энергетический спектр
- •4.2. Автокорреляционная функция сигналов
- •4.3. Акф дискретного сигнала
- •4.4. Взаимокорреляционная функция двух сигналов
- •Раздел 5. Модулированные сигналы
- •5.1. Сигналы с амплитудной модуляцией
- •5.2 Сигналы с угловой модуляцией
- •5.3. Дискретные формы угловой модуляции
- •5.4 Сигналы с импульсной модуляцией
- •Раздел 6. Основы теории случайных процессов
- •6.1. Случайные процессы. Основные понятия и определения
- •6.2. Характеристики случайных процессов
- •6.3. Моментные функции случайных процессов
- •6.4. Свойства случайных процессов
- •6.5. Функция корреляции двух случайных процессов
- •6.6. Измерение характеристик случайных процессов
- •6.7. Спектральное представление стационарных случайных процессов. Теорема Винера-Хинчина
- •6.8 Типовые модели случайных сигналов
- •6.9 Узкополосные случайные сигналы
- •Раздел 7. Основные элементы цифровой обработки сигналов
- •7.1. Дискретное преобразование Фурье
- •7.2. Быстрое преобразование Фурье
- •Раздел 1.Каналы электросвязи
- •Тема1.1 Общие сведения о каналах электросвязи и их классификация
- •1.2 Математические модели каналов электросвязи
- •1.2.1 Математические модели непрерывных каналов связи
- •1.2.2 Математические модели дискретных каналов связи
- •Раздел 2 Основные положения теории передачи информации
- •2.1 Информационные параметры сообщений и сигналов
- •2.2 Взаимная информация
- •Эффективное кодирование дискретных сообщений
- •Тема 2.4. Информация в непрерывных сигналах
- •Тема 2.5. Пропускная способность канала связи
- •Тема 2.6. Теорема к. Шеннона
- •Тема 2.7. Информация в непрерывных сообщениях. Эпсилон-энтропия
- •Раздел 3. Оптимальный приём дискретных сообщений
- •Тема 3.1. Постановка задачи оптимального приёма дискретных сообщений как статистической задачи. Понятие помехоустойчивости
- •3.2. Элементы теории решений
- •3.3. Критерии качества оптимального приёмника
- •3.4 Алгоритм оптимального приёма при полностью известных сигналах. Когерентный приём
- •3.5 Структурное построение оптимального приёмника
- •3.6 Реализация алгоритма оптимального приёма на основе согласованных фильтров. Свойства согласованного фильтра
- •3.8 Потенциальная помехоустойчивость систем с различными видами манипуляции
- •3.9 Приём сигналов с неопределённой фазой (некогерентный приём)
6.2. Характеристики случайных процессов
Определим в начале основные характеристики случайных величин. Пусть Х – случайная величина, т.е. совокупность всевозможных вещественных чисел x, принимающих случайное значение. Исчерпывающее описание статистических свойств Х можно получить, располагая неслучайной функцией F(x) вещественного аргумента x, которая равна вероятности того, что случайное число из X примет значение, равное или меньшое конкретного х:
(6.1)
Функция F(x)
называется функцией распределения
случайной величины Х. Если Х может
принимать любые значения, то F(x)
является гладкой неубывающей функцией,
значения которой лежат на отрезке
. Имеют место следующие предельные
равенства:
Производная от функции распределения
есть плотность распределения вероятности
(или, короче плотность вероятности)
данной случайной величины.
(6.2)
То есть величина
есть вероятность попадания случайной
величины Х в интервал
.
Для непрерывной случайной величины Х
плотность вероятности р(x)
представляет собой гладкую функцию.
Если же Х – дискретная случайная
величина, принимающая фиксированные
значения
с вероятностями
соответственно,
то для неё плотность вероятности
выражается как сумма дельта-функций.
(6.3)
В обоих случаях плотность вероятности
должна быть неотрицательной:
и удовлетворять условию нормировки:
(6.4)
Рассмотрим теперь плотность вероятности
для случайных процессов. Пусть Х(t)
случайный процесс, заданный ансамблем
реализаций а
- некоторый произвольный момент времени.
Фиксируя величины
,
получаемые в отдельных реализациях,
осуществляем одномерное сечение данного
случайного процесса и наблюдаем случайную
величину
.
Её плотность вероятности
называется одномерной плотностью
вероятности процесса X(t)
в момент времени
.
Информация которую можно извлечь из
одномерной плотности вероятности,
недостаточна для того, чтобы судить о
характере развития реализаций случайного
процесса во времени. Гораздо больше
сведений можно получить, располагая
двумя сечениями случайного процесса в
несовпадающие моменты времени
и
.
Возникающая при таком мысленном
эксперименте двумерная случайная
величина
описывается двумерной плотностью
вероятности
.
Естественным обобщением является
n-мерное сечение случайного
процесса (n>2), приводящее
к n-мерной плотности
вероятности
.
Многомерная плотность вероятности
случайного процесса должна удовлетворять
обычным условиям, налагаемым на плотность
вероятности совокупности случайных
величин. Помимо этого, величина
не должна зависеть от того, в каком
порядке располагаются её аргументы
(условие симметрии).
6.3. Моментные функции случайных процессов
Вполне удовлетворительные для практики, хотя и менее детальные, характеристики случайных процессов можно получить, вычисляя моменты тех случайных величин, которые наблюдаются в сечениях этих процессов. Поскольку в общем случае эти моменты зависят от временных аргументов, они получили название моментных функций.
Для техники наибольшее значение имеют три моментные функции низших порядков, называемые математическим ожиданием, дисперсией и функцией корреляции.
Математическое ожидание – начальный момент I-го порядка:
(6.5)
есть среднее значение процесса X(t) в текущий момент времени t: усреднение проводится по всему ансамблю реализаций процесса.
Дисперсия центральный момент II-го порядка:
(6.6)
позволяет судить о степени разброса мгновенных значений, принимаемых отдельными реализациями в фиксированном сечении t, относительно среднего значения.
Двумерный центральный момент II-го порядка.
(6.7)
называется функцией корреляции случайного
процесса X(t).
Эта моментная функция характеризует
степень статистической связи тех
случайных величин, которые наблюдаются
при
.
Из сравнения формул (6.6) и (6.7) видно, что
при совмещении сечений функция корреляции
численно равна дисперсии:
(6.8)
