- •В. И. Дмитриев
- •Глава 1 Математические модели сигналов…………………………………………...19
- •Глава 1 математические модели сигналов
- •§ 1.1. Понятия сигнала и его модели
- •§ 1.2. Формы представления детерминированных сигналов
- •§ 1.3. Временная форма представления сигнала
- •§ 1.4. Частотная форма представления сигнала
- •§ 1.5. Соотношения между длительностью импульсов и шириной их спектров
- •§ 1.6. Спектральная плотность мощности детерминированного сигнала
- •§ 1.7. Функция автокорреляции детерминированного сигнала
- •§ 1.8. Случайный процесс как модель сигнала
- •§ 1.9. Стационарные и эргодические случайные процессы
- •§ 1.10. Спектральное представление случайных сигналов
- •§ 1.11. Частотное представление стационарных
- •Глава 2. Преобразование непрерывных сигналов в дискретные
- •§ 2.1. Преимущества цифровой формы представления сигналов
- •§ 2.2. Общая постановка задачи дискретизации
- •Воспроизводящая функция представляется аппроксимирующим полиномом
- •§ 2.3. Способы восстановления непрерывного сигнала
- •§ 2.4. Критерии качества восстановления
- •§ 2.5. Методы дискретизации посредством выборок
- •§ 2.6. Равномерная дискретизация. Теорема котельникова
- •§ 2.7. Теоретические и практические аспекты использования теоремы котельникова
- •§ 2.8. Дискретизация по критерию наибольшего отклонения
- •Оценка снизу для остаточного члена имеет вид
- •§ 2.9. Адаптивная дискретизация
- •Момент очередного отсчета определяется выполнением равенства
- •§ 2.10. Квантование сигналов
- •§ 2.11. Квантование сигналов при наличии помех
- •§ 2.12. Геометрическая форма представления сигналов
- •Контрольные вопросы
- •Глава 3. Количественная оценка информации
- •§ 3.1. Энтропия как мера неопределенности выбора
- •§ 3.2 Свойства энтропии
- •§ 3.3. Условная энтропия и ее свойства
- •§ 3.4. Энтропия непрерывного источника информации (дифференциальная энтропия)
- •§ 3.5. Свойства дифференциальной энтропии
- •§ 3.6. Количество информации как мера снятой неопределенности
- •§ 3.7. Эпсилон-энтропия случайной величины
- •Контрольные вопросы
- •Глава 4. Информационные характеристики источника сообщений и канала связи
- •§ 4.1. Основные понятия и определения
- •§ 4.2. Информационные характеристики источника дискретных сообщений
- •§ 4.3 Информационные характеристики дискретных каналов связи
- •§ 4.4. Информационные характеристики источника непрерывных сообщений
- •§ 4.5. Информационные характеристики непрерывных каналов связи
- •§ 4.6. Согласование физических характеристик сигнала и канала
- •§ 4.7. Согласование статистических свойств источника сообщений и канала связи
- •Глава 5. Кодирование информации при передаче по дискретному каналу без помех
- •§ 5.1. Кодирование как процесс выражения информации в цифровом виде
- •111 100 101
- •§ 5.2. Технические средства представления информации в цифровой форме
- •§ 5.3. Кодирование как средство криптографического закрытия информации
- •§ 5.4. Эффективное кодирование
- •§ 5.5. Технические средства кодирования
- •Глава 6. Кодирование информации при передаче
- •§ 6.1. Основная теорема шеннона о кодировании
- •§ 6.2. Разновидности помехоустойчивых кодов
- •§ 6.3. Блоковые коды
- •§ 6.4. Построение двоичного группового кода
- •0...01001, 0...01010, 0...01100.
- •§ 6.5. Технические средства кодирования и декодирования для групповых кодов
- •§ 6.6. Построение циклических кодов
- •§ 6.7. Выбор образующего многочлена по заданному объему кода и заданной корректирующей способности
- •§ 6.8 Технические средства кодирования и декодирования для циклических кодов
- •Остатки Векторы ошибок Опознаватели
- •Остатки Векторы ошибок Остатки
- •§ 6.9. Коды боуза — чоудхури — хоквингема
- •§ 6.10. Итеративные коды
- •Число ошибок такого вида в4 для блока изlхn символов равно
- •§ 6.11 Сверточные коды
- •Контрольные вопросы
- •Заключение
- •Список литературы
- •Приложения
§ 1.7. Функция автокорреляции детерминированного сигнала
Теперь в частотной области имеется две характеристики: спектральная характеристика и спектральная плотность мощности. Спектральной характеристике, содержащей полную информацию о сигнале u(t), соответствует преобразование Фурье в виде временной функции. Выясним, чему соответствует во временной области спектральная плотность мощности, лишенная фазовой информации.
Следует предположить, что одной и той же спектральной плотности мощности соответствует множество временных функций, различающихся фазами. Советским ученым Л. Я. Хинчиным и американским ученым Н. Винером практически одновременно было найдено обратное преобразование Фурье от спектральной плотности мощности:
где
Обобщенную временную функцию r(), не содержащую фазовой информации, назовем временной автокорреляционной функцией. Она показывает степень связи значений функции u(t), разделенных интервалом времени , и может быть получена из статистической теории путем развития понятия коэффициента корреляции. Отметим, что во временной функции корреляции усреднение проводится по времени в пределах одной реализации достаточно большой продолжительности.
Справедливо и второе интегральное соотношение для пары преобразования Фурье:
Пример 1.6. Определить временную функцию· автокорреляции гармонического сигнала u(t) = u0 cos(t-φ). В соответствии с (1.64)
Проведя несложные преобразования
окончательно имеем
Как и следовало ожидать, ru() не зависит от φ и, следовательно, (1.66) справедливо для целого множества гармоник, различающихся фазами.
§ 1.8. Случайный процесс как модель сигнала
Рассмотренные математические модели детерминированных сигналов являлись известными функциями времени. Их использование позволяет успешно решать задачи, связанные с определением реакций конкретных систем на заданные входные сигналы. Случайные составляющие, всегда имеющие место в реальном входном сигнале, считают при этом пренебрежимо малыми и не принимают во внимание.
Однако единственная точно определенная во времени функция не может служить математической моделью сигнала при передаче и преобразовании информации. Поскольку получение информации связано с устранением априорной неопределенности исходных состояний, однозначная функция времени только тогда будет нести информацию, когда она с определенной вероятностью выбрана из множества возможных функций. Поэтому в качестве моделей сигнала используется случайный процесс. Каждая выбранная детерминированная функция рассматривается как реализация этого случайного процесса.
Необходимость применения статистических методов исследования диктуется и тем, что в большинстве практически важных случаев пренебрежение воздействием помехи в процессах передачи и преобразования информации недопустимо. Считается, что воздействие помехи на полезный сигнал проявляется в непредсказуемых искажениях его формы. Математическая модель помехи представляется также в виде случайного процесса, характеризующегося параметрами, определенными на основе экспериментального исследования. Вероятностные свойства помехи, как правило, отличны от свойств полезного сигнала, что и лежит в основе методов их разделения.
Учитывая, что все фундаментальные выводы теории информации базируются на указанном статистическом подходе при описании сигналов (и помех), уточним основные характеристики случайного процесса как модели сигнала.
Под случайным (стохастическим) процессом подразумевают такую случайную функцию времени U(t), значения которой в каждый момент времени случайны. Конкретный вид случайного процесса, зарегистрированный в определенном опыте, называют реализацией случайного процесса. Точно предсказать, какой будет реализация в очередном опыте, принципиально невозможно. Могут быть определены лишь статистические данные, характеризующие все множество возможных реализаций, называемое ансамблем. Ценность таких моделей сигналов в том, что появляется возможность судить о поведении информационной системы не по отношению к конкретной реализации, а по отношению ко всему ансамблю возможных реализаций.
Основными признаками, по которым классифицируются случайные процессы, являются: пространство состояний, временной параметр и статистические зависимости между случайными величинами U(ti) в разные моменты времени ti.
Пространством состояний называют множество возможных значений случайной величины U(ti). Случайный процесс, у которого множество состояний составляет континуум, а изменения состояний возможны в любые моменты времени, называют непрерывным случайным процессом. Если же изменения состояний допускаются лишь в конечном или счетном числе моментов времени, то говорят о непрерывной случайной последовательности.
Случайный процесс с конечным множеством состояний, которые могут изменяться в произвольные моменты времени, называют дискретным случайным процессом. Если же изменения состояний возможны только в конечном или счетном числе моментов времени, то говорят о дискретных случайных последовательностях.
Примеры реализаций указанных случайных процессов представлены на рис. 1.1.
Так как в современных информационных системах предпочтение отдается цифровым методам передачи и преобразования информации, то непрерывные сигналы с датчиков, как правило, преобразуются в дискретные, описываемые дискретными случайными последовательностями. Вопросы такого преобразования рассмотрены в гл. 2.
Среди случайных процессов с дискретным множеством состояний нас будут интересовать такие, у которых статистические зависимости распространяются на ограниченное число k следующих друг за другом значений. Они называются обобщенными марковскими процессами k-го порядка.
Вероятностные характеристики случайного процесса. В соответствии с определением случайный процесс U(t) может быть описан системой N обычно зависимых случайных величин U1 = U(t1), ..., Ui= U(ti), ..., UN = U(tN), взятых в различные моменты времени t1...ti...tN. При неограниченном увеличении числа N такая система эквивалентна рассматриваемому случайному процессу U(t).
Исчерпывающей характеристикой указанной системы является N-мерная плотность вероятности pN(U1, ..., Ui, ..., UN; t1, ..., tN). Она позволяет вычислить вероятность РN реализации, значения которой в моменты времени t1,t2, ...,tN будут находиться соответственно в интервалах (u1, u1+Δu1), ..., (ui, ui+ ui), ..., (uN, uN + uN), где ui(1) —значение, принимаемое случайной величинойUi, (рис. 1.12).
Если Δui, выбраны достаточно малыми, то справедливо соотношение
Получение N-мерной плотности вероятности на основе эксперимента предполагает статистическую обработку реализаций, полученных одновременно от большого числа идентичных источников данного случайного процесса. При больших N это является чрезвычайно трудоемким и дорогостоящим делом, а последующее использование результатов наталкивается на существенные математические трудности.
На практике в таком подробном описании нет необходимости. Обычно ограничиваются одно- или двумерной плотностью вероятности.
Одномерная плотность вероятности p1(U1; t1) случайного процесса U(t) характеризует распределение одной случайной величины U1, взятой в произвольный момент времени t1. В ней не находит отражения зависимость случайных величин в различные моменты времени.
Двумерная плотность вероятности p2 = p2(U1, U2; t1, t2) позволяет определить вероятность совместной реализации любых двух значений случайных величин U1 и U2 в произвольные моменты времени t1 и t2 и, следовательно, оценить динамику развития процесса. Одномерную плотность вероятности случайного процесса U(t) можно получить из двумерной плотности, воспользовавшись соотношением
Использование плотности вероятности даже низших порядков в практических приложениях часто приводит к неоправданным усложнениям. В большинстве случаев оказывается достаточно знания простейших характеристик случайного процесса, аналогичных числовым характеристикам случайных величин. Наиболее распространенными из них являются моментные функции первых двух порядков: математическое ожидание и дисперсия, а также корреляционная функция.
Математическим ожиданием случайного процесса U(t) называют неслучайную функцию времени mu(t1), которая при любом аргументе t1 равна среднему значению случайной величины U(t\) по всему множеству возможных реализаций:
Степень разброса случайных значений процесса U(t1) от своего среднего значения mu(t1) для каждого t1 характеризуется дисперсией Du(t1):
где (t1) = U(t1) — mu(t1) — центрированная случайная величина.
Дисперсия Du(t1) в каждый момент времени t1 равна квадрату среднеквадратического отклонения u(t1):
Случайные процессы могут иметь одинаковые математические ожидания и дисперсии (рис. 1.13, а, б), однако резко различаться по быстроте изменений своих значений во времени.
Для оценки степени статистической зависимости мгновенных значений процессаU(t) в произвольные моменты времени t1 и t2 используется неслучайная функция аргументов Ru(t1,t2), называемая автокорреляционной или просто корреляционной функцией.
При конкретных аргументах t1 и t2 она равна корреляционному моменту значений процесса U(t1) и U(t2):
Через двумерную плотность вероятности выражение (1.71) представляется в виде
В силу симметричности этой формулы относительно аргументов справедливо равенство
Для сравнения различных случайных процессов вместо корреляционной функции удобно пользоваться нормированной функцией автокорреляции:
Из сравнения (1.69) и (1.70) следует, что при произвольном t1 = t2 автокорреляционная функция вырождается в дисперсию:
а нормированная функция автокорреляции равна единице:
Следовательно, дисперсию случайного процесса можно рассматривать как частное значение автокорреляционной функции.
Аналогично устанавливается мера связи между двумя случайными процессами U(t) и V(t). Она называется функцией взаимной корреляции: