
- •Случайная величина. Числовые характеристики.
- •Быстрое преобразование Фурье: назначение и способы реализации. Графы бпф.
- •Случайные процессы: классификация и примеры. Ансамбль реализаций.
- •Математическое описание случайных процессов. Плотности распределения вероятностей.
- •Дискретное преобразование Фурье.???
- •Количественное оценивание плотностей распределения. Начальные и центральные моменты функции.
- •Дискретные экспоненциальные функции: определение и свойства.
- •Стационарные случайные процессы. Определение стационарности в узком и широком смысле.
- •Теорема Шеннона для дискретных каналов без шумов и с шумами.
- •Корреляционные функции стационарных процессов. Физический смысл и свойства.??????
- •Борьба с помехами. Классификация методов.
- •Спектральные представления случайных процессов. Теорема Виннера-Хинчина.
- •Теория информации. Определения и свойства энтропии.
- •Спектральные плотности мощности: физический смысл и свойства.????
- •Полная и условная энтропия.
- •Белый шум.
- •Цифровые фильтры как частный случай конечных динамических систем. Способы описания. Ких- и бих-фильтры. Сравнительный анализ.
- •Гауссовские случайные процессы.
- •Расчет ких-фильтров во временной области. Метод окон. Окна Хемминга.
- •Пуассоновские случайные процессы и их применения.
- •Теория информации. Общая структура информационных систем.
- •Узкополосные случайные процессы.
- •Энтропия как мера неопределенности. Энтропия по Хартли и Шеннону.
- •Определение по Шеннону
- •Телеграфный сигнал как частный случай случайного процесса.????
- •Коды Хемминга.
- •Теорема Парсевалля применительно к случайным процессам. Пример использования для определения интервала дискретизации.
- •Эргодические случайные процессы. Необходимое и достаточное условие эргодичности.
- •Количественные оценки эргодических случайных процессов.
- •Количество информации: определение и свойства.
- •Экспериментальные исследования случ. Процессов. Определение тренда и скрытой периодичности.
- •Эргодические последовательности. Поток энтропии и поток информации. Связь энтропии с полосой занимаемых частот.
- •Теорема Котельникова: смысл, ограничение и практические приложения.
- •Поток информации и избыточность. Назначение избыточности.
- •Дэф и их свойства.
- •Избыточность информационных потоков и ее практическое использование.
- •Приведение дэф по модулю и свойства приведения для четного и нечетного n.
- •Эффективное кодирование. Коды Шеннона-Фано.
- •Коды Хафмана.
- •Общая задача помехоустойчивого приема. Методы борьбы с помехами.
- •Сжатие графических изображений. Стандарты gpeg и mpeg.
Спектральные плотности мощности: физический смысл и свойства.????
Возможно представление случайных процессов не только во временной, но и в частотной области. Для этого Н. Винер и П. Хинчин применили интеграл Фурье к корреляционным функциям [25]:
|
(1.67) |
Полученная функция Suu() называется спектральной плотностью мощности и определяет распределение мощности случайного процесса по частоте. Эта функция четна и ограничена по частоте (S()=0). Интеграл от спектральной плотности равен мощности сигнала в заданном частотном диапазоне:
|
(1.68) |
|
(1.69) |
Выражение (1.69) определяет полную мощность сигнала.
Поскольку и k(), и S() четны, часто при изображении графиков ограничиваются правой полуплоскостью. На рис.1.11. показаны графики S(), соответствующие корреляционным функциям рис.1.10,a и b.
Из
выражений (1.68) и (1.69) можно определить
практическую ширину спектра случайного
сигнала:
|
(1.70) |
Практически это сводится к вычислению неопределенного интеграла в левой части (1.70) с последующим решением полученного уравнения относительно b .
Полная и условная энтропия.
Полная энтропия, которая может рассматриваться как совместная неопределённость ансамбля из двух независимых источников:
|
(1.91) |
Здесь N и М - количество различных состояний xi и yi .
Предположим вначале, что источники независимы. Тогда на основе формулы произведения вероятностей можно записать:
p(xi,yj)= p(xi)p(xj),
Поскольку
(вероятность
полной группы событий), окончательно
имеем:
H(X,Y)=H(X)+H(Y), |
(1.92) |
то есть, энтропия ансамбля из двух независимых источников равна сумме их энтропий.
Предположим теперь, что источники зависимы. Тогда, согласно формуле Байеса
P(xi,yj)=p(xi) p(yj|xi)= p(yj) p(xi|yj)
|
(1.93) |
В
выражении
(полная группа событий); тогда первый
член представляет энтропию H(x). Во втром
члене сумма
называется
частной
условной энтропией
(неопределённостью состояния yj
относительно совершившегося состояния
xi),
а вся сумма представляет собой
математическое ожидание частных условных
энтропией и называется условной
энтропией:
.
условной энтропии.
Найдем энтропию сложного опыта в том случае, если опыты не являются независимыми, т.е. если на исход оказывает влияние результат опыта . Например, если в ящике всего два разноцветных шара и состоит в извлечении первого, а – второго из них, то полностью снимает неопределенность сложного опыта , т.е. оказывается H( ) = H( ), а не сумме энтропии, как следует из (1.5).
Связь
между
на
могут
оказывать влияние на исходы из
,
т.е. некоторые пары событий Ai
Bj не
являются независимыми. Но тогда в (1.6)
p (Ai
Bj) следует
заменять не произведением вероятностей,
а, согласно:
– вероятность наступления исхода Bj при условии, что в первом опыте имел место исход Ai. Тогда:
При подстановке в (1.6) получаем:
В первом слагаемом индекс j имеется только у B; изменив порядок суммирования, получим члены вида:
Однако,
поскольку
образует достоверное событие (какой-либо из исходов опыта при условии, что в опыте реализовался исход Ai – будем называть ее условной энтропией. Если ввести данное понятие и использовать его обозначение, то второе слагаемое будет иметь вид:
(1.9)
где
есть
средняя условная энтропия опыта
при
условии выполнении опыта
.
Окончательно получаем для энтропии
сложного опыта:
(1.10)
Полученное выражение представляет собой общее правило нахождения энтропии сложного опыта. Совершенно очевидно, что выражение (1.5) является частным случаем (1.10) при условии независимости опытов и .
Относительно условной энтропии можно высказать следующие утверждения:
Условная энтропия является величиной неотрицательной. = 0 только в том случае, если любой исход полностью определяет исход (как в примере с двумя шарами), т.е.
В этом случае H ( ) = H ( ).
Если опыты и независимы, то
, причем это оказывается наибольшим значением условной энтропии. Другими словами, опыт не может повысить неопределенность опыта ; он может либо не оказать никакого влияния (если опыты независимы), либо понизить энтропию .
Приведенные утверждения можно объединить одним неравенством:
(1.11)
т.е. условная энтропия не превосходит
безусловную.
Из соотношений (1.10) и (1.11) следует, что
(1.12)
причем равенство реализуется только в том случае, если опыты и независимы.