Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_TES_123.docx
Скачиваний:
2
Добавлен:
01.04.2025
Размер:
31.93 Mб
Скачать

Частотный метод анализа точности стационарных линейных систем

Часто в практической деятельности требуется оценить точность выхода DX стационарной линейной системы, заданной своей передаточной функцией в установившемся режиме, если на вход подается стационарный случайный процесс (второй частный случай параграфа 4.2 в предположении одномерности линейной системы) [3].

Найдем спектральную плотность выхода системы, подставив соотношение (4.13), определяющее RX(t),в выражение для спектральной плотности (1.63) :

.

Тогда получим

С учетом соотношений преобразования Фурье в окончательном виде можно записать

где Wxx(iw), Wxx(-iw) – частотная функция и сопряженная частотная функция соответственно исходной линейной системы.

Тогда можно найти дисперсию выходной переменной системы по соотношению (1.62) :

. (4.16)

Выражение (4.16) можно преобразовать к интегралу вида

, (4.17)

где ,

.

Интеграл In можно вычислить по соотношению

, (4.18)

где |Gn| - определитель матрицы Гурвица для многочлена mn, вычисляемый на основе матрицы Gn с элементами gm2=a2m-r ; m,r=1,2,…,n; |Сn| - определитель матрицы, полученной из матрицы Gn заменой её первого столбца на b0, b1, …, bn-1. В справочнике [8] приведены аналитические выражения для интегралов Inпри n =1–16, например,

. (4.19)

Для иллюстрации применения частотного метода анализа точности найдем дисперсию выхода динамической системы, описывающейся уравнением

при условии подачи на вход экспоненциально коррелированного стационарного случайного процесса .

Ранее для экспоненциально коррелированного случайного процесса было найдено выражение спектральной плотности в виде .

Тогда

,

где ,

Таким образом, a0=T; a1=Tl+1; a2=l; b0=0; b1= 2K2Dl.

Выполнив элементарные преобразования с учетом соотношений (4.19), найдем окончательное выражение для дисперсии выхода системы

  1. Спектрально – корреляционные характеристики выходного процесса

7 Каналы связи и их математические модели

1.Классификация каналов по разным параметрам – виду передаваемых сообщений, используемой физической среде для передачи сигналов, характеру информационных сигналов, способу организации связи и т.д.

2.Искажение сообщений в каналах – линейные, нелинейные, вызванные действием аддитивных и мультипликативных помех и т.д.

7.1 Модель непрерывного канала с аддитивным гауссовским шумом

7.2 Модель канала с неопределенной фазой и случайной амплитудой

7.3 Канал с межсимвольной интерференцией и аддитивным шумом

7.4 Математические модели дискретных каналов

7.5 Оптические каналы связи. Направленные и ненаправленные каналы

8 Теория передачи и кодирования сообщений

8.1 Информационные характеристики дискретных сообщений

1. Энтропия одиночного сообщения, её свойства.

Энтропия  – математическое ожидание H(x) случайной величины I(x) определенной на ансамбле {Х, р(х)}, т.е.  она  характеризует среднее значение количества информации, приходящееся на один символ.

. (6)

Определим максимальное значение  энтропии  Hmax(x). Воспользуемся методом неопределенного множителя Лагранжа -l для отыскания условного экстремума функции [6]. Находим вспомогательную функцию:

(7)

Представим вспомогательную функцию F в виде:

. (8)

Найдем максимум этой функции

т. к.

.

Как видно из выражения, величина вероятности pi не зависит от i, а это может быть в случае, если все pi равны, т.е. p1 =p2 =…=pm =1/m.

При этом выражение для  энтропии  равновероятных, независимых элементов равно:

. (9)

Найдем  энтропию  системы двух альтернативных событий с вероятностями p1 и p2.  Энтропия  равна

 Свойства   энтропии   сообщений 

1.  Энтропия  есть величина вещественная, ограниченная, не отрицательная, непрерывная на интервале 0 Ј p Ј 1.

2.  Энтропия  максимальна для равновероятных событий.

3.  Энтропия  для детерминированных событий равна нулю.

4.  Энтропия  системы двух альтернативных событий изменяется от 0 до 1.

 Энтропия  численно совпадает со средним количеством информации но принципиально различны, так как:

H(x) – выражает среднюю неопределенность состояния источника и является его объективной характеристикой, она может быть вычислена априорно, т.е. до получения сообщения при наличии статистики сообщений.

I(x) – определяется апостериорно, т.е. после получения сообщения. С получением информации о состоянии системы  энтропия  снижается.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]