
Вопросы к тестированию по курсу “Моделирование систем”
1 Линейные системы.
Системы управления называют линейными, если выполняются принцип суперпозиции. Если этот принцип несправедлив, то систему называют нелинейной.
Сущность принципа
суперпозиции заключается в том, что
линейной комбинации произвольных
входных сигналов
соответствует
линейная комбинация соответствующих
выходных сигналов:
.
Принцип суперпозиции всегда выполняется, если выполняются следующие два условия:
1) при суммировании любых двух входных сигналов соответствующие выходные сигналы суммируются;
2) при любом увеличении (уменьшении) входного сигнала без изменения его формы выходной сигнал увеличивается (уменьшается) во столько же раз, также не изменяя своей формы.
2. Весовая функция.
Введем функцию
,
которая представляет собой выходной
сигнал системы управления при входном
сигнале в виде
-функции.
Функция
называется
импульсной
переходной характеристикой
системы или весовой
функцией.
3. Свёртка.
Эта
формула называется
интегралом Дюамеля
или интегралом
свертки. Ее
смысл заключается в том, что выходной
сигнал любой линейной системы получается
с помощью взвешивания и последующего
интегрирования входного сигнала
с
весовой функцией
.
4. Тест – сигналы.
5. Переходная функция.
Переходная функция h(t) — в теории управления реакция динамической системы на входное воздействие в виде функции Хевисайда,при нулевых начальных условиях. Зная переходную характеристику, можно определить реакцию системы y(t) на произвольное входное воздействие x(t) с помощью интеграла Дюамеля-Карсона:
,
где
—
свёртка двух функций.
6. Дискретная свёртка.
Для дискретных по времени систем связь выхода и входа определяется дискретной сверткой входа и импульсной характеристики , то есть:
и
где импульсная характеристика системы
-
это ее реакция на единичный импульс
7. Разностное уравнение.
РАЗНОСТНЫЕ УРАВНЕНИЯ [difference equations] — уравнения, содержащие конечные разности искомой функции. (Конечная разность определяется как соотношение, связывающее дискретный набор значений функции y = f(x), соответствующих дискретной последовательности аргументов x1, x2, ..., xn.)
8. Случайные события и величины.
9. Вероятность.
10. Условная вероятность.
11. Плотность и функция распределения.
12. Нормальное распределение.
13. Формула Байеса.
Если стало известно,
что в результате испытания событие
произошло,
то условная вероятность гипотезы
(апостериорная
вероятность гипотезы
)
определяется по формуле Бaйeca:
14. Моменты случайных величин.
15. Дисперсия, корреляционный момент.
16. Случайные процессы и последовательности.
Случа́йный проце́сс (случайная функция) в теории вероятностей — семейство случайных величин, индексированных некоторым параметром, чаще всего играющим роль времени или координаты. Другое определение: Случайным называется процесс u(t), мгновенные значения которого являются случайными величинами.
Пусть дано вероятностное пространство
.
Параметризованное семейство
случайных
величин
,
где T произвольное множество, называется случайной функцией.
17. Стационарные процессы
Случайный процесс
называется стационарным, если все
многомерные законы распределения
зависят только от взаимного расположения
моментов времени
,
но не от самих значений этих величин.
Другими словами, случайный процесс
называется стационарным, если его
вероятностные закономерности неизменны
во времени. В противном случае, он
называется нестационарным.
18. Функция корреляции.
Ряд
задач решается с использованием двумерной
функции распределения. Знание двумерной
плотности распределения вероятности
позволяет вычислить смешанный
второй начальный момент двумерного
закона распределения или функцию
корреляции:
19. Корреляционная матрица.
матрица коэффициентов
корреляции нескольких случайных величин.
Если X1, ..., Х п
- случайные величины с ненулевыми
дисперсиями
то
элементы р, у при
равны
корреляции коэффициентам р( Х i,
Xj), а при i=j равны 1.
Свойства К. м. Р определяются свойствами
ковариационной матрицы, е в силу
соотношения: е= ВРВ, где В -
диагональная матрица с диагональными
элементами s1, ..., sn. А. В.
Прохоров.
20. Многомерное нормальное распределение.
Многоме́рное норма́льное распределе́ние (или многоме́рное га́уссовское распределе́ние) в теории вероятностей — это обобщение одномерного нормального распределения.
Случайный вектор
имеет
многомерное нормальное распределение,
если выполняется одно из следующих
эквивалентных условий:
Произвольная линейная комбинация компонентов вектора
имеет нормальное распределение или является константой.
Существует вектор независимых стандартных нормальных случайных величин
, вещественный вектор
и матрица
размерности
, такие что:
.
Существует вектор
и неотрицательно определённая симметричная матрица
размерности
, такие что характеристическая функция вектора
имеет вид:
.