
- •Е. Д. Агафонов, о. В. Шестернёва Математическое моделирование линейных динамических систем
- •© Сибирский федеральный университет, 2011
- •Оглавление
- •Предисловие
- •Глава 1 Параметрические регрессионные модели
- •1.1. Линейная регрессия
- •1.2. Метод наименьших квадратов. Критерий метода наименьших квадратов
- •1.3. Идентификация линейных по параметрам моделей с использованием метода наименьших квадратов
- •1.4. Линейный метод наименьших квадратов с использованием ортогональных полиномов
- •1.5. Рекуррентный метод наименьших квадратов
- •1.6. Линейная аппроксимация метода наименьших квадратов
- •1.7. Методы максимального правдоподобия и максимума апостериорной вероятности
- •1.8. Метод инструментальных переменных
- •1.9. Реализация метода наименьших квадратов в пакете matlab
- •1.10. Метод стохастической аппроксимации
- •Контрольные задания
- •Глава 2 Непараметрические регрессионные модели
- •2.1. Непараметрическая оценка плотности распределения вероятностей Розенблатта–Парзена
- •2.2. Непараметрическая оценка регрессии Надарая–Ватсона
- •Контрольные задания
- •Глава 3 модели линейных динамических систем
- •3.1. Способы описания линейных динамических систем
- •3.2. Модель динамической системы в виде представления Фурье (модель сигнала)
- •3.3. Частотный метод описания линейных динамических систем
- •3.4. Определение передаточной функции линейных динамических систем на основе спектральных плотностей
- •Контрольные задания
- •Глава 4 непараметрические модели линейных динамических систем
- •4.1. Постановка задачи идентификации линейных динамических систем
- •4.2. Математическое описание и построение непараметрической модели линейных динамических систем
- •4.3. Оптимизация непараметрических моделей линейных динамических систем
- •4.4. Непараметрические модели линейных динамических систем на основе уравнения Винера–Хопфа
- •Контрольные задания
- •Заключение
- •Библиографический список
- •Англо-русский словарь терминов
- •Сходимость статистических оценок
- •660041, Г. Красноярск, пр. Свободный, 79.
- •660041, Г. Красноярск, пр. Свободный, 82а.
Глава 1 Параметрические регрессионные модели
Глава посвящена параметрическим регрессионным моделям. Дается представление о линейной парной и множественной регрессии, приводятся сведения о методе наименьших квадратов (МНК) и вывод критерия наименьших квадратов. Рассматривается линейный метод наименьших квадратов в матричной форме, предлагается вариант МНК с использованием ортогональных полиномов, выводится рекуррентная форма линейного МНК. Далее метод МНК распространяется на нелинейный случай с применением метода линеаризации. Кратко описываются другие методы построения статических моделей – методы максимального правдоподобия и максимума апостериорной вероятности. В заключение представлен адаптивный подход к идентификации, реализованный с использованием метода стохастической аппроксимации.
1.1. Линейная регрессия
Взаимосвязь между
случайными величинами может быть
представлена разными способами. Например,
эту связь можно описать с помощью
различных коэффициентов корреляции
(линейных, частных, корреляционного
отношения
и т. п.). В то же время эту
связь можно выразить и как зависимость
между аргументом (величиной) X
и функцией Y.
В этом случае задача будет состоять в
нахождении зависимости вида
или, напротив, в нахождении зависимости
вида
.
Зависимость между случайными величинами,
выраженная функционально, называется
регрессией.
Графическое выражение регрессионного уравнения называют линией ре- грессии. Линия регрессии выражает наилучшее предсказание зависимой переменной Y по независимым переменным X. Эти независимые переменные, а их может быть много, носят название предикторов.
Регрессию выражают с помощью двух уравнений регрессии, которые в самом простом случае являются линейными:
|
(1.1) |
|
(1.2) |
В уравнении (1.1) Y
– зависимая переменная, Х
– независимая переменная,
– свободный член,
–
коэффициент регрессии, или угловой
коэффициент, определяющий наклон линии
регрессии по отношению к осям координат.
В уравнении (1.2) Х
– зависимая переменная, Y
– независимая переменная,
– свободный член,
– коэффициент регрессии, или угловой
коэффициент, определяющий наклон линии
регрессии по отношению к осям координат
(рис. 1.1).
Рис. 1.1. Линии регрессии Х по Y и Y по X
Линии регрессии
пересекаются в точке
с координатами, соответствующими средним
арифметическим значениям корреляционно
связанных между собой переменных Х
и Y.
Линия АВ,
проходящая через точку О,
соответствует линейной функциональной
зависимости между переменными величинами
Х
и Y,
когда коэффициент корреляции между Х
и Y
равен 1. При этом
наблюдается такая закономерность: чем
сильнее связь между Х
и Y,
тем ближе обе линии регрессии к прямой
АВ,
и, наоборот, чем слабее связь между этими
величинами, тем больше линии регрессии
отклоняются от прямой АВ.
При отсутствии связи между Х
и Y
линии регрессии оказываются под прямым
углом по отношению друг к другу и в этом
случае
.
Количественное
представление связи (зависимости) между
Х
и
Y
(между Y
и X)
называется регрессионным
анализом.
Главная задача регрессионного анализа
заключается в нахождении коэффициентов
,
,
и
.
При этом коэффициенты регрессии
и
показывают, насколько в среднем величина
одной переменной изменяется при изменении
на единицу меры другой.
Коэффициент регрессии в уравнении (1.1) можно подсчитать по формуле
|
(1.3) |
а коэффициент в уравнении (1.2) – по формуле
|
(1.4) |
где
– коэффициент
корреляции между переменными Х
и Y;
– среднеквадратическое отклонение,
подсчитанное для переменной Х:
;
– среднеквадратическое
отклонение, подсчитанное для переменной
Y:
;
N – количество элементов выборки.
Коэффициенты регрессии также можно вычислить без подсчета среднеквадратических отклонений по формулам
|
(1.5) |
|
(1.6) |
В случае если коэффициент корреляции неизвестен, коэффициенты регрессии можно определить по следующим формулам:
|
(1.7) |
|
(1.8) |
Сравнивая формулы
(1.7) и (1.8), мы увидим, что в числителе стоит
одна и та же величина:
.
Последнее говорит
о том, что величины a1,
b1
и
взаимосвязаны. Более того, зная две из
них, всегда можно получить третью.
Например, зная величины a1
и b1,
можно легко получить
:
|
(1.9) |
Формула (1.9) достаточно очевидна, поскольку, умножив коэффициент а1, вычисленный по формуле (1.3), на коэффициент b1, вычисленный по формуле (1.4), получим:
|
Формула (1.9) очень важна, поскольку она позволяет по известным значениям коэффициентов регрессии а1 и b1 определить коэффициент корреляции и, кроме того, проверить правильность расчета коэффициента корреляции. Как и коэффициент корреляции, коэффициенты регрессии характеризуют только линейную связь и при положительной связи имеют знак «плюс», при отрицательной – знак «минус».
Свободные члены а0 и b0 в уравнениях регрессии можно вычислить по следующим формулам:
|
(1.10) |
|
(1.11) |
Зависимость между несколькими переменными величинами выражают уравнением множественной регрессии, которая может быть как линейной, так и нелинейной.