- •Оглавление
- •1) Исследователь вносит гипотезу о структуре ящика
- •2) Определение неизвестных коэффициентов a0 и a1 модели
- •3) Проверка
- •Линейная множественная модель
- •Звено первого порядка
- •Звено второго порядка (колебательное звено)
- •1. Линейный коэффициент корреляции
- •3. Коэффициент корреляции двух динамических рядов
- •4. Корреляция внутри динамического ряда
- •5. Поиск периодичности ряда
- •7. Связь двух признаков
- •Аналитический способ решения задачи 1
- •Численный способ решения задачи 1
- •Формально-математический способ
- •Методы Рунге-Кутты третьего и четвертого порядков
- •Метод Эйлера с итерациями
- •Метод Милна
- •Уравнение диффузии
- •Уравнение тепломассопереноса
- •Задача анализа (прямая задача)
- •Задача синтеза (обратная задача)
- •Тренажеры
- •Метод Монте-Карло
- •Моделирование случайного события
- •Моделирование полной группы несовместных событий
- •Метод ступенчатой аппроксимации
- •Метод усечения
- •Метод взятия обратной функции
- •Свойства нормального распределения
- •Табличный метод генерации нормально распределенных чисел
- •Метод генерации нормально распределенных чисел, использующий центральную предельную теорему
- •Метод Мюллера
- •Биномиальное распределение
- •Нормальное распределение
- •Распределение Пуассона
- •Пуассоновский поток
- •Моделирование неординарных потоков событий
- •Моделирование нестационарных потоков событий
- •Анализ временной диаграммы
- •Синтез смо
- •Принцип Δt
- •Особенности реализации принципа Δt
- •Принцип особых состояний
- •Принцип последовательной проводки заявок
- •Объектный принцип моделирования
- •Марковский процесс с дискретным временем
- •Марковские случайные процессы с непрерывным временем
- •Вычисление средних
- •Вычисление геометрии распределения
- •Оценка (по Колмогорову) совпадения эмпирического закона распределения с теоретическим
- •Оценка точности статических характеристик
- •Голосование
- •Ранжирование
- •Точность и доверие к результатам экспертизы. Оценка экспертов
- •Практика № 01. Регрессионные модели
- •1Решение задачи регрессионного анализа
1) Исследователь вносит гипотезу о структуре ящика
Рассматривая экспериментально полученные данные, предположим, что они подчиняются линейной гипотезе, то есть выход Y зависит от входа X линейно, то есть гипотеза имеет вид: Y = A1X + A0 (рис. 2.2).
2) Определение неизвестных коэффициентов a0 и a1 модели
Линейная одномерная модель (рис. 2.3).
|
||
Рис. 2.3. Одномерная модель черного ящика |
Для каждой из n снятых экспериментально точек вычислим ошибку (Ei) между экспериментальным значением (YiЭксп.) и теоретическим значением (YiТеор.), лежащим на гипотетической прямой A1X + A0 (см. рис. 2.2):
Ei = (YiЭксп. – YiТеор.), i = 1, …, n;
Ei = Yi – A0 – A1 · Xi, i = 1, …, n.
Ошибки Ei для всех n точек следует сложить. Чтобы положительные ошибки не компенсировали в сумме отрицательные, каждую из ошибок возводят в квадрат и складывают их значения в суммарную ошибку F уже одного знака:
Ei2 = (Yi – A0 – A1 · Xi)2, i = 1, …, n.
Цель метода — минимизация суммарной ошибки F за счет подбора коэффициентов A0, A1. Другими словами, это означает, что необходимо найти такие коэффициенты A0, A1 линейной функции Y = A1X + A0, чтобы ее график проходил как можно ближе одновременно ко всем экспериментальным точкам. Поэтому данный метод называется методом наименьших квадратов.
Суммарная ошибка F является функцией двух переменных A0 и A1, то есть F(A0, A1), меняя которые, можно влиять на величину суммарной ошибки (см. рис. 2.4).
|
||
Рис. 2.4. Примерный вид функции ошибки |
Чтобы суммарную ошибку минимизировать, найдем частные производные от функции F по каждой переменной и приравняем их к нулю (условие экстремума):
После раскрытия скобок получим систему из двух линейных уравнений:
Для нахождения коэффициентов A0 и A1 методом Крамера представим систему в матричной форме:
Решение имеет вид:
Вычисляем значения A0 и A1.
3) Проверка
Чтобы определить, принимается гипотеза или нет, нужно, во-первых, рассчитать ошибку между точками заданной экспериментальной и полученной теоретической зависимости и суммарную ошибку:
Ei = (YiЭксп. – YiТеор.), i = 1, …, n
И, во-вторых, необходимо найти значение σ по формуле , где F — суммарная ошибка, n — общее число экспериментальных точек.
Если в полосу, ограниченную линиями YТеор. – S и YТеор. + S (рис. 2.5), попадает 68.26% и более экспериментальных точек YiЭксп., то выдвинутая нами гипотеза принимается. В противном случае выбирают более сложную гипотезу или проверяют исходные данные. Если требуется большая уверенность в результате, то используют дополнительное условие: в полосу, ограниченную линиями YТеор. – 2S и YТеор. + 2S, должны попасть 95.44% и более экспериментальных точек YiЭксп..
|
||
Рис. 2.5. Исследование допустимости принятия гипотезы |
Расстояние S связано с σ следующим соотношением:
S = σ/sin(β) = σ/sin(90° – arctg(A1)) = σ/cos(arctg(A1)),
что проиллюстрировано на рис. 2.6.
|
||
Рис. 2.6. Связь значений σ и S |
Условие принятия гипотезы выведено из нормального закона распределения случайных ошибок (см. рис. 2.7). P — вероятность распределения нормальной ошибки.
|
||
Рис. 2.7. Иллюстрация закона нормального распределения ошибок |
Наконец, приведем на рис. 2.8 графическую схему реализации одномерной линейной регрессионной модели.
|
||
Рис. 2.8. Схема реализации метода наименьших квадратов в среде моделирования |
Практика № 01: «Регрессионные модели»
Лабораторная работа № 01: «Линейные регрессионные модели»