
- •44. Фракталы, определение и примеры
- •43. Моделирование и подобие. Получение критериев подобия с помощью метода интегральных аналогов (пример с уравнением Навье-Стокса)
- •42. Моделирование и подобие; динамические аналогии; критерии подобия. Пи-теорема.
- •Компьютерные модели в автоматизированном управлении
- •40. Прямой метод Ляпунова
- •39. Подход к оценке устойчивости по линеаризованным уравнениям.
- •38. Определение устойчивости, устойчивость по Ляпунову
- •37. Инвариантность систем.
- •36. Управляемость и наблюдаемость
- •35.Представление в пространстве состояний и модель «вход-выход»
- •34. Единый подход к линеаризации.
- •33. Общая схема нечеткого вывода.
- •32. Нечеткое представление информации; типовые функции принадлежности, мера нечеткости.
- •31. Факторный анализ
- •30. Метод главных компонент
- •1.Среднее арифметическое переменных
- •7. Считаем дискриминантные функции
- •24. Непараметрическая статистика Манна-Уитни.
- •23. Составление статистических оценок ; анализ наиболее часто используемых законов распределения.
- •22. Составление статистической оценки на основе распределения Колмогорова – Смирнова.
- •21. Составление статистической оценки на основе распределения Фишера.
- •20. Составление статистических оценок ; анализ наиболее часто используемых законов распределения.
- •19. Общий подход к составлению статистических оценок
- •18. Проблема оценки адекватности моделей
- •17. Матричная форма мнк при построении модели (этап проверки адекватности полученной модели).
- •16. Матричная форма мнк при построении модели (этап проверки значимости коэффициентов модели).
- •15. Матричная форма мнк при построении модели (этап оценки коэффициентов модели).
- •13. Метод ранговой корреляции по Спирмэну.
- •12. Виды зависимостей. Корр анализ; коэффициенты частной и множественной корреляции.
- •11. Виды зависимостей. Корр анализ; коэфф парной корр-ии.
- •10.Метод наименьших квадратов - базовый метод получения коэффициентов регрессионных уравнений.
- •9.Виды зависимостей. Регрессионный анализ.
- •8. Классификация задач управления; задача оценивания.
- •Классификация задач управления; задача адаптивного управления
- •Классификация задач управления; задача детерминированного и стохастического управления.
- •Классификация задач управления. Задача идентификации.
- •3.Методология построения детерминированных моделей.
- •4.Основные виды зависимостей.
- •2. Общие подходы к построению моделей с учетом характера исходной информации.
- •Классификация моделей.
- •1. Дискретно - детерминированные модели
- •2. Непрерывно - детерминированные модели
- •3. Дискретно - стохастические модели
- •4. Непрерывно - стохастические модели
1.Среднее арифметическое переменных
2.определяем
сумму произведений отклонений от
среднего значения
3.
ковариационная
матрица состоит из элементов,
которые вычисляются по следующей
формуле
где
К – число групп. Т.е. для каждой группы
строится ковариационная матрица, а
потом объединенная. Размер 4х4. Складываем
S12
для всех трех групп и делим на ∑nk
– K=15-3
4.
Вычисляем обратную к объединенной
ковариационной матрице (метод
Жордана-Гаусса)
5.
Вычисляем общие средние для всех
переменных
j=1,M
k=1,k
;
- среднее j–й
переменной в каждой к-й группе. Например
6.
Вычисляем
обобщенную D2
статистику
(расстояние Махалонобиса)
7. Считаем дискриминантные функции
8.
Оцениваем
достоверность.
Для этого считаем вероятность,
соответствующую наибольшей дискриминантной
функции
; fL
– значение наибольшей дискриминантной
функции
L
– индекс наибольшей дискриминантной
функции
26.Метод Бокса- Уилсона.
Идея метода заключается в использовании метода крутого восхождения в сочетании с последовательно планируемым факторным экспериментом для нахождения оценки градиента. Процедура состоит из нескольких повторяющихся этапов: - построение факторного эксперимента в окрестностях некоторой точки; - вычисление оценки градиента в этой точке по результатам эксперимента; - крутое восхождение в этом направлении; - нахождение максимума функции отклика по этому направлению. Допущения: - функция отклика непрерывна и имеет непрерывные частные производные на множестве G ; - функция унимодальная (т.е. экстремум - внутренняя точка).
m
– номер итерации
α
влияет на шаг.
- оператор Набла
Δх
нужно подсчитать
Пример
(на градиентный метод)
max
f(x)
= 4x1
+ 2x2
- x12
- x22
+5
=
(4, 5) - исходная точка.
-
общий вид
х2
х1
f/x1
= 4 - 2x1
f/x2
= 2 - 2x2
f(x0)
= (4-2*4,
2-2*5)
= (-4, -8) - градиент в точке x0
Вторая
итерация
т.е.
точка
- решение задачи
Оценивание
градиента.
Если функция (x1,
x2,...,
xk),
где x1,
x2,...,
xk
- размерные величины, то перейдем к
безразмерному виду: f(x1,
x2,...,
xk),
где x1,
x2,...,
xk
- безразмерные величины.
Разложим
эту функцию в ряд Тейлора в точке 0.
Для
линейной зависимости.
f(x1,
x2,...,
xk)
= a0
+ a1x1
+ a2x2
+...+ akxk
где
ai
= f/xi i
= 1…k i ¹
0
a0
= f(x10,
x20,...,
xk0)0
-
из регрессионной модели
- из разложения в ряд Тейлора
Проведя факторный эксперимент и рассчитав
коэффициент линейной множественной
регрессионной модели, мы получаем
возможность оценить компоненты градиента.
25.Планирование эксперимента. Основные понятия.
-
Активный эксперимент
- Пассивный
эксперимент
Основная идея активного эксперимента
- добиться требуемых свойств, выбирая
условия проведения эксперимента.
1.
План эксперимента X
1
j
n 1
i
N
n
- число факторов, N
- число экспериментов
xi
= (x1i,
x2i,...,
xni)
x11,
x21,...,
xn1
X
= xji
= x12,
x22,...,
xn2
. . . . . .
x1N,
x2N,...,
xnN
2.
Центр
плана
.
. +1,
-1
.
.
3.Центральный
план
- это план, в котором центр расположен
в начале координат.
4.
Область
определения. Нормированные переменные.
Пусть
xj*-
реальные факторы
xj
- нормированные факторы
-1
xj
1 1
j
n n
- факторы
Надо определить xj*min
и xj*max
xj
= [xj*-
(xj*min
+ xj*max)/2]
/ [(xj*max
- xj*min)/2]
5.
Матрица
M
= FF
y
= a0
+ a1x1
+ a2x2
+... + anxn
М - информационная матрица плана X размерности (k+1)*(k+1) det(A- I) = 0 где - корни характеристического уравнения. M=(Матрица у которой на диогонале числа, а все остальное нули)
План X, которому соответствует диагональная информационная матрица, называется ортогональным. Если при применении МНК какие-либо коэффициенты а оказываются незначимыми, то в общем случае необходимо произвести перерасчет коэффициентов для новой модели.
Если использовался критерий ортогональности плана, то замена на 0 любого коэффициента в уравнении модели не изменит оценок других коэффициентов.
Преимущества
ортогонального плана:
а)
упрощение вычислений
б) независимые
коэффициенты оценок
6. Свойство
ротатабельности
План
X
является ротатабельным, если дисперсия
оценки
зависит только от расстояния точки x
от центра плана.
Пример
Пусть модель y(a,x)
= a0
+ a1x1
+ a2x2
+... + anxn
x0
= 0 - центр плана
M
= 4I3
f(x)
= (1, x1,
x2)
=
(1, x1,
x2)*(1/4)I3
= (1/4)(1+ x12
+ x22)
=
= (1/4)(1+r2)
Дисперсия
всех равноудаленных точек одинакова.
7.
План X
называется ненасыщенным
, если N
> k+1;
насыщенным
, если N
= k+1
8. Критерий планирования эксперимента. План эксперимента зависит от выбранного критерия. Критерий в основном определяет либо требования к модели, либо требования к точности. Кроме критериев ортогональности и ротатабельности назовем критерии А-оптимальности и Д-оптимальности. Критерий А-оптимальности требует такого выбора плана X, при котором матрица C имеет минимальный след (т.е. сумма диагональных элементов минимальна). Практически это означает минимизацию средней дисперсии оценок коэффициента а. Критерий D-оптимальности требует такого расположения точек, при котором определитель матрицы C минимален.