- •Лабораторная работа № 1 Исследование метода градиентного спуска
- •1 Основные теоретические положения
- •2 Задание на работу
- •4 Список литературы
- •Цель работы: Ознакомление с методами поиска экстремума в шаговых экстремальных системах
- •1 Основные теоретические положения
- •1.2 Шаговая экстремальная система с переменным интервалом регулирования
- •1.3 Шаговая экстремальная система с двумя пробными шагами
- •2 Задание на работу
- •1.2 Метод наименьших квадратов
- •2 Порядок выполнения работы
- •3 Контрольные вопросы
- •4 Список литературы
- •Лабораторная работа № 4 Исследование нагрева электрических двигателей
- •1 Основные теоретические сведения
- •2 Задание на работу
- •2.1 Исследование нагрева двигателя при повторно- кратковременном режиме нагрузки
- •2.2 Исследование нагрева двигателя при случайном характере нагрузки
- •1 Основные теоретические положения
- •3 Контрольные вопросы
- •4 Список литературы
- •Лабораторная работа № 6 Корреляционный измеритель скорости проката
- •1 Основные теоретические положения Экстремальные беспоисковые системы с корреляторами
- •1 Основные теоретические положения
- •2 Задание на работу
- •1 Основные теоретические положения
- •2 Задание на работу
- •3 Контрольные вопросы
- •4 Список литературы
МІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ
ДЕРЖАВНИЙ ВИЩИЙ НАВЧАЛЬНИЙ ЗАКЛАД
ПРИАЗОВСЬКИЙ ДЕРЖАВНИЙ ТЕХНІЧНИЙ УНІВЕРСИТЕТ
КАФЕДРА АВТОМАТИЗАЦІЇ ТЕХНОЛОГІЧНИХ ПРОЦЕСІВ І
ВИРОБНИЦТВ
МЕТОДИЧНІ ВКАЗІВКИ
до лабораторних робіт з дисципліни
«Адаптивні системи автоматичного керування технологічними процесами»
для студентів спеціальності 6.050202
«Автоматизація та комп’ютерно-інтегровані технології»
Укладач: Зайцев В.С.
Затверджено:
на засіданні кафедри АТП і В
«____»_____ 201_ р., протокол № ____
Зав. кафедри О.І. Сімкін
Погоджено:
Начально-методичною комісією
кафедри АТП і В
«____»_____ 201_ р., протокол № ____
Голова комісії Л.О. Добровольська
Маріуполь
2012 р.
УДК 681.3.068 (076.5)
Методичні вказівки до лабораторних робіт з дисципліни «Адаптивні системи автоматичного керування технологічними процесами» для студентів спеціальності 6.050202 «Автоматизація та комп’ютерно-інтегровані технології» денної та заочної форм навчання. Маріуполь, 2012. – 45 с.
Приводяться короткі теоретичні відомості, завдання та вимоги до виконання лабораторних робіт і оформлення результатів.
Укладач |
Зайцев В.С., проф., д.т.н. |
|
|
Рецензент |
Добровольська Л.О., доц., к.т.н. |
|
|
Відп. за випуск |
Добровольська Л.О., доц., к.т.н. |
Лабораторная работа № 1 Исследование метода градиентного спуска
Цель работы: Ознакомление студентов с методом градиентного спуска в применении к самонастраивающимся системам.
1 Основные теоретические положения
Градиентом Ñf(x) функции f(x) в точке XÎ Rn называют вектор с координатами в виде частных производных вдоль каждой оси: ¶f/¶x1, ¶f/¶x2, ¶f/¶x3,..., ¶f/¶xn. Градиентом называют направление наискорейшего возрастания функции. Это направление не всегда совпадает с направлением на сам экстремум, но для функций, имеющих выпуклые линии равного уровня, близко к нему.
Градиент обладает рядом свойств:
градиент перпендикулярен к касательной к линии равного уровня;
направление противоположное градиенту называется антиградиентом и указывает направление наискорейшего уменьшения функции, он обозначаются -Ñf(x);
градиенты в различных точках могут быть направлены в различные, в том числе, противоположные направления;
множество векторов градиента во всех точках образует поле градиента, линии которого сходятся в точке экстремума;
для множества возрастающих функций по мере приближения к экстремуму градиент уменьшается:
в точке экстремума, как максимума, так и минимума градиент равен нулю.
В методах, предусматривающих пошаговую оптимизацию гиперфункций, на каждом шаге итераций желательно использовать поиск экстремума в наиболее перспективном направлении изменения функции. Не ясно, какое направление считать наилучшим, но известно, что градиент в заданной точке области эксперимента указывает направление наискорейшего возрастания функции.
Указанное свойство является локальным свойством функции в точке Х и градиент отнюдь не указывает на глобальный экстремум функции в области эксперимента. Направление градиента перпендикулярно в любой точке линии постоянного уровня, поскольку вдоль этой линии функция постоянна.
Пусть задана непрерывная дифференцируемая унимодальная функция n переменных (гиперфункция) f(x)Î Rn, экстремаль Х* и экстремум f(X*).
В градиентном методе осуществляется одновременное изменение всех координат {xi}n так, чтобы обеспечить движение экстремальной системы в направлении, близком к мгновенному направлению вектора градиента (непрерывном или дискретном).
В простейшем случае непрерывного безынерционного управления объектом в САУ для этого должны реализовываться зависимости:
,
(1)
где k – некоторый коэффициент пропорциональности (для получения правильного направления движения k положительно для экстремума «максимума» и отрицательно для экстремума «минимума»).
Траектория движения изображающей точки x1,...,xn в этом случае оказывается нормалью к поверхности f(x)=const.
Уравнение (1) соответствует устойчивому движению экстремальной системы, т.е.:
df/dx =k[(df/dx1)2 +…+(df/dxn)2 ] -2. (2)
Следовательно, производная функции по времени сохраняет свой знак, определяемый знаком по всей области эксперимента, кроме точки экстремума, где эта производная обращается в нуль, что соответствует монотонному сходящемуся процессу.
При шаговом движении реализуются зависимости:
,
(3)
где {Dxi}n– фиксированные точки в направлении экстремума.
Для метода градиентного спуска характерно плавное движение по направлению к точке экстремума и малый размах колебаний около точки экстремума при шаговом движении.
Аналитический путь реализации метода применяют, если гиперфункция имеет небольшую размерность и производные известного аналитического выражения функции берутся достаточно просто. Градиентные методы являются итерационными, в них используется рассмотренное свойство направления градиента. Поэтому, если оптимизация функции на некоторой итерации производятся с начальной аппроксимации экстремальной точки xi, то поиска минимума функции осуществляется вдоль антиградиента и следующей аппроксимацией является точка:
,
(4)
где hi – шаг, минимизирующий гиперфункцию в направлении антиградиента.
.
(5)
Расчёт величины шага из выбранной точки xi вдоль антиградиента является нетривиальной задачей. Вследствие сложности f(x) нахождение ext z(x) – не всегда легко разрешимая проблема. Поэтому поиск ext z(x) производится малыми приращениями –h, для которых m*h=H вдоль антиградиента. Таким образом, для нахождения экстремали Х* функции z(x) в области эксперимента нужно сделать m малых шагов от исходной точки xi, каждый раз вычисляя значение z(xi-j*h), где jÎ [1;m] – номер шага. Итерации следует повторять до тех пор, пока разность
(6)
не станет положительной величиной, т.е. до момента возрастания функции z(x).
Величина Нi может тоже быть рассчитана с помощью одного из методов безусловной оптимизации z(x), например, метода квадратичной интерполяции.
Алгоритм, реализующий метод градиентного спуска, включает следующую последовательность шагов:
Задаются исходной точкой Хо – начальной аппроксимацией минимали функции f(x) и точностью расчёта экстремума E. Полагают i=1.
Вычисляют значение функции f(xi) в исходной точкеxi.
Вычисляют приближённое значение частных производных функции f(x) путём поочерёдного пробного приращения аргументов xj jÎ [1;m] в точке xi(xi1,xi2,...,xin) и находят значения функции в полученных точках согласно формуле:
,
(7)
или методом квадратичной интерполяции.
Оценивают условие окончания поиска экстремума. Если точка Х* является минималью гиперфункции f(x), то каждая первая частная производная ¶f/¶xi (iÎ [1;n]) должна обращаться в нуль в точке Х*. Следовательно, необходимым условием достижения минимума функции в точке Х* является уравнение:
(8)
Таким образом, если выполняется условие:
,
(9)
то расчёт оканчивают, считая экстремум найденным.
Рассчитывают xi+1= xi-hi*Ñf(xi), перемещаясь в направлении антиградиента -Ñf(xi) малыми шагами h. Полагают и переход на шаг 2.
Графическая процедура оптимизации унимодальной гиперфункции представлена на рис. 1.
Рисунок 1 – Графическая интерпретация градиентного метода
К недостаткам данного метода следует отнести:
трудно определяемые препятствия выражения частных производных при достаточно сложном аналитическом выражении функции f(x). Однако производные можно посчитать численно;
возрастание размерности гиперфункции приводит к резкому усложнению расчётов вследствие поиска оптимального шага Н анализом функции f(x) по каждому аргументу;
резко возрастающее количество итераций, если гиперповерхность функции f(x) имеет овражный характер; это приводит к частой смене направлений антиградиента, т.е. к «рысканью».
К достоинствам метода относятся:
достаточно большая скорость сходимости;
однотипность расчётов, делающая метод удобным для реализации на ПЭВМ.
