Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Сборник ЛР Ад системы.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
1.63 Mб
Скачать

МІНІСТЕРСТВО ОСВІТИ І НАУКИ, МОЛОДІ ТА СПОРТУ УКРАЇНИ

ДЕРЖАВНИЙ ВИЩИЙ НАВЧАЛЬНИЙ ЗАКЛАД

ПРИАЗОВСЬКИЙ ДЕРЖАВНИЙ ТЕХНІЧНИЙ УНІВЕРСИТЕТ

КАФЕДРА АВТОМАТИЗАЦІЇ ТЕХНОЛОГІЧНИХ ПРОЦЕСІВ І

ВИРОБНИЦТВ

МЕТОДИЧНІ ВКАЗІВКИ

до лабораторних робіт з дисципліни

«Адаптивні системи автоматичного керування технологічними процесами»

для студентів спеціальності 6.050202

«Автоматизація та комп’ютерно-інтегровані технології»

Укладач: Зайцев В.С.

Затверджено:

на засіданні кафедри АТП і В

«____»_____ 201_ р., протокол № ____

Зав. кафедри О.І. Сімкін

Погоджено:

Начально-методичною комісією

кафедри АТП і В

«____»_____ 201_ р., протокол № ____

Голова комісії Л.О. Добровольська

Маріуполь

2012 р.

УДК 681.3.068 (076.5)

Методичні вказівки до лабораторних робіт з дисципліни «Адаптивні системи автоматичного керування технологічними процесами» для студентів спеціальності 6.050202 «Автоматизація та комп’ютерно-інтегровані технології» денної та заочної форм навчання. Маріуполь, 2012. – 45 с.

Приводяться короткі теоретичні відомості, завдання та вимоги до виконання лабораторних робіт і оформлення результатів.

Укладач

Зайцев В.С., проф., д.т.н.

Рецензент

Добровольська Л.О., доц., к.т.н.

Відп. за випуск

Добровольська Л.О., доц., к.т.н.

Лабораторная работа № 1 Исследование метода градиентного спуска

Цель работы: Ознакомление студентов с методом градиентного спуска в применении к самонастраивающимся системам.

1 Основные теоретические положения

Градиентом Ñf(x) функции f(x) в точке XÎ Rn называют вектор с координатами в виде частных производных вдоль каждой оси: fx1, fx2, fx3,..., fxn. Градиентом называют направление наискорейшего возрастания функции. Это направление не всегда совпадает с направлением на сам экстремум, но для функций, имеющих выпуклые линии равного уровня, близко к нему.

Градиент обладает рядом свойств:

  • градиент перпендикулярен к касательной к линии равного уровня;

  • направление противоположное градиенту называется антиградиентом и указывает направление наискорейшего уменьшения функции, он обозначаются -Ñf(x);

  • градиенты в различных точках могут быть направлены в различные, в том числе, противоположные направления;

  • множество векторов градиента во всех точках образует поле градиента, линии которого сходятся в точке экстремума;

  • для множества возрастающих функций по мере приближения к экстремуму градиент уменьшается:

  • в точке экстремума, как максимума, так и минимума градиент равен нулю.

В методах, предусматривающих пошаговую оптимизацию гиперфункций, на каждом шаге итераций желательно использовать поиск экстремума в наиболее перспективном направлении изменения функции. Не ясно, какое направление считать наилучшим, но известно, что градиент в заданной точке области эксперимента указывает направление наискорейшего возрастания функции.

Указанное свойство является локальным свойством функции в точке Х и градиент отнюдь не указывает на глобальный экстремум функции в области эксперимента. Направление градиента перпендикулярно в любой точке линии постоянного уровня, поскольку вдоль этой линии функция постоянна.

Пусть задана непрерывная дифференцируемая унимодальная функция n переменных (гиперфункция) f(x)Î Rn, экстремаль Х* и экстремум f(X*).

В градиентном методе осуществляется одновременное изменение всех координат {xi}n так, чтобы обеспечить движение экстремальной системы в направлении, близком к мгновенному направлению вектора градиента (непрерывном или дискретном).

В простейшем случае непрерывного безынерционного управления объектом в САУ для этого должны реализовываться зависимости:

, (1)

где k – некоторый коэффициент пропорциональности (для получения правильного направления движения k положительно для экстремума «максимума» и отрицательно для экстремума «минимума»).

Траектория движения изображающей точки x1,...,xn в этом случае оказывается нормалью к поверхности f(x)=const.

Уравнение (1) соответствует устойчивому движению экстремальной системы, т.е.:

df/dx =k[(df/dx1)2 +…+(df/dxn)2 ] -2. (2)

Следовательно, производная функции по времени сохраняет свой знак, определяемый знаком по всей области эксперимента, кроме точки экстремума, где эта производная обращается в нуль, что соответствует монотонному сходящемуся процессу.

При шаговом движении реализуются зависимости:

, (3)

где {Dxi}n– фиксированные точки в направлении экстремума.

Для метода градиентного спуска характерно плавное движение по направлению к точке экстремума и малый размах колебаний около точки экстремума при шаговом движении.

Аналитический путь реализации метода применяют, если гиперфункция имеет небольшую размерность и производные известного аналитического выражения функции берутся достаточно просто. Градиентные методы являются итерационными, в них используется рассмотренное свойство направления градиента. Поэтому, если оптимизация функции на некоторой итерации производятся с начальной аппроксимации экстремальной точки xi, то поиска минимума функции осуществляется вдоль антиградиента и следующей аппроксимацией является точка:

, (4)

где hi – шаг, минимизирующий гиперфункцию в направлении антиградиента.

. (5)

Расчёт величины шага из выбранной точки xi вдоль антиградиента является нетривиальной задачей. Вследствие сложности f(x) нахождение ext z(x) – не всегда легко разрешимая проблема. Поэтому поиск ext z(x) производится малыми приращениями h, для которых m*h=H вдоль антиградиента. Таким образом, для нахождения экстремали Х* функции z(x) в области эксперимента нужно сделать m малых шагов от исходной точки xi, каждый раз вычисляя значение z(xi-j*h), где jÎ [1;m] – номер шага. Итерации следует повторять до тех пор, пока разность

(6)

не станет положительной величиной, т.е. до момента возрастания функции z(x).

Величина Нi может тоже быть рассчитана с помощью одного из методов безусловной оптимизации z(x), например, метода квадратичной интерполяции.

Алгоритм, реализующий метод градиентного спуска, включает следующую последовательность шагов:

  1. Задаются исходной точкой Хо – начальной аппроксимацией минимали функции f(x) и точностью расчёта экстремума E. Полагают i=1.

  2. Вычисляют значение функции f(xi) в исходной точкеxi.

  3. Вычисляют приближённое значение частных производных функции f(x) путём поочерёдного пробного приращения аргументов xj jÎ [1;m] в точке xi(xi1,xi2,...,xin) и находят значения функции в полученных точках согласно формуле:

, (7)

или методом квадратичной интерполяции.

  1. Оценивают условие окончания поиска экстремума. Если точка Х* является минималью гиперфункции f(x), то каждая первая частная производная f/xi (iÎ [1;n]) должна обращаться в нуль в точке Х*. Следовательно, необходимым условием достижения минимума функции в точке Х* является уравнение:

(8)

Таким образом, если выполняется условие:

, (9)

то расчёт оканчивают, считая экстремум найденным.

  1. Рассчитывают xi+1= xi-hi*Ñf(xi), перемещаясь в направлении антиградиента -Ñf(xi) малыми шагами h. Полагают и переход на шаг 2.

Графическая процедура оптимизации унимодальной гиперфункции представлена на рис. 1.

Рисунок 1 – Графическая интерпретация градиентного метода

К недостаткам данного метода следует отнести:

  • трудно определяемые препятствия выражения частных производных при достаточно сложном аналитическом выражении функции f(x). Однако производные можно посчитать численно;

  • возрастание размерности гиперфункции приводит к резкому усложнению расчётов вследствие поиска оптимального шага Н анализом функции f(x) по каждому аргументу;

  • резко возрастающее количество итераций, если гиперповерхность функции f(x) имеет овражный характер; это приводит к частой смене направлений антиградиента, т.е. к «рысканью».

К достоинствам метода относятся:

  • достаточно большая скорость сходимости;

  • однотипность расчётов, делающая метод удобным для реализации на ПЭВМ.