
- •1. Нелинейные сар. Понятия: «пространство состояний», «фазовая траектория», «фазовый портрет».
- •2. Проблема двойственности в линейном программировании.
- •3. Составляющие информационной системы (ис). Модели жизненного цикла ис.
- •4, 31. Методы определения оптимальных параметров настройки промышленных регуляторов.
- •5. Автоколебания в сар. Определение параметров автоколебаний с помощью графических построений.
- •6,14. Математическая постановка задач оптимального управления. Пример: «Нажимное устройство реверсивного прокатного стана».
- •7,11,59. Назначение, классификация, и функции субд. Структура субд и назначение основных компонентов. Транзакции. Свойства транзакций.
- •8,20. Оценка качества сар по временным характеристикам
- •9. Представление импульсного элемента при исследовании импульсных сар.
- •10. Синтез сар оптимальной по быстродействию.
- •12. Принципы системного подхода в моделировании. Сетевые модели.
- •13. Связь между спектрами сигналов на входе и выходе простейшего импульсного элемента. Теорема Котельникова.
- •15. Модели управления передачей, обработкой и хранением данных в информационных системах на основе технологии «клиент-сервер»
- •16. Непрерывно-стохастические модели на примере систем массового обслуживания.
- •17. Процессы конечной длительности в импульсных сар.
- •18. Метод динамического программирования.
- •19, 55. Характеристика нормальных форм реляционной модели данных.
- •21. Алгебраический аналог критерия устойчивости Гурвица для исар.
- •22. Системы управления на основе нечеткой логики.
- •23. Реляционная модель данных. Понятие функциональной зависимости. Процесс нормализации базы данных.
- •Целостность данных
- •Реляционная алгебра
- •Нормализация базы данных
- •24. Синтез сар по логарифмическим характеристикам.
- •25. Метод гармонической линеаризации нелинейностей.
- •26. Системы управления на основе искусственных нейронных сетей.
- •27,35. Цифровые регуляторы и выбор периода квантования.
- •28. Аппроксимация кривых разгона методом площадей.
- •29. Характер движения в нелинейных и линейных сар.
- •30. Техническая диагностика. Математические основы технической диагностики.
- •32. Функции операционных систем: управление задачами, данными, исключениями и восстановлением.
- •33. Устойчивость линейных сар. Признаки устойчивости. Запасы устойчивости линейных сар.
- •34. Статистические методы распознавания. Метод Бейеса.
- •36.75. Реляционная алгебра Кодда
- •37. Устойчивость линейных непрерывных систем. Критерий устойчивости Найквиста.
- •38. Идентификация статических объектов. Планирование эксперимента. Полный факторный эксперимент. Идентификация статических объектов. Планирование эксперимента. Полный факторный эксперимент.
- •Черный ящик
- •39. Определение, назначение и классификация компьютерных сетей. Базовые топологии локальных компьютерных сетей.
- •40. Уровни памяти в вычислительных системах и их взаимодействие. Регистры, кэш, озу, взу. Их типы и классификация.
- •41. Критерий устойчивости Михайлова для непрерывных и линейных сар.
- •Доказательство
- •42. Частотные методы идентификации динамических объектов.
- •43. Определение, назначение и классификация компьютерных сетей. Топология глобальной компьютерной сети.
- •44. Использование внешних устройств в компьютерной сети. Сетевые устройства ввода/вывода,
- •Хранение информации на сервере, файлообменники и внешние ресурсы. Сетевые устройства
- •Типы сетевых устройств Сетевые карты
- •45. Виды корректирующих средств в сар. Недостатки последовательной коррекции.
- •46. Типовые процессы регулирования.
- •Апериодический переходной процесс с минимальным временем регулирования.
- •Переходной процесс с 20%-ным перерегулированием и минимальным временем первого полупериода.
- •Переходной процесс, обеспечивающий минимум интегрального критерия качества.
- •47. Эталонная модель взаимодействия открытых систем osi. Характеристика уровней osi.
- •48. Регистровая память компьютера и её назначение. Типы регистров процессора в реальном режиме. Дополнительные регистры защищённого режима.
- •Новые системные регистры микропроцессоров i80x86
- •49. Гармоническая линеаризация. Физический смысл коэффициентов гармонической линеаризации.
- •50. Идентификация объектов по временным характеристикам. Определение кривой разгона объекта по его импульсной характеристике.
- •51. Общая структура современных асу тп
- •52. Операционные системы потоковой обработки, мультизадачные ос, сетевые ос и ос реального времени. Их особенности.
- •53. Устойчивость нелинейных систем. Метод л.С. Гольдфарба.
- •54. Идентификация динамических систем. Активные и пассивные методы идентификации.
- •Внутренние и внешние, параллельные и последовательные интерфейсы компьютера. Примеры интерфейсов и шин, их основные характеристики.
- •Последовательный и параллельный интерфейсы ввода-вывода
- •57. Точные методы исследования устойчивости и автоколебаний в нелинейных системах. Частотный метод в.М. Попова.
- •58. Методы аппроксимации кривых разгона объекта.
- •61. 65. Статические характеристики нелинейных элементов.
- •62. Обеспечивающие подсистемы информационно - управляющих систем и их характеристики.
- •63. Методы расчета осау. Вариационный метод.
- •Вариационное исчисление
- •64. Назначение системы прерываний эвм. Синхронные и асинхронные, внутренние и внешние прерывания.
- •66. Промышленные регуляторы, их назначение и передаточные функции.
- •67. Функциональные подсистемы информационно- управляющих систем и их характеристики.
- •68. Виртуальные ресурсы в компьютерных сетях. Виртуальные накопители, виртуальные внешние устройства, виртуальная память и виртуальные процессоры.
- •Виртуализация устройств и структура драйвера
- •69. Классификация задач оптимального управления.
- •70. Организационные подсистемы информационно- управляющих систем и их характеристики.
- •71. Методы расчета оптимальных осау. Принцип максимума Понтрягина.
- •Вариационное исчисление
- •Принцип максимума Понтрягина
- •74. Принципы построения автоматизированных систем управления.
- •76. Типы команд и разновидности адресации в микропроцессорах. Cisc, risc и vliw процессоры.
- •Cisc-процессоры
- •Risc-процессоры
- •Vliw-процессоры
- •77. Понятие области нормальных режимов регулятора (онр) и области допустимых настроек регулятора (одн)
- •78. Состав интегрированной системы автоматизации предприятия.
- •79. Математическая модель и математическое моделирование. Этапы математического моделирования.
- •Функционально полные наборы логических элементов
25. Метод гармонической линеаризации нелинейностей.
МГЛ предназначен для приближенного определения параметров периодических решений нелинейных САР (НСАР) любого порядка. Рассматриваемый метод является мощным средством исследования НСАР в смысле простоты и довольно большой универсальности его аппарата в применении к самым разнообразным нелинейностям. Вообще-то имеются определенные ограничения применения МГЛ, однако для большинства НСАР они несущественны.
Пусть нелинейный элемент НСАР описывается выражением Y=F(x) (1), где F – любая нелинейная функция. На вход этого элемента поступает гармонический сигнал
(2)
Тогда
(3). Обозначено
.
Разложив выходной сигнал (1) при учете
(2) в ряд Фурье, получим
(4)
Для часто встречающихся случаев
постоянная составляющая разложения в
ряд Фурье отсутствует
(5)
Положив из (2) и (3)
и
,
формулу(4) при условии (5) можно записать
в виде
(6) для неоднозначных нелинейностей и
(7) для однозначных.
Итак, нелинейное выражение (1) при
заменяется выражением (6) или (7), которое
с точностью до высших гармоник аналогично
линейному. Эта операция и называется
гармонической линеаризацией. Здесь
коэффициенты гармонической линеаризации
(8)
постоянны при постоянном «а» (а – амплитуда входного гармонического сигнала).
Ф
изический
смысл гармонической линеаризации
состоит в следующем. Рассмотрим сначала
однозначную нелинейность (7) и опустим
из рассмотрения высшие гармоники
.
Это выражение ≈ заменяет нелинейную
характеристику Y=F(x)
прямой линией Y=q(a)x
в диапазоне изменения амплитуды от –a
до +a. При другой амплитуде
входного сигнала a1,
будет другой коэффициент q(a1)
и, значит, другой наклон прямой линии
(чем больше «a», тем меньше
угол наклона). Отличие от обычной
линеаризации (которая была в I
ч. ТАУ), в том, что при обычной линеаризации
наклон прямой был постоянен при любом
входном сигнале, а при гармонической
линеаризации входной сигнал – гармоника
и угол наклона зависит от амплитуды
этой гармоники.
Для неоднозначных нелинейностей (см. (6) без учета высших гармоник) первое слагаемое правой части также характеризует замену нелинейной характеристики Y=F(x) прямой линией Y=q(a)x с наклоном, зависящим от амплитуды «a» выходного гармонического сигнала. Второе же слагаемое, зависящее от q’(a) (которое всегда отрицательно), означает, что фаза сигнала на выходе гармонически линеаризованного элемента будет отставать от фазы на входе. Величина этого отставания тоже зависит от «a».
26. Системы управления на основе искусственных нейронных сетей.
Нейронные сети и нейрокомпьютеры – отрасль знаний популярная в настоящее время. Эта популярность обуславливается способностью НС к обучению по наблюдаемым примерам и формированию приемлемых выводов на базе неполной, зашумлённой и неточной входной информации. К НС проявляют интерес отрасти промышленности и непромышленные сферы. НС представляют собой обучаемые динамические системы, оценивающие характеристики вход-выход. НС имеют принципиальное преимущество перед традиционными системами адаптивного и оптимального управления: для их реализации не требуется априорная математическая модель объекта управления.
Причинами, послужившими применению нейронных сетей в системах управления является следующие:
1. НС могут реализовывать произвольные гладкие функции любой сложности.
2. Для реализации нейросетевых СУ необходима минимальная информация об ОУ.
3. При реализации НС в виде сциализированных интегральных схем возможна параллельная обработка информации, что, во-первых, значительно увеличивает скорость работы системы и, во-вторых повышает надежность системы. Приведем основные термины, используемые в литературе по нейросетевым СУ.
1. Оперативное обучение - сеть обучается в процессе управления.
2. Предварительное обучение - сеть обучается перед процессом управления.
3. Обобщенное обучение - НС обучается воспроизводить заданный оператор (копировать заданную систему).
4. Специализированное (непосредственное) обучение - ИС обучается выдавать нужные
сигналы управления.
5. Прямое обучение (управление) - в схеме обучения (управления) не используется дополнительный обычный регулятор.
6. Непрямое обучение (управление) - в схеме обучения (управления) используется дополнительный обычный регулятор.
7. Инверсное обучение - НС обучается воспроизводить обратный оператор объекта.
Рассмотрим некоторые наиболее известные варианты построения нейросетевых СУ.
1. Последовательная схема нейросетевого управления
Простейшая последовательная схема нейросетевого управления показана на рис. 1.
Рис. 1. Последовательная схема нейросетевого управления
Обозначения:
- х -- входной задающий сигнал системы (уставка);
- f - сигналы, несущие информацию о контролируемых возмущениях
- у – выходной сигнал системы
Предложено несколько вариантов обучения НС для схемы на рис. 1.
А
.
Универсальное управление.
На рис.
2.показана схема
предварительного
обобщенного инверсного
обучения НС.
Рис. 3. Схема
обучения нейроконтроллера обратной
динамике объекта управления
НС, предварительно обученная инверсной динамике объекта, затем используется в схеме на рис. 1.
При нестационарности ОУ применение предварительного обучения не позволяет получить хорошие показатели управления. В связи с чем получили развитие схемы, допускающие оперативное обучение. Рассмотрим схему на рис. 3.
В
схеме на рис. 3 нейроэмулятор
НС2 обучается
обратной динамике ОУ,
а ‚нейроэмулятор
НС1 просто
колирует нейроэмулятор НС2.
Как видно, здесь используется разомкнутая схема управления без отрицательной обратной связи. Достоинствами такой схемы являются простота и отсутствие проблем с устойчивостью. К недостаткам можно отнести следующее: при невыполнении условия квазистационарности ОУ данная схема не гарантирует, что выходной сигнал ОУ будет соответствовать опорному сигналу эта схема не способна управлять неустойчивым объектом; сложности также возникают, если оператор ОУ не имеет обратного.
Б
Рис. 4. Схема
специализированного обучения
Другой подход состоит в том, чтобы в систему на рис. 4 добавить еще одну НС (эмулятор), которая выполняет имитационное моделирование ОУ (рис. 5).
Н
а
рис. 5. НС1 выполняет функции контроллера,
а НС2 – эмулятора. При этом нейроэмулятор
НС2 может использоваться как для
определения якобиана ОУ, так и для
непосредственного обучения нейроконтроллера
НС1. В этом случае идентификатор НС2
настраивается на прямую динамику
объекта, а НС1 настраивается через
идентификатор НС2 таким образом, чтобы
минимизировать критерий качества
управления на определенном интервале
времени в будущем. После реализации на
данном интервале времени процесс
повторяется. В литературе этот метод
иногда называется как «обратное
распространение во времени» или «принцип
удаляющегося горизонта».
У
Рис. 5. Схема с
нейроэмулятором и нейроконтроллером
2. Параллельная схема контроллера нейросетевого управления
Н
Рис. 6. Параллельная
схема нейроконтроллера
Рис. 7. Схема
«обучение с ошибкой обратной связи»
3. Нейросетевое управление с обратной связью
Простейшая схема нейросетевого управления с обратной связью показана на рис. 8.
Н
С
выполняет функции регулятора замкнутой
системы. Достоинствами такой схемы
являются способность обеспечивать
высокое качество управления при наличии
неконтролируемых возмущений, а также
нестационарности и неустойчивости ОУ.
В
Рис. 8. Нейросетевое
управление с обратной связью.
4. Схема с обычным контроллером, управляемым нейронной сетью
В системе, приведенной на рис. 9, НС используется для настройки параметров обычного контроллера (например, ПИД-регулятора)
Данная схема получила название «схема нейросетевого управления с самонастройкой».
Н
есмотря
на большое количество достоинств, СУ
на основе НС свойственен и целый ряд
недостатков:
1. При оптимизации весов НС возникает проблема остановки алгоритма обучения в локальном минимуме, что приводит к необходимости применения алгоритмов глобальной оптимизации, которые работаю достаточно медленно.
2. Отсутствует строгая теория по выбору типа и архитектуры НС, что приводит к необходимости применять алгоритмы самоорганизации, которые также работают достаточно медленно.
3. Всю информацию НС получает в процессе обучения, и никакую априорнуюинформацию ввести в НС невозможно.
Обобщая указанное выше, можно отметить, что нейросетевые регуляторы имеют в ряде случаев неприемлемо длительное время обучения.
Известно несколько способов ускорения процесса обучения.
В
Рис. 9. Схема, в которой нейронная сеть используется для настройки параметров обычного регулятора
страивание знаний о структуре ОУ в НС. Часто имеется априорная информация об ОУ, которую можно учитывать в так называемых нечетких (гибридных) НС, при этом данная информация не обязательно должна быть формализована и может быть представлена в удобной для человека форме.Предварительное обучение. Перед процессом оперативного обучения НС может быть предварительно обучена на ОУ или его модели, что позволяет значительно сократить время обучения.
Использование эффективных нейросетевых парадигм. Выше рассматривались СУ, основанные на многослойных НС прямого распространение, обучаемых с помощью алгоритма обратного распространения. Существует большое разнообразие типов НС и способов их обучения, применение которых, возможно, позволит создать более эффективные системы нейросетевого управления.
Эффективные структуры и методы построения нейросетевых систем управления. Выше рассмотрено несколько известных структур нейросетевого управления, но возможно, существуют более эффективные подходы к их построению.