- •Тема 1. 4
- •Тема 1.
- •1.Регулятори. Призначення автоматичних регуляторів.
- •2. Узагальнена структурна схема автоматичних регуляторів.
- •3. Класифікація регуляторів.
- •7. По виду задающего воздействия на регулятор регуляторы делят на:
- •8. По виду настройки регуляторы могут быть :
- •4. Регулятори з типовими законами регулювання.
- •5. Позиционные регуляторы
- •6. Пропорциональный регулятор
- •7. Интегральный регулятор
- •8. Пропорционально-интегральный регулятор
- •8. Дифференциальные регуляторы (д, пд, пид)
- •9. Аналогові та цифрові регулятори.
- •10. Релейні регулятори. Динаміка процесів регулювання в системах з двохпозиційним та трипозиційним регулюванням.
- •11. Різновиди структур регуляторів. Реалізація регуляторів для статичних і астатичних оу. Передаточні функції цифрових регуляторів з лінійними законами.
- •11.2 Структуры параельного и последовательного соединение пи, пд, пид регуляторов.
- •14. Імпульсні регулятори.
- •15. Регулятори змінної структури (рзс).
- •16. Структурні схеми рзс:
- •16.1. Пропорциональное ру с переменным коэффициентом передачи
- •16.2. Интегральное ру с переменной величиной коэффициента при постоянной времени интегрирования
- •16.3. Пропорционально интегральное ру с коммутируемой п-составляющей
- •16.4. Пропорционально-интегральное ру с переменными коэффициентами при п и и - составляющих
- •16.5. Полупропорциональное ру
- •16.6. Полупропорциональное регулирующее устройство со сбросом регулирующего воздействия
- •16.7. Полупропорционально-дифференциальное регулирующее устройство
- •16.8. Пропорционально-полуинтегральное ру
- •16.9. Пропорционально-интегральное ру со сбросом и – составляющей
- •16.10. Пропорциональное ру с запоминанием и сбросом регулирующего воздействия
- •16.11. Пропорционально-интегральное ру с запоминанием и сбросом регулирующего воздействия и с введением интегральной составляющей
- •16.12. Пропорционально-интегральное ру с определением интегральной составляющей
- •16.13. Пропорционально-интегральный рпс без дифференцирования сигнала ошибки регулирования в функции переключения
- •17. Методики вибору та розрахунків налагоджуваних параметрів регулятора, виходячи з моделі та характеристик оу і завдань контурів ксу.
- •Тема 2. Особливості ксу різного функціонального призначення.
- •Слідкуючі системи (сс).
- •Загальні відомості та класифікація сс.
- •Сс з пропорційним законом, з керуванням по похибці з комбінованим управлінням.
- •Коефіцієнти похибок.
- •С труктурні схеми спу.
- •Реалізація спу.
- •Системи позиційного та контурного програмного регулювання.
- •Системи управління станків з числовим програмним керуванням.
- •Методики проектування спу.
- •Системи автоматичного контролю (сак).
- •Загальні функції сак.
- •Основні задачі та форми автоматичного контролю.
- •Структура систем збору та обробки інформації..
- •Реалізація систем автоматичного контролю.
- •Тема 3.
- •Інтелектуальні системи управління (ісу) – нові технології розробкита реалізації комп'ютеризованих систем управління.
- •Структура традиційної та інтелектуальної системи управління.
- •Концептуальні основи організації інтелектуального управління складними об'єктами.
- •Основніпоняття і визначеннятеоріїінтелектуальних систем управління.
- •Моделі та алгоритмиприйняттярішень при керуванні складними об'єктами.
- •Алгоритм принятия решений на основе действий оператора.
- •Моделі представлення знань в системах управління.
- •Технології, нечіткоїлогіки, нейромережевихструктур, експертнихсистем, асоціативноїпам'яті, генетичнихалгоритмівтаїхкомбінацій.
- •Інтелектуальні системиуправління на основі нечіткої логіки.
- •Поняття лінгвістичної моделі об'єктів управління, в середовищі нечітких множин та нечіткої логіки.
- •Загальна структура системиуправління з „нечіткими" регуляторами.
- •Принцип роботи.
- •Методики синтезу.
- •Інтелектуальнісистемиуправліннянаосновінейромережевих структур.
- •Біологічній нейрон.
- •Модель нейрона.
- •Базовийпроцесорнийелемент.
- •Різновиди функційактивації нейрона.
- •1. Единичный скачок или жесткая пороговая функция
- •2. Линейный порог или гистерезис
- •3. Сигмоидальная функция или сигмоид
- •Перцепрони.
- •Статичні одно- та багатошаровінейроннімережі.
- •Нейромережі з радіально-базовимифункціямиактивації.
- •Динамічнібагатошаровінейромережі.
- •НейромережаХопфілда.
- •Властивостібагатошаровихнейромережевих структур.
- •Принципи та алгоритминавчання і тренуваннянейроних мереж.
- •Системиуправліннянаосновінейромережевих структур.
- •Архітектура експертного регулятора.
- •Етапи функціонування експертного регулятора.
- •Порядок формування теоретичних знань по використанню алгоритмів ідентифікації, емпіричних знань, стратегій та евристик, знань про динаміку нелінійної системи, синтезу регулятора.
- •2. Формирование теоретических знаний об областях использования алгоритмов идентификации
- •3. Формирование эмпирических знаний, стратегий и эвристик
- •3.1. Формирование знаний о динамике линейной системы автоматического управления.
- •Адаптивна система управління на основі експертного регулятора.
- •Інтелектуальні системи управління на основі асоціативної пам'яті.
- •Класифікація і способи реалізації асоціативноїпам'яті.
- •Структури систем управління на основі асоціативної пам'яті першого и другого роду.
- •Ієрархічні інтелекту альні системи управління першого і другого роду.
- •Адаптивна система управління на основі асоціативної пам'яті.
Статичні одно- та багатошаровінейроннімережі.
Одношарові штучні нейронні мережі
Хоч один нейрон і здатний виконувати найпростіші процедури розпізнавання, сила нейронних обчислень виникає від з'єднань нейронів в мережах. Найпростіша мережа складається з групи нейронів, що створюють прошарок, як показано в правій частині рис. Зазначимо, що вершини-кола зліва служать лише для розподілу вхідних сигналів. Вони не виконують ніяких обчислень, і тому не будуть вважатися прошарком. З цієї причини вони позначені колами, щоб відрізняти їх від обчислювальних нейронів, позначених квадратами. Кожний елемент з множини входів Х окремою вагою сполучений з кожним штучним нейроном. А кожний нейрон видає зважену суму входів в мережу. У штучних і біологічних мережах багато які з'єднання можуть бути відсутнім, всі з'єднання показані з метою спільності. Можуть мати місце також з'єднання між виходами і входами елементів в шарі. Такі конфігурації розглядаються в розділі 6.
Зручно вважати ваги елементами матриці W. Матриця має m рядків і n стовпців, де m - число входів, а n - число нейронів. Наприклад, w23 - це вага, що зв'язує третій вхід з другим нейроном. Таким чином, обчислення вихідного вектора N, компонентами якого є виходи OUT нейронів, зводиться до матричного множення N = XW, де N і Х - вектори-рядки.
Багатошарові штучні нейронні мережі
Більш великі і складні нейронні мережі мають, як правило, і великі обчислювальні можливості. Хоч створені мережі всіх конфігурацій, які тільки можна собі представити, пошарова організація нейронів копіює прошаркові структури певних відділів мозку. Виявилося, що такі багатошарові мережі володіють більшими можливостями, і в останні роки були розроблені алгоритми для їх навчання.
Багатошарові мережі можуть утворюватися каскадами прошарків. Вихід одного прошарку є входом для подальшого прошарку.
Нейромережі з радіально-базовимифункціямиактивації.
Искусственные нейронные сети, использующие в качестве активационных функций радиально-базисные функции (такие сети сокращённо называются RBF-сетями).
Мережі з радіальними базисними функціями
Є представником класу мереж прямого поширення.
Мотивуються математичними проблемами апроксимації.
Також застосовуються для моделювання/передбачення локальніх залежностей.
В найпростішому випадку 3 шари:
1. Вхідний - кількість елементів шару дорівнює розмірності
вхідного простору ознак. Кожен нейрон першого шару зв'язується з усіма нейронами наступного шару.
2. Схований (радіальний) - функція стану визначає відсань вхідного вектора від вагових коефіцієнтів:
Функція активації є функцією з локалною поведінкою (відрізняється від о на обмеженій ділянці)
Общий вид радиально-базисной функции:
,
например,
где x — вектор входных сигналов нейрона, σ — ширина окна функции, φ(y) — убывающая функция (чаще всего, равная нулю вне некоторого отрезка).
3. Вихідний - утворюється сигма-елементами з лінійною функцією активації.
Задача апроксимації функції з використанням мереж RBF
Недолік - наявність провалів
Перевага - швидкість навчання
Недоліки:
ресурсоємність
для моделювання функції, вона повинна мати на всьому діапазоні функці, яку намагаються апроксимувати
