- •Лабораторная работа № 1 Исследование метода градиентного спуска
- •1 Основные теоретические положения
- •2 Задание на работу
- •4 Список литературы
- •Цель работы: Ознакомление с методами поиска экстремума в шаговых экстремальных системах
- •1 Основные теоретические положения
- •1.2 Шаговая экстремальная система с переменным интервалом регулирования
- •1.3 Шаговая экстремальная система с двумя пробными шагами
- •2 Задание на работу
- •1.2 Метод наименьших квадратов
- •2 Порядок выполнения работы
- •3 Контрольные вопросы
- •4 Список литературы
- •Лабораторная работа № 4 Исследование нагрева электрических двигателей
- •1 Основные теоретические сведения
- •2 Задание на работу
- •2.1 Исследование нагрева двигателя при повторно- кратковременном режиме нагрузки
- •2.2 Исследование нагрева двигателя при случайном характере нагрузки
- •1 Основные теоретические положения
- •3 Контрольные вопросы
- •4 Список литературы
- •Лабораторная работа № 6 Корреляционный измеритель скорости проката
- •1 Основные теоретические положения Экстремальные беспоисковые системы с корреляторами
- •1 Основные теоретические положения
- •2 Задание на работу
- •1 Основные теоретические положения
- •2 Задание на работу
- •3 Контрольные вопросы
- •4 Список литературы
1 Основные теоретические положения
Экспертная система, входящая в состав гибридной нейро-фаззи системы управления, основана на использовании искусственной нейронной сети (ИНС).
В настоящее время ИНС достаточно широко применяются для решения различных задач во многих технических и гуманитарных областях.
Искусственные нейронные сети конструируются по принципам построения их биологических прототипов. В зависимости от архитектуры и обучающих алгоритмов они способны решать задачи по распознаванию образов, идентификации и т.п.
Развитие теории нейронных сетей и выпуск устройств для их моделирования, предназначенных для выполнения функций по переработке информации, позволяет создавать информационные блоки и системы, имитирующие поведение человека. Речь идёт, таким образом, о создании искусственного интеллекта [1]. В основе “разумного” поведения ИНС лежат алгоритмы их обучения.
В современном представлении нейрон представляет собой блок обработки сигналов, на вход которого поступают входные сигналы по специальным проводникам (дендритам). Когда сумма входных сигналов превысит некоторый входной уровень, на выходе (аксоне) блока появляется короткий импульс. Между дендритами и собственно блоком (нейроном) включены ячейки (синапсы), которые либо ослабляют, либо усиливают входной сигнал.
Искусственную модель нейрона называют персептроном. На рис. 1 показана схема однослойного обучаемого персептрона, на входе которого суммируются n взвешенных компонент входного вектора. Из этой суммы вычитается установленная пороговая величина D и полученный результат поступает на вход блока, формирующего активационную функцию, которая является отображением входного вектора.
Рисунок
1 – Однослойный обучаемый персептрон
На рис. 1 приняты следующие обозначения обозначения:
Yk = W1 x1 + W2 x2 + W3 x3 +…+ Wk xk +…+ Wn xn – D = neti – D, (1)
где W1, W2, W3 ,…Wk ,…Wn – веса;
n
neti = ∑ Wk xk ;
k =1
D – пороговая величина;
Yi – выход персептрона, обозначаемый как Yi = f ( neti - D);
Y – целевой выход персептрона;
ei - разность между целевым и фактическим выходом в точке i,
ei = Y - Yi ;
Zij = b * xj * ei – поправка к старому значению веса. Здесь b > 0 – постоянная величина.
Поправка позволяет изменять веса по соотношению
Wijn = Wij + Zij , (2)
где Wijn и Wij - новый и прежний веса.
На рис.1 курсивом обозначены величины, входящие в обучающий контур.
Определение весов (обучение) производится обычно в следующем порядке:
Шаг 1. Для всех весов задаются случайные числа.
Шаг 2. Выбирается случайный входной вектор xi.
Шаг 3. Рассчитывают свесами на данный момент выходной вектор Yi.
Шаг 4. Сравнивают с целевым вектором Y. Если Yi=Y, то повторяют процедуру по шагу 2. Если Yi ≠ Y , то корректируют веса по одной из приемлемых формул коррекции и снова возвращаются к шагу 2.
В рассматриваемом случае применяется обучение персептрона с использованием так называемого дельта-правила (название происходит от принятого авторами предложенного правила обозначения ∆i=Y-Yi ).
Поскольку функция (1) может быть представлена персептроном, то алгоритм обучения сходится за конечное число шагов. Критерием окончания расчёта принят минимум суммы квадратов ошибок, то есть
min Σk ek2 .
