Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Сборник ЛР Ад системы.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
1.63 Mб
Скачать

1 Основные теоретические положения

Экспертная система, входящая в состав гибридной нейро-фаззи системы управления, основана на использовании искусственной нейронной сети (ИНС).

В настоящее время ИНС достаточно широко применяются для решения различных задач во многих технических и гуманитарных областях.

Искусственные нейронные сети конструируются по принципам построения их биологических прототипов. В зависимости от архитектуры и обучающих алгоритмов они способны решать задачи по распознаванию образов, идентификации и т.п.

Развитие теории нейронных сетей и выпуск устройств для их моделирования, предназначенных для выполнения функций по переработке информации, позволяет создавать информационные блоки и системы, имитирующие поведение человека. Речь идёт, таким образом, о создании искусственного интеллекта [1]. В основе “разумного” поведения ИНС лежат алгоритмы их обучения.

В современном представлении нейрон представляет собой блок обработки сигналов, на вход которого поступают входные сигналы по специальным проводникам (дендритам). Когда сумма входных сигналов превысит некоторый входной уровень, на выходе (аксоне) блока появляется короткий импульс. Между дендритами и собственно блоком (нейроном) включены ячейки (синапсы), которые либо ослабляют, либо усиливают входной сигнал.

Искусственную модель нейрона называют персептроном. На рис. 1 показана схема однослойного обучаемого персептрона, на входе которого суммируются n взвешенных компонент входного вектора. Из этой суммы вычитается установленная пороговая величина D и полученный результат поступает на вход блока, формирующего активационную функцию, которая является отображением входного вектора.

Рисунок 1 – Однослойный обучаемый персептрон

На рис. 1 приняты следующие обозначения обозначения:

Yk = W1 x1 + W2 x2 + W3 x3 +…+ Wk xk +…+ Wn xn – D = neti – D, (1)

где W1, W2, W3 ,…Wk ,…Wn – веса;

n

neti = ∑ Wk xk ;

k =1

D – пороговая величина;

Yi – выход персептрона, обозначаемый как Yi = f ( neti - D);

Y – целевой выход персептрона;

ei - разность между целевым и фактическим выходом в точке i,

ei = Y - Yi ;

Zij = b * xj * ei – поправка к старому значению веса. Здесь b > 0 – постоянная величина.

Поправка позволяет изменять веса по соотношению

Wijn = Wij + Zij , (2)

где Wijn и Wij - новый и прежний веса.

На рис.1 курсивом обозначены величины, входящие в обучающий контур.

Определение весов (обучение) производится обычно в следующем порядке:

Шаг 1. Для всех весов задаются случайные числа.

Шаг 2. Выбирается случайный входной вектор xi.

Шаг 3. Рассчитывают свесами на данный момент выходной вектор Yi.

Шаг 4. Сравнивают с целевым вектором Y. Если Yi=Y, то повторяют процедуру по шагу 2. Если YiY , то корректируют веса по одной из приемлемых формул коррекции и снова возвращаются к шагу 2.

В рассматриваемом случае применяется обучение персептрона с использованием так называемого дельта-правила (название происходит от принятого авторами предложенного правила обозначения i=Y-Yi ).

Поскольку функция (1) может быть представлена персептроном, то алгоритм обучения сходится за конечное число шагов. Критерием окончания расчёта принят минимум суммы квадратов ошибок, то есть

min Σk ek2 .