Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
курсак_(Автосохраненный).docx
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
199.78 Кб
Скачать

1.2. Штучні нейронні мережі

Функціонування моделі окремого ШН, реалізує фактично обчислення деякої функції від n змінних каналів ШН, така модель неможе вирішувати складні інтелектуальні задачі, хоча прості задачі класифікації на 2 підмножини може здійснювати.

Для вирішення більш складних інтелектуальних задач було запропоновано розглядати так звані мережі штучних нейронів природно що ШНМ є моделями біологічних нейронних з’єднань.

Очевидно що спосіб сполучень нейронів у ШНМ залежить від вирішуваної задачі при цьому традиційно розглянемо ШНМ у яких нейрони розміщені у так званих прошарках, у прошарку нейрон розміщений ніби паралельно.Схематично прошарок нейронів можна зобразити так

x1 N1

x2 N2

xn Nm

Тут x1,x2,…,xn – це вектор вхідних сигналів

=(x1,x2,…,xn)

М атриця W

W=

Матрицявагових коефіцієнтів усіх вхідних каналів ШН

N1,N2…,Nm – це сукупність ШН у прошарку

Out1out2outn – відповідні виходи нейронів.

Кожен із нейронів має свою власну передатну функцію outj=Fj(E)

j=

У окремих моделях ШНМ передатні функції можуть бути однакові а у інших моделях можуть бути різні.

Подача вектора вхідних сигналів через мережу вхідних каналів, та наступних їх сум в кожному нейроні може бути записана у вигляді векторно-матричного скалярного добутку

Ʃ1 x1·w11+x2·w21+…+xnwn1

= Ʃ2 = x1·w12+x2·w22+…+xnwn2 = · W= WT· (3)

Ʃn x1·w1M+x2·w2M+…+xnwnM

По аналогії увсі передатні функції можна об’єднати у вектор стовпець функції

= ( ·w) (4)

Окремі прошарки виконують складніші інтелектуальні операції фактично немає місце перетворення сукупності (n) вихідних сигналів у сукупність (М) вихідних сигналів.

Для реалізації ще складніших задач окремі прошарки з’єднуються у цілі багато прошаркові ШНМ, часто такі з’єднання э послідовними

x1 1 1 out1 . . . . . out1

x2 2 2 out2 . . . . . out2

xn M K outM . . . . . outM

Тут позначення - це вектор вхідних сигналів. Вхідні сигнали часто об’єднують і називають нульовим прошарком.1-ий прошарок називаються вхідним,виходи 1-ого прошарку подаються на входи 2-ого по порядку прошарку, усі прошарки окрім останнього називають прихованими.

Усі внутрішні прошарки мають свої власні коефіцієнти.Матриця W це матриця ваг другого прошарку.Виходи останнього прошарку формують вихід усієї ШНМ.Функціонування таких ШНМ, передбачає поширення сигналу від нульового прошарку до вихідного прошарку тому такого типу ШНМ називають мережами прямого поширення сигналу.

На кожному прошарку відбувається обробка поточного значення сигналу. Функціонування таких багато прошаркових мереж теж зводиться до векторно парних операцій. Наприклад у двух прошарковому

(5) = ( ·V) = ( ( ·W)·V)=

Якщо передатні функції прошарків I і IІ є лінійними функція що реалізує моделі то у (5) можна виконати наступні перетворення

= ( ( ·W)·V) (6)

Переозначивши здобуток матриць W·V=U та увівши новий вектор передатних функцій

(·) = ( (·)

Неважко перетворити співвідношення (6) до виду (4)

= ( (7)

MKK

(W) n · (V) m = (U) n

Таким чином у випадку моделі ШНМ із лінійною передатною функціями багатошарова мережа може бути зведена до одношарової мережі в якій результуюча матриця (ВАХ) є здобутком окремих прошарків а результуюча передатна функція є комбінацією передатних функцій окремих прошарків.

Таким чином описана модель багатошарової ШНМ, з між передатними функціями не забезпечує жодного виграшу з одношаровою ШНМ, для реалізації складних інтелектуальних задач доцільно використовувати багатошарові ШНМ з нелінійними передатними функціями.

Окрім розгляду моделі ШНМ прямого поширення сигналу використаємо моделі ШНМ із зворотними (рефлексними зв’язками). У таких мережах сигнал деякого прошарку повернеться на вхід цьогож прошарку або навіть попередніх прошарків.Схематично таку мережу можна зобразити так

x1 1 1 out

x2 2 2 out2

xN M K out3

Тут зображено зворотні зв’язкі першого прошарку, та зворотні зв‘язкі останього нейрона останього прошарку на попередній

Очевидно що зворотні зв‘язкі можуть мати усі нейрони прошарку. Мережі зі зворотніми зв‘язками ще називаються рекурентими ШНМ.

Функціонування ШНМ прямого поширення та рекурентних ШНМ відрізняється:

1. У ШНМ прямого поширення сигнал проходить через мережу в 1 напрямку 1 раз

2.У рекурентних ШНМ, сигнал може проходити через мережу з повторенням багато раз до тих пір поки вихідний сигнал нестабілізується.

Навчання ШНМ

Термін ШНМ використовується для вирішення інтелектуальних задач проводяться так звані навчання мережі, в процесі навчання вагові коефіцієнти усіх нейронів кожного прошарку налаштовані певним чином.Розрізнають 2 основні способи навчання мереж які залежать від типу мережі:навчання з учителм,навчання без учителя.

У випадку навчання ШНМ з учителем передбачається так звананавчальна множина що складається із достатньо великої сукупності навчальних карт.

Кожна навчальна карта цеп пара із вхідного вектора та відповідного йому результату

, target

Кожен крок навчання з учителем передбачає корекції ваг нейронів так щоб вихідний сигнал outi співпадав із станом очікування значення ti, для відповідного образу xi

У випадку навчання ШНМ без учителя корекція ваг насправді не проводиться адже у цьому випадку навчальна множина складається з інших карт. При цьому кожна карта це образ що ніби запам’ятований мережею, тоді запам’ятовування кожного нового образу приведи до зміни значення вагових коефіцієнтів. При навчанні без учителя немає сталих значень очікуваних результатів на виході.

Навчання з учителем у більшості випадків відноситься до мереж прямого поширення, а навчання без учителя, до рекурентних мереж зі зворотніми зв’язками.