Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
neurmeua.doc
Скачиваний:
45
Добавлен:
07.02.2016
Размер:
1.35 Mб
Скачать

3 Порядок виконання роботи

3.1 Одержати у викладача варіанти завдань для навчання і моделювання РБНМ. Вхідними даними є навчальна і контрольна вибірки (набори пар значень входів і бажаних виходів персептрона).

3.2 Використовуючи запропонований викладачем програмний засіб, здійснити навчання і моделювання РБНМ і БНМ для відповідних варіанту даних.

3.3 Результати моделювання занести в таблицю, стовпці якої повинні мати назви: модель НМ, алгоритм навчання, помилка навчання, помилка розпізнавання, час навчання, час класифікації.

3.4. Проаналізувати отримані результати і зробити висновки про те, яка модель НМ краще підходить для рішення задачі, що відповідає варіанту.

4 ЗМІСТ ЗВІТУ

4.1 Сформульована мета роботи.

4.2 Короткий опис моделі РБНМ.

4.3 Схема та опис алгоритмів навчання РБНМ.

4.4 Короткий опис, вхідні дані та результати роботи з програмним засобом, запропонованим викладачем, таблиця 3.3.

4.5 Аналіз отриманих результатів і висновки. Лаконічні відповіді на контрольні питання.

Контрольні питання

  1. Дайте визначення і поясніть взаємозв'язок понять: нейрон, вага, поріг, радіально-базисна мережа, класифікація, апроксимація, оцінювання, помилка навчання / класифікації, час навчання / класифікації.

  2. У чому подібність і відмінність РБНМ і БНМ?

  3. Які задачі можна вирішувати на основі РБНМ, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади. Чи доцільно застосовувати РБНМ для класифікації складно (нелінійно) роздільних образів?

  4. Чи завжди збігаються алгоритми навчання РБНМ?

  5. Чи можна навчити РБНМ обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not ((not x1) and x2), 4) y = 3x1 – 0,05x2, 5) y = sin(x1) + 0,3x2, 6) y = 0,5x1 + 2x2 – 2,5(x1 - x2) + 5,5, 7) y = x1 / (sin(π) * x2)?

Лабораторна робота № 6

Евристичні моделі та методи навчання нейронних мереж

Мета роботи – вивчити евристичні моделі та методи навчання НМ; порівняти евристичні методи навчання НМ між собою, а також з методами навчання БНМ; розглянути приклади практичного використання вивчених методів і моделей НМ.

1 Короткі теоретичні відомості Евристичний алгоритм навчання класифікації двошарового персептрона

Нехай ми маємо навчальну вибірку = {x1x2, ..., xS}, що складається з S екземплярів, якi характеризуються N ознаками xqi, де q – номер екземпляра навчальної вибірки, i – номер ознаки.

Кожному екземпляру навчальної вибірки зіставлений номер класу yq, , деK0 і K1 – умовні позначки різних класів екземплярів. Умовимося, що екземпляр, який перевіряється, належить до класу K0, якщо значення параметра, що прогнозується, до моменту часу прогнозування буде більше деякого граничного значення. У противному випадку екземпляр належить до класу K1.

Одним з методів настроювання ваг для двошарового персептрона може служити евристичний алгоритм, модель НМ для якого представлена на рис. 6.

Параметри та функції активації НМ необхідно визначити за наступними правилами.

Функція активації ψ(,i ) i-го нейрона -го шару:

;

Ваговий коефіцієнт j-го входу i-го нейрона -го шару:

i = 1, 2, ..., N, j = 0, 1, 2, ..., N.

Рисунок 6 – Двошаровий персептрон

Для знаходження значень параметрів αi, βi і θi пропонується використовувати наступний алгоритм.

Крок 1. Обчислити:

–математичне сподівання i-ї ознаки xi:

, = 1, 2, ..., N,

де S – кількість екземплярів навчальної вибірки, xqi – значення i-ї ознаки q-го екземпляра навчальної вибірки.

–математичне сподівання i-ї ознаки для екземплярів навчальної вибірки, що належать до класу K1:

, i = 1, 2, ..., N,

де – кількість екземплярів навчальної вибірки, що належать до класуK1.

–математичне сподівання i-ї ознаки для екземплярів навчальної вибірки, що належать до класу K0:

, = 1, 2, ..., N,

де – кількість екземплярів навчальної вибірки, що належать до класуK0.

–математичне сподівання номера класу: ,

де yq – номер класу q-го екземпляра навчальної вибірки.

Якщо необхідно, для знаходження порога θi, обчислити:

Дисперсії ознак: ,i = 1, 2, ..., N.

Дисперсії ознак екземплярів, що відносяться до класу K1:

, i = 1, 2, ..., N.

Дисперсії ознак екземплярів, що відносяться до класу K0:

, i = 1, 2, ..., N.

Дисперсію номера класу: .

Крок 2. Обчислити коефіцієнти кореляції кожної i-ї ознаки і номера класу: .

Крок 3. Обчислити ступінь (частку) впливу i-ї ознаки на номер класу екземпляра: ,i = 1, 2, ..., N,

де j – номер поточної ознаки.

Обчислити коефіцієнт βi, що враховує найбільш ймовірне розміщення полюсів (центрів зосередження екземплярів) класів при одновимірній класифікації за i-ю ознакою: .

Цей коефіцієнт буде дорівнювати: +1, якщо полюс класу K0 розташований ліворуч полюса класу K1 по вісі значень i-ї ознаки; –1, якщо полюс класу K0 розташований праворуч полюса класу K1 по вісі значень i-ї ознаки; 0, якщо полюса класів збігаються.

Обчислити значення порога, відносно якого будемо здійснювати одновимірну класифікацію екземплярів за i-ю ознакою. Для знаходження значення порога можна запропонувати досить багато різних способів:

, i = 1, 2, ..., N;

, i = 1, 2, ..., N,

, i = 1, 2, ..., N.

Крок 4. Оцінити імовірності помилки перейменування класів для екземплярів навчальної і (або) контрольної вибірок і зробити висновок про застосовність даного алгоритму для рішення поставленої задачі.

Для цього варто знайти значення номерів класів для екземплярів навчальної і (або) контрольної вибірок за правилом класифікації (3), після чого визначити кількість помилкових рішень Sпом і оцінити імовірність прийняття помилкових рішень Pпом Sпом / (Sк), де S і Sк – розмір навчальної і контрольної вибірок, відповідно.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]