- •Міністерство освіти і науки україни
- •Одношаровий персептрон. Алгоритм уідроу-хоффа
- •1 Короткі теоретичні відомості
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Лабораторна робота № 2 повнозв’язні нейронні мережі хопфілда. Псевдоінверсне навчальне правило. Ефект рознасичення
- •1 Короткі теоретичні відомості
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Лабораторна робота № 3 нейронні мережі кохонена, що самоорганізуються: som та lvq
- •1 Короткі теоретичні відомості Нейронна мережа som
- •Інтерпретація результатів класифікації som
- •Нейронна мережа lvq
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Лабораторна робота № 4 багатошаровий персептрон. Узагальнений градієнтний алгоритм навчання
- •1 Короткі теоретичні відомості
- •Так: перейти на крок 11. Ні: перейти на крок 13.
- •Так: закінчення пошуку: немає просування до рішення. Перейти на крок 13.
- •Алгоритми спряжених градієнтів представляють собою підклас методів, які квадратично збігаються. Для алгоритмів спряжених градієнтів крок 6 узагальненого градієнтного алгоритму має вигляд:
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Радіально-базисні нейронні мережі
- •1 Короткі теоретичні відомості
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Евристичні моделі та методи навчання нейронних мереж
- •1 Короткі теоретичні відомості Евристичний алгоритм навчання класифікації двошарового персептрона
- •Евристичний алгоритм навчання класифікації тришарового персептрона
- •Алгоритм навчання шестишарового персептрона
- •2 Домашнє завдання
- •3 Порядок виконання роботи
- •Контрольні питання
- •Література
- •Бовель е.И., Паршин в.В. Нейронные сети в системах автоматического распознавания речи // Зарубежная радиоэлектроника. - 1998. - №4. - c. 50-57
- •Моделювання нейронних мереж у середовищі matlab
2 Домашнє завдання
Використовуючи конспект лекцій і рекомендовану літературу, вивчити модель БНМ і алгоритми її навчання.
Використовуючи документацію рекомендованого викладачем програмного засобу, вивчити його архітектуру і компоненти, призначені для моделювання і навчання БНМ, вводу і виводу даних, підготовки звітів (виводу і відображення результатів роботи).
Ознайомитися зі складом і порядком виконання роботи.
3 Порядок виконання роботи
3.1 Одержати у викладача варіанти завдань для моделювання багатошарового персептрона. Вхідними даними є: число шарів і число нейронів у кожнім шарі; вид функції активації нейронів; кількість входів і виходів персептрона; набір пар значень входів xi і бажаних виходів yi персептрона; максимально припустима помилка навчання; крок навчання.
3.2 Використовуючи запропонований викладачем програмний засіб, здійснити навчання і моделювання багатошарового персептрона для відповідних варіанту даних.
3.3 Кілька разів змінити вид функції активації нейрона і виконати п.3.2
3.4 Кілька разів змінити алгоритм навчання і виконати п.3.2-3.3.
3.5 Результати моделювання занести в таблицю, стовпці якої повинні мати назви: алгоритм навчання, вид функції активації нейронів, помилка навчання, помилка розпізнавання, час навчання, час класифікації персептрона.
3.6. Проаналізувати отримані результати і зробити висновки про те, як впливають вид функції активації і вид коригувального правила ваг (алгоритм навчання) на час навчання і класифікації (оцінювання), а також величину помилки навчання / класифікації багатошарового персептрона.
4 ЗМІСТ ЗВІТУ
4.1 Сформульована мета роботи.
4.2 Короткі теоретичні відомості, відповіді на контрольні питання та опис моделі багатошарового персептрона.
4.3 Схема та опис узагальненого градієнтного алгоритму.
4.4 Вхідні дані та результати моделювання.
4.5 Аналіз отриманих результатів і висновки. Лаконічні відповіді на контрольні питання.
Контрольні питання
Дайте визначення понять: формальний нейрон, вага, функція активації, персептрон, бажаний і реальний вихід персептрона, навчання і робота персептрона, класифікація, апроксимація, помилка навчання / класифікації, цільова функція навчання.
Чи впливає вид функції активації на час навчання і класифікації персептрона, величину помилки навчання і, якщо так, то як?
Які функції активації найчастіше використовують і чому?
Які задачі можна вирішувати на основі багатошарових персептронов, а які не можна? Обґрунтуйте і доведіть відповідь. Приведіть приклади.
Чи можна навчити дискретний багатошаровий персептрон обчислювати значення функцій: 1) y = x1 and x2, 2) y = x1 xor x2, 3) y = not ((not x1) and x2), а дійсний багатошаровий персептрон – обчислювати значення функцій: 1) y = 3x1 – 0.05x2, 2) y = sin(x1) + 0.3x2, 3) y = 0.5x1 + 2x2 - 2.5(x1 – x2) + 5.5, 4) y = x1 / (sin(π) * x2)?
Чи може дійсний багатошаровий персептрон моделювати функцію y = x12 + 0.5x1 + x2, якщо число його шарів дорівнює: а) 1, б) 2, в) 3? Відповіді обґрунтуйте і, якщо можливо, поясніть малюнками.
Опишіть суть узагальненого градієнтного алгоритму.
Які методи навчання БНМ Вам відомі? Дайте порівняльну характеристику відомих Вам методів навчання БНМ.
Чи завжди збігається метод Коші (алгоритм зворотного поширення помилки) для багатошарового персептрона?
Який з методів зворотного поширення помилки Ви рекомендували б для застосування, якщо критерієм оптимальності навчання НМ є: а) швидкість навчання, б) простота обчислень, в) універсальність?
Чи можливо використання неградієнтних методів багатовимірної безумовної оптимізації для настроювання ваг БНМ, і, якщо можливо, то наскільки це доцільно робити?
Чи впливає обсяг навчальної вибірки на швидкість навчання БНМ? Чи впливає кількість використовуваних ознак на швидкість навчання одношарового персептрона?
Що таке репрезентативна вибірка даних?
Чи повинна навчальна вибірка бути репрезентативною?
Чи повинна тестова вибірка бути репрезентативною?
Чи впливає репрезентативність навчальної вибірки на точність класифікації екземплярів тестової вибірки?
Чи впливає репрезентативність тестової вибірки на точність класифікації екземплярів тестової вибірки?
Чи впливає репрезентативність тестової вибірки на точність навчання персептрона по навчальній вибірці?
Лабораторна робота № 5