
- •1. Основные направления в области систем ии, их характеристика.
- •2. Архитектура и свойства нс Back propagation. Функции активации.
- •3. Градиентный алгоритм обучения нс Back propagation(вр), его свойства.
- •4. Вывод рекурсивного соотношения для произвольного слоя сети вр. Организация вычислений компонент градиента в сети вр.
- •5. Модификация градиентного метода обучения.
- •6. Генетический алгоритм обучения нс вр и его свойства.
- •7. Метод сопряженных градиентов в обучении нс вр и его свойства.
- •8. Применение нс вр в задачах макроэкономичесого прогнозирования.
- •9. Нейронные сети с обратными связями. Нс Хопфилда и Хэмминга и ее свойства.
- •10. Самоорганизация в нейронных сетях. Нейронная сеть Кохонена.
- •13. Основные идеи и принципы мгуа
- •14. Поліноміальний алгоритм мгуа
- •15.Комбінаторний алгоритм мгуа
- •16. Алгоритм мгуа з послідовним виділенням трендів
- •17. Нечіткий метод групового обліку аргументів
- •22. Метод комплексирования аналогов в задачах прогнозирования случайных процессов.
- •23. Метод комплексирования аналогов в задачах прогнозирования случайных событий.
- •24. Классификация основных моделей обучения
- •25. Байесовский алгоритм обучения. Его свойства.
- •26. Вероятностные итеративные алгоритмы обучения. Условия сходимости.
- •27. Постановка задачи кластер-анализа. Критерии и метрики кластер-анализа.
- •28. Алгоритм мимовільної розбивки на незадане число класів
- •30. Агломеративний ієрархічний алгоритм кластер-аналізу
- •30.Общая характеристика задач распознования образов.
- •31.Этапы процесса распознавания. Классификация моделей и методов.
- •39. Классы структурированных моделей. Основные режимы изменений.
- •47. Алгоритм эра.
- •48. Применение алгоритма эволюционного моделирования эра в задачах классификации объектов по кривым.
- •49.Загальна характеристика систем з нечіткою логікою. Лингвистические переменные и термы
- •50.Нечіткий метод групового обліку аргументів
- •51. Алгоритм Mamdani
- •61. Нечеткая нс tsk и Менделя. Структура, функции слоев.
28. Алгоритм мимовільної розбивки на незадане число класів
Нехай
-
проекція
на
,
.
Тоді
.
Визначивши проекції всіх точок вихідної
множини на
,
приводимо задачу до одномірного випадку.
Багатомірність простору зображень
враховується при обчисленні дисперсій
у підмножинах
,
а саме
У результаті
розбивається рівнобіжними гіперплощинами,
що проходять через точки
нормально до найбільшого власного
вектора
матриці
.
Пороги
визначаються відповідно до описаного
вище алгоритму.
У зв'язку з тим, що уже після першої
розбивки найбільші власні вектори в
утворених підмножинах
і
можуть не співпадати з
, недоцільно проводити розбивку в одному
напрямку більше, ніж на два класи.
Тому процес розбивки при k>2 варто звести до послідовної дихотомії. Багаторазово застосовуючи алгоритм оптимальної дихотомії, можна одержати розбивку на будь-яке число класів.
Однак алгоритм оптимальної дихотомії
сам по собі ще не забезпечує оптимуму
при розбивці на k класів. Тому випливає
оптимізувати процес розбивки, увівши
деякий критерій об'єднання. Цей критерій
повинен залежати від
і
.
Нехай після розбивки на k класів
і
-
сусідні підмножини. При об'єднанні
і
дисперсія може зрости, тому що
,
а функція вартості зменшиться, тому що
.
Тому якщо величина
менше нуля, то втрати за рахунок збільшення
дисперсії компенсуються зменшенням
вартості на утримання класів, а тому
і
доцільно об'єднати. Як критерій об'єднання
приймемо відношення
.
Тоді правило об'єднання можна записати
в наступному виді:
- деякий поріг, що залежить від номера
кроку. Якщо покладемо Т=1, то правило
об'єднання буде діяти, починаючи з
першого кроку, після кожної чергової
розбивки. У такому випадку процес
формування множин закінчується в той
момент, коли після деякого об'єднання
ми одержимо ті ж самі множини, що були
до початку розбивки на цьому кроці.
Ясно, що такий вибір порога не може
привести до найкращої розбивки, оскільки
залишається можливість застрягти на
проміжному мінімумі функціонала
вартості, не довівши розбивку до кінця.
Можна рекомендувати вибір перемінного
порога з наступних міркувань. Оскільки
на перших кроках має сенс провести
розбивку на можливо більше число класів,
поріг Т вибирається <1. Далі
процес розбивки повинен перемінитися
протилежним процесом – об'єднанням, а
тому Т буде зростати від кроку до
кроку, поки не досягне свого сталого
значення Т=1. (Як функцію
можна
вибрати, наприклад,
,
де r – номер кроку.)
Регулюючи величину
,
можна одержувати різні співвідношення
між режимами розбивки й об'єднання
класів.
Опишемо коротенько алгоритм формування класів:
а) обчислюється матриця коваріацій вихідної множини;
б) визначаються
,
і
;
в) знаходимо проекції точок
на
;
г) робимо оптимальну дихотомію в напрямку й одержуємо дві підмножини і ;
д) перевіряємо сусідні підмножини (класи) за критерієм об'єднання
30. Агломеративний ієрархічний алгоритм кластер-аналізу
Загальна схема всіх алгоритмів цього
класу така: формується послідовність
порогів
,
що зв'язана з побудовою дерева
кластеризації. Починається з кластеризації,
при якій кожна точка є окремий кластер.
На першому кроці поєднуються ті точки,
міра близькості яких не перевищує
,
На другому кроці поєднуються ті, у яких
поріг близькості не перевищує
і т.д. доти пока всі точки не об'єднаються
в один клас, чи на деякому рівні число
кластерів буде стабілізовано, і при
цьому всі точки усередині класу
задовольнятимуть порогові
.
Насамперед, для побудови правила
останова буде використане поняття
мінімальної дистанційної розбивки
,
де e-еталон .
і при цьому наступний крок
Розбивка
називається незміщеною, якщо ця
розбивка з точністю до множини міри
нуль збігається з мінімальною дистанційною
розбивкою породжуваною векторами
середніх
де
- сукупність точок, що належать
;
- число точок в
Правильною кластерізацією називається
незміщена розбивка точок вибірки на
кластери
для якої виконується наступні умови:
визначені оцінки середніх
найбільша внутрішньокластерна відстань на множині кластерів менше найменшої міжкластерної відстані, тобто
де
- відстань між точками одного кластера:
- відстань між різними кластерами.
може бути визначено різними способами
як максимальна відстань між парою точок з цих кластерів:
як відстань між центрами кластерів:
,
,
аналогічно.
Опис алгоритму кластеризації
Початковий етап
Задано послідовність
,
початковий набір середніх
,
де
,
i=1..N. Початкове розбиття
,
де
,
i=1..N,
1-а ітерація:
1. Визначимо розбиття
шляхом відшукання точок
,
найближчих до центра
,
і їх об'єднання в один клас.
Цей крок повторюємо доти, поки не вийде:
,
де
- число кластерів отриманих з 1-ої
ітерації.
Обчислюємо центри нових кластерів
,
На 2-ій ітерації поєднуємо сусідні
кластери, відстань між якими
r-а ітерація (r>1):
Послідовно за рекурентними формулами
знаходимо нову розбивку
шляхом злиття найближчих кластерів і
визначення їх центрів (змінні r-го
рівня ієрархії).
- число кластерів, отриманих з r-ої
ітерації.
Обчислюємо змінні r-го рівня ієрархії (центри)
Продовжуємо виконувати ітерації доти,
поки не почне виконуватися умова
(тобто, коли відстань між кожною парою
кластерів не стане
або всі кластери не зіляються в один).