Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Інтелектуальний аналіз даних.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
275.97 Кб
Скачать

Ітераційний алгоритм обчислення головних компонент.

Метод головних компонент (англ. Principal component analysis, PCA) - Один з основних способів зменшити розмірність даних, втративши найменшу кількість інформації. Винайдено К. Пірсоном (англ. Karl Pearson) В 1901 р. Застосовується в багатьох областях, таких як розпізнавання образів, комп'ютерне зір, стиснення даних і т. п. Обчислення головних компонент зводиться до обчислення власних векторів і власних значень ковариационной матриці вихідних даних. Іноді метод головних компонент називають перетворенням Кархунена-Лоева (англ. Karhunen-Loeve) або перетворенням Хотеллінга (англ. Hotelling transform). Інші способи зменшення розмірності даних - це метод незалежних компонент, багатовимірне шкалювання, а також численні нелінійні узагальнення: метод головних кривих і різноманіть, метод пружних карт, пошук найкращої проекції (англ. Projection Pursuit), нейромережеві методи "вузького горла", самоорганізуються карти Кохонена та ін. Завдання аналізу головних компонент, має, як мінімум, чотири базових версії:

  1. апроксимувати дані лінійними різноманіття меншої розмірності;

  2. знайти підпростору меншою розмірності, в ортогональної проекції на які розкид даних (тобто середньоквадратичне відхилення від середнього значення) максимальний;

  3. знайти підпростору меншою розмірності, в ортогональної проекції на які середньоквадратичне відстань між точками максимально;

  4. для даної багатовимірної випадкової величини побудувати таке ортогональне перетворення координат, що в результаті кореляції між окремими координатами звернуться в нуль.

Перші три версії оперують кінцевими множинами даних. Вони еквівалентні і не використовують жодної гіпотези про статистичний породженні даних. Четверта версія оперує випадковими величинами. Кінцеві безлічі з'являються тут як вибірки з даного розподілу, а рішення трьох перших завдань - як наближення до "істинного" перетворенню Кархунена-Лоева. При цьому виникає додатковий і не цілком тривіальне питання про точність цього наближення. Математичний зміст методу головних компонент - це спектральне розкладання коваріаційної матриці C. Тобто уявлення простору даних у вигляді суми взаємно ортогональних власних підпросторів C, а самої матриці C - у вигляді лінійної комбінації ортогональних проекторів на ці підпростору з коефіцієнтами λi.

Дерева рішень. Методи опорних векторів, «найближчого сусіда», Байеса.

Дерева рішень є найдавнішим алгоритмом аналізу даних. Роботи в цьому напрямку розчали Ховленд (Hoveland) та Хант (Hunt) у 1950-х роках. Дерева рішень – це спосіб представлення правил в ієрархічно послідовній структурі, де кожному об’єкту відповідає лише єдиний кінцевий вузол, що надає відповідь. Під правилом розуміють логічну конструкцію, що надана у вигляді «Якщо А, Тоді Б». При побудові дерев рішень особлива увага приділяється наступним питанням: вибір критерію атрибуту, за яким відбувається розбиття, зупинка навчання і відсікання гілок. Розглянемо всі ці правила по порядку.