Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
МНа Экзамен Ответы_окончательно.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
950.78 Кб
Скачать
  1. Ансамблі класифікаторів. Методи побудови;

Ансамбль классификаторов - это набор классификаторов, индивидуальные решения которых комбинируются некоторым образом (как правило, методами взвешенного или невзвешенного голосования) с целью расклассифицировать новые примеры.

Имеем обучающую выборку и определённый набор классификаторов (гипотез).

Чтобы при увеличении кол-ва классификаторов точность возрастала (ансамбль становился более эффективным, чем отдельные его классификаторов), нужно учитывать условия:

1. Каждый классификатор имеет вероятность правильно расклассифицировать больше, чем случайным образом (как правило, эта вероятность - 0.5).

2. Они должны быть разными (именно не одинакового типа, а по-разному классифицирующими).

Способы построения ансамблей:

1. Использование различных типов классификаторов, архитектуры их и параметров.

2. Манипулирование обучающими выборками.

3. Манипулирование входными атрибутами алгоритма (кол-во соседей, метрика расстояния; изменение кол-ва аттрибутов, влияющих на целевой класс и т.п.).

4. Манипулирование выходными классами.

5. Внесение некоторой случайности в метод обучения.

  1. Алгоритм маніпулювання навчальною вибіркою AdaBoost для побудови ансамбля класифікаторів;

У нас есть одна обучающая выборка (первичная) - дублируем классифицируем по ней, определяем точность классификации, сопоставляем результаты с реальными значениями классов, и ставим коэф-ты для каждого примера (0 или 1 (для неправильных) на первой итерации) - для второй итерации берём неверно-классифицированные примеры.

Алгоритм AdaBoost.M1

Этап построения модели:

- Ставим одинаковый вес всем обучающим примерам.

- Для каждой итерации (t):

- Обучаемся на данной выборки.

- Вычисляем ошибку классификации e (часть верно расклассифицированных примеров).

- Останавливаем цикл только если ошибка равна 0 или больше, чем 0.5.

- Для каждого примера в датасете:

- Если пример расклассифицирован верно, то умножаем его вес на e/(1-e)

- Нормализуем веса всех примеров.

Классификация:

- Нулевой вес для всех классов.

- Для каждого из t классификаторов:

Прибавить -log(e/(1-e)) к весу классов, ПРЕДИКЕЙТЕД классификатором.

- Возвращаем класс с наибольшим весом.

(ЗДЕСЬ НЕ ТРЕБУЕТСЯ ГОЛОСОВАНИЯ КЛАССИФИКАТОРОВ)

Бустинг работает хорошо, если базовые классификаторы не имеют экспоненциальное возростание ошибки.

  1. Алгоритм маніпулювання навчальною вибіркою Bagging для побудови ансамбля класифікаторів;

Генерируем обучающие выборки такой же размерности, как и обучающая, но рандомно и с возможностью повторений. Повторения влияет на различные классификаторы.

Этот алгоритм хорош, если мы хотим усреднить ошибку классификации различных классификаторов ансамбля.

Метод формирования ансамблей классификаторов с использованием случайной выборки с возвратом или бутстрепа. Название метода произошло от англ. bootstrap +aggregating – bagging. Он был предложен в 1994 году Лео Брейманом.

При формировании бутстрэп-выборок берется множество данных, из которого случайным образом отбирается несколько подмножеств, которые содержат такое же количество примеров, как и исходное. Но поскольку отбор производится случайно, набор примеров в этих выборках будет различным: некоторые из них могут быть отобраны по несколько раз, а другие – ни разу. Затем на основе каждой строится классификатор и их выходы комбинируются (агрегируются) путем голосования или простого усреднения. Ожидается, что результат будет намного точнее любой одиночной модели, построенной на исходном наборе данных.

Метод производит взвешенное голосование базовых алгоритмов, обученных на различных подвыборках данных, либо на различных частях признакового описания объектов.

Выделение подмножества объектов и/или признаков производится, как правило, сучайным образом.

Берётся обучающая выборка и рэндомом выбираем из неё кол-во примеров, равное мощности самой выборки, причем с повторениями. И так 10 раз получаем 10 разных обучающих выборок для обучения ансамбля, в каждой из которых могут отсутствовать некоторые примеры из исходного обучения ансамбля, а другие - повторяться.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]