- •Глава 6 обучение без учителя и группировка
- •6.1. Введение
- •6.2. Плотность смеси и идентифицируемость
- •6.3. Оценки по максимуму правдоподобия
- •6.4. Приложение к случаю нормальных смесей
- •6.4.1. Случай 1. Неизвестны средние векторы
- •6.4.2. Пример
- •25 Выборок из смеси с нормальным распределением
- •6.4.3. Случай 2. Все параметры неизвестны
- •6.4.4. Простая приближенная процедура
- •6.5. Байесовское обучение без учителя
- •6.5.1. Байесовский классификатор
- •6.5.2. Обучение вектору параметров
- •6.5.3. Пример
- •6.5.4. Аппроксимация на основе принятия направленных решений
- •6.6. Описание данных и группировка
- •6.7. Меры подобия
- •6.8. Функции критериев для группировки
- •6.8.1. Критерий суммы квадратов ошибок
- •6.8.2. Родственные критерии минимума дисперсии
- •6.8.3.Критерии рассеяния
- •6.9. Итеративная оптимизация
- •6.10. Иерархическая группировка
- •6.10.1. Определения
- •6.10.2. Агломеративная иерархическая группировка
- •6.10.3. Пошаговая оптимальная иерархическая группировка
- •6.10.4. Иерархическая группировка и соответствующая метрика
- •6.11. Методы использующие теорию графов
- •6.12. Проблема обоснованности
- •6.13. Представление данных в пространстве меньшей размерности и многомерное масштабирование
- •6.14. Группировка и уменьшение размерности
- •6.15. Библиографические и исторические сведения
6.9. Итеративная оптимизация
Когда найдена функция критерия, группировка становится корректно поставленной задачей дискретной оптимизации: найти такие разделения множества выборок, которые приводят к экстремуму функции критерия. Поскольку множество выборок конечно, существует конечное число возможных разделений. Следовательно, теоретически задача группировки всегда может быть решена трудоемким перебором. Однако на практике такой подход годится лишь для самых простых задач. Существует приблизительно сn/c! способов разделения множества из п элементов на с подмножеств8 , и этот экспоненциальный рост при большом п. просто давит. Например, скрупулезный поиск лучшего набора из пяти групп в случае 100 выборок потребует рассмотрения более чем 1067 разделений. Поэтому в большинстве применений перебор практически невозможен.
Наиболее часто используемым подходом для поиска оптимального разделения является итеративная оптимизация. Основная идея заключается в нахождении некоторого разумного начального разделения и в «передвижении» выборок из одной группы в другую, если это передвижение улучшает функцию критерия. Как и процедуры подъема на вершину к общем случае, такой подход гарантирует локальный, но не глобальный максимум. Различные начальные точки могут привести к разным решениям, и никогда не известно, было ли найдено лучшее решение. Несмотря на эти ограничения, вычислительные требования выполнимы, и такой подход приемлем.
Рассмотрим использование итеративного улучшения для минимизации критерия суммы квадратов ошибок Je, записанного как
здесь
где
Предположим, что выборка находящаяся в данный момент группеXi, передвигается в группу Xj. Тогда mj, изменяется на
и Jj увеличивается на
Приняв предположение, чтоni1 (одиночных групп в разбиении не должно быть), такое же вычисление показывает, что mi изменяется на
и Ji уменьшается:
Эти соотношения значительно упрощают вычисления изменения функции критерия. Переход изXi в Xj положителен, если уменьшение Ji, больше, чем увеличение Jj. Это случай, если
что обычно получается, когдаближе к mj чем к mi. Если перераспределение выгодно, наибольшее уменьшение в сумме квадратов ошибок достигается выбором группы, для которой ni/(nj+1)|| x`- mj||2 минимально. Это приводит к следующей процедуре группировки:
Процедура: Базовая Минимальная Квадратичная Ошибка
1. Выбрать первоначальное разделение выборок на группы
и вычислить Je и средние m1,…, mc
Цикл: 2. Выбрать следующую выборку - кандидата на передвижение . Предполагается, чтонаходится вXi.
3. Если ni=1, перейти к Следующий; иначе вычислить
4. Передвинуть вXk если kj для всех j.
5. Вновь вычислить Je, mi и mk.
Следующий: 6. Если Je не изменилось после п попыток, останов;
иначе перейти к Цикл.
Если эту процедуру сравнить с процедурой Базовые Изоданные, описанной в п. 6.4.4, то ясно, что первая процедура в основном представляет собой последовательный вариант второй. Тогда как процедура Базовые Изоданные ждет, пока все п выборок будут перегруппированы перед обновлением значений, процедура Базовая Минимальная Квадратичная Ошибка обновляет значения после перегруппировки каждой выборки. Экспериментально было замечено, что эта процедура более чувствительна к локальным минимумам; другой ее недостаток состоит в том, что результаты зависят от порядка, в котором выбираются кандидаты. Однако это по крайней мере пошаговая оптимальная процедура, и ее легко модифицировать для применения к задачам, в которых выборки получаются последовательно, а группировка должна производиться в масштабе реального времени.
Общая проблема для всех процедур подъема на вершину — это выбор начальной точки. К сожалению, не существует простого универсального решения этой проблемы. Один из подходов — взять с произвольных выборок в качестве центров групп и использовать их для разделения данных на основе минимума расстояния. Повторения с различными случайными выборками в качестве центров могут дать некоторое представление о чувствительности решения к выбору начальной точки. Другой подход состоит в нахождении начальной точки для с-й группы из решения задачи с (с—1) группами. Решение для задачи с одной группой — это среднее по всем выборкам; начальная точка для задачи с с группами может быть средняя для задачи с (с—1) группами плюс выборка, которая находится дальше всех от ближайшего центра группы. Этот подход подводит нас к так называемым иерархическим процедурам группировок, которые простыми методами дают возможность получить очень хорошие начальные точки для итерационной оптимизации.