- •1)) Табличные и графические формы представления данных, их построение и анализ
- •2)) Обработка и анализ нечисловых (категорийных) данных с помощью сводных таблиц
- •4)) Методы группировки данных
- •5)) Методы группировки данных с помощью функции частота
- •7)) Показатели изменения уровней ряда динамики
- •9)) Методы сглаживания динамических рядов
- •10)) Аналитическое выравнивание динамического ряда. Виды трендовых моделей
- •Трендовые модели прогнозирования
- •12)) Автокорреляция уровней ряда. Свойства коэффициентов автокорреляции. Коррелограмма
- •13)) Сезонные колебания. Расчетов индексов сезонности.
- •14)) Построение аддитивных и мультипликативных моделей прогнозирования
- •15)) Доверительные интервалы прогноза. Оценка адекватности и точности моделей
- •17)) Создание файлов данных. Элементы описательной статистики в ппп statistica
- •18)) Представление многомерных данных в пакете statistica Стандартизация данных.
- •19)) Определение и экономическая интерпретация коэффициентов корреляции и детерминация Построение корреляционной матрицы в пакете statistica и её анализ, средствами пакета
- •Коэффициент корреляции Пирсона
- •20)) Многомерный регрессионный анализ в пакете statistica: Определение коэффициентов уравнения регрессии, оценка адекватности уравнения и оценка параметров и остатков
- •21)) Понятие кластерного анализа и области его применения
- •22)) Основные способы определения расстояний между объектами. Методы разбиения на кластеры
- •23))Математические характеристики кластера
- •24))Методика объединения (разбиения) в кластеры по иерархическому агломеративному методу. Дендограмма
- •25))Технология выполнения метода к- средних. Описания графика средних
- •26))Проверка статистической значимости построенных кластеров
- •27)) Дисперсионный анализ результатов метода к – средних
23))Математические характеристики кластера
Кластер имеет следующие математические характеристики: центр, радиус, среднеквадратическое отклонение, размер кластера
Центр кластера - это среднее геометрическое место точек в пространстве переменных.
Радиус кластера - максимальное расстояние точек от центра кластера
Как было отмечено в одной из предыдущих лекций, кластеры могут быть перекрывающимися. Такая ситуация возникает, когда обнаруживается перекрытие кластеров. В этом случае невозможно при помощи математических процедур однозначно отнести объект к одному из двух кластеров. Такие объекты называют спорными
Спорный объект - это объект, который по мере сходства может быть отнесен к нескольким кластерам
Размер кластера может быть определен либо по радиусу кластера, либо по среднеквадратичному отклонению объектов для этого кластера. Объект относится к кластеру, если расстояние от объекта до центра кластера меньше радиуса кластера. Если это условие выполняется для двух и более кластеров, объект является спорным
Работа кластерного анализа опирается на два предположения. Первое предположение - рассматриваемые признаки объекта в принципе допускают желательное разбиение пула (совокупности) объектов на кластеры. В начале лекции мы уже упоминали о сравнимости шкал, это и есть второе предположение - правильность выбора масштаба или единиц измерения признаков. Выбор масштаба в кластерном анализе имеет большое значение. Рассмотрим пример. Представим себе, что данные признака х в наборе данных А на два порядка больше данных признака у: значения переменной х находятся в диапазоне от 100 до 700, а значения переменной у - в диапазоне от 0 до 1. Тогда, при расчете величины расстояния между точками, отражающими положение объектов впространстве их свойств, переменная, имеющая большие значения, т.е. переменная х, будет практически полностью доминировать над переменной с малыми значениями, т.е. переменной у. Таким образом, из-за неоднородности единиц измерения признаков становится невозможно корректно рассчитать расстояния между точками. Эта проблема решается при помощи предварительной стандартизации переменных. Стандартизация (standardization) или нормирование (normalization) приводит значения всех преобразованных переменных к единому диапазону значений путем выражения через отношение этих значений к некой величине, отражающей определенные свойства конкретного признака. Существуют различные способы нормирования исходных данных. Два наиболее распространенных способа:
деление исходных данных на среднеквадратичное отклонение соответствующих переменных;
вычисление Z-вклада или стандартизованного вклада.
Наряду со стандартизацией переменных, существует вариант придания каждой из них определенного коэффициента важности, или веса, который бы отражал значимость соответствующей переменной. В качестве весов могут выступать экспертные оценки, полученные в ходе опроса экспертов - специалистов предметной области. Полученные произведения нормированных переменных на соответствующие веса позволяют получать расстояния между точками в многомерном пространстве с учетом неодинакового веса переменных
В ходе экспериментов возможно сравнение результатов, полученных с учетом экспертных оценок и без них, и выбор лучшего из них.
Методы кластерного анализа можно разделить на две группы:
иерархические;
неиерархические.
Каждая из групп включает множество подходов и алгоритмов.
Используя различные методы кластерного анализа, аналитик может получить различные решения для одних и тех же данных. Это считается нормальным явлением.
Рассмотрим иерархические и неиерархические методы подробно.
Метод Варда (Ward's method). В качестве расстояния между кластерами берется прирост суммы квадратов расстояний объектов до центров кластеров, получаемый в результате их объединения (Ward, 1963). В отличие от других методов кластерного анализа для оценки расстояний между кластерами, здесь используются методы дисперсионного анализа. На каждом шаге алгоритма объединяются такие два кластера, которые приводят к минимальному увеличению целевой функции, т.е. внутригрупповой суммы квадратов. Этот метод направлен на объединение близко расположенных кластеров и "стремится" создавать кластеры малого размера.
Квадрат евклидова расстояния.
Для придания больших весов более отдаленным друг от друга объектам можем воспользоваться квадратом евклидова расстояния путем возведения в квадрат стандартного евклидова расстояния.
Иерархический кластерный анализ в SPSS
Рассмотрим процедуру иерархического кластерного анализа в пакете SPSS (SPSS). Процедура иерархического кластерного анализа в SPSS предусматривает группировку как объектов (строк матрицы данных), так и переменных (столбцов) [54]. Можно считать, что в последнем случае роль объектов играют переменные, а роль переменных - столбцы.
В этом методе реализуется иерархический агломеративный алгоритм, смысл которого заключается в следующем. Перед началом кластеризации все объекты считаются отдельными кластерами, в ходе алгоритма они объединяются. Вначале выбирается пара ближайших кластеров, которые объединяются в один кластер. В результате количество кластеров становится равным N-1. Процедура повторяется, пока все классы не объединятся. На любом этапе объединение можно прервать, получив нужное число кластеров. Таким образом, результат работы алгоритма агрегирования зависит от способов вычисления расстояния между объектами и определения близости между кластерами.
