
- •1. Основные понятия теории вероятностей
- •1.1. Распределения вероятностей
- •Непрерывной случайной величины х
- •1.1.2. Теоретические распределения вероятностей
- •Распределения Пирсона
- •1.3. Моделирование реализации случайных процессов
- •2 Экспериментальные факторные математические модели
- •2.1. Особенности экспериментальных факторных моделей
- •2.1.1. Основные принципы планирования эксперимента
- •2.1.2 План эксперимента
- •2.2. Регрессионный анализ
- •2.2.1. Оценка параметров регрессионной модели
- •2.3. Корреляционный анализ
- •2.3.1. Основные понятия
- •3.2.1. Точечные оценки параметров
- •2.3.3. Приемы вычисления выборочных
- •2.3.4. Проверка значимости параметров связи
- •2.3.5. Интервальные оценки параметров связи
- •2.4. Трехмерная модель
- •2.4.1. Основные параметры модели
- •Условное распределение при заданном z
- •Условное распределение при заданном (х, у)
- •2.4.2. Оценивание и проверка значимости параметров
- •3. Методы многомерной классификации
- •3.1. Классификация без обучения. Кластерный анализ
- •3.1.1. Основные понятия
- •3.1.2. Расстояние между объектами и мера близости
- •Расстояние махаланобиса (общий вид)
- •Обычное евклидово расстояние
- •"Взвешенное" евклидово расстояние
- •Хеммингово расстояние
- •3.1.3. Расстояние между кластерами
- •3.1.4. Функционалы качества разбиения
- •3.1.5. Иерархические кластер-процедуры
- •3.2. Дискриминантный анализ
- •3.2.1. Методы классификации с обучением
- •3.2.2. Линейный дискриминантный анализ
- •3.2.3. Дискриминантный анализ при нормальном законе распределения показателей
3.2.3. Дискриминантный анализ при нормальном законе распределения показателей
Имеются две генеральные совокупности Х и У, имеющие трехмерный нормальный закон распределения с неизвестными, но равными ковариационными матрицами. Из них взяты обучающие выборки с объемами n1yX и n2yY.
(157)
(158)
Целью дискриминантного анализа является отнесение нового наблюдения (строки матрицы Z) либо к X, либо к Y.
(159)
Для решения задачи по обучающим выборкам определим векторы средних:
1. Определим оценки ковариационных матриц:
Найдем элемент матрицы Sх:
где
и
— средние
значения.
2. Рассчитаем несмещенную оценку суммарной ковариационной матрицы:
3.
Определим матрицу
,
обратную к
4.
Вычислим вектор оценок коэффициентов
дискриминантной функции
5.
Рассчитаем оценки векторов значений
дискриминантной функции для матриц
исходных данных
.
6. Вычислим средние значения оценок дискриминантной функции:
7.
Определим константу
Дискриминантную функцию для v-ого наблюдения, подлежащего дискриминации, получим, решив уравнение
Если
,
тоv-е
наблюдение надо отнести к совокупности
х,
если же
,
тоv
-е наблюдение следует отнести к
совокупности у.