- •Коэффициент корреляции Пирсона
- •Подготовка к факторному анализу
- •Нахождение первичной структуры факторов Метод главных компонент
- •Алгоритм nipals вычисления главных компонент
- •6. Применение метода pls для анализа данных
- •7. Использование подходов когнитивности моделирования для работы с данными
- •8. Использование возможностей сетей Кохонена для анализа данных
- •9. Использование возможностей нейронных сетей для анализа данных
- •10. Взаимосвязь между корреляцией параметров и системой координат
- •11. Многопараметрический регрессионный анализ
- •12. Интерполяция и экстраполяция данных
- •13. Методы вариационного анализа данных Вариационный анализ (показатели вариации абсолют и относит.)
- •16. Возможности Rapid Miner для работы с данными.
- •17. Возможности ibm Modeler (Clementine) для работы с данными.
- •18. Возможности Smart pls для работы с данными.
- •19 Microsoft Excel. Понятия и возможности
10. Взаимосвязь между корреляцией параметров и системой координат
Для графического представления корреляционной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определённого символа. Такой график называется диаграммой рассеяния.
Диаграмма рассеяния (также точечная диаграмма, англ.scatterplot) — математическая диаграмма, изображающая значения двух переменных в виде точек надекартовой плоскости.
На диаграмме рассеяния каждому наблюдению (или элементарной единице набора данных) соответствует точка, координаты которой (в декартовой системе координат) равны значениям двух каких-то параметров этого наблюдения. Если предполагается, что один из параметров зависит от другого, то обычно значения независимого параметра откладывается по горизонтальной оси, а значения зависимого — по вертикальной. Диаграммы рассеяния используются для демонстрации наличия или отсутствия корреляциимежду двумя переменными.
11. Многопараметрический регрессионный анализ
Регрессио́нный
анализ — статистический
метод исследования
влияния одной или нескольких независимых
переменных
на зависимую
переменную
.
Независимые переменные иначе называют
регрессорами или предикторами, а
зависимые переменные — критериальными.
Терминология зависимых и независимых переменных
отражает лишь математическую зависимость
переменных (см. Ложная
корреляция),
а не причинно-следственные отношения.
Цели регрессионного анализа
Определение степени детерминированностивариациикритериальной (зависимой) переменнойпредикторами(независимыми переменными)
Предсказание значения зависимой переменной с помощью независимой(-ых)
Определение вклада отдельных независимых переменных в вариацию зависимой
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.
Строго
регрессионную зависимость можно
определить следующим образом. Пусть
—
случайные величины с заданным совместным
распределением вероятностей. Если для
каждого набора значений
определеноусловное
математическое ожидание
(уравнение
регрессии в общем виде),
то
функция
называетсярегрессией величины
по
величинам
,
а еёграфик—линией
регрессии
по
,
илиуравнением
регрессии.
Зависимость
от
проявляется
в изменении средних значений
при
изменении
.
Хотя при каждом фиксированном наборе
значений
величина
остаётсяслучайной
величинойс определённымраспределением.
Для
выяснения вопроса, насколько точно
регрессионный анализ оценивает
изменение
при
изменении
,
используется средняя величинадисперсии
при
разных наборах значений
(фактически
речь идет о мере рассеяния зависимой
переменной вокруг линии регрессии).
В
матричной форме уравнение регрессии
(УР) записывается в виде:
,
где
—
матрица ошибок. При обратимой матрице
X◤X
получается вектор-столбец коэффициентов
B с учётом U◤U=min(B).
В частном случае для Х=(±1) матрица X◤X
является рототабельной, и УР может быть
использовано при анализе временны́х
рядов и обработке технических данных.
