- •Коэффициент корреляции Пирсона
- •Подготовка к факторному анализу
- •Нахождение первичной структуры факторов Метод главных компонент
- •Алгоритм nipals вычисления главных компонент
- •6. Применение метода pls для анализа данных
- •7. Использование подходов когнитивности моделирования для работы с данными
- •8. Использование возможностей сетей Кохонена для анализа данных
- •9. Использование возможностей нейронных сетей для анализа данных
- •10. Взаимосвязь между корреляцией параметров и системой координат
- •11. Многопараметрический регрессионный анализ
- •12. Интерполяция и экстраполяция данных
- •13. Методы вариационного анализа данных Вариационный анализ (показатели вариации абсолют и относит.)
- •16. Возможности Rapid Miner для работы с данными.
- •17. Возможности ibm Modeler (Clementine) для работы с данными.
- •18. Возможности Smart pls для работы с данными.
- •19 Microsoft Excel. Понятия и возможности
10. Взаимосвязь между корреляцией параметров и системой координат
Для графического представления корреляционной связи можно использовать прямоугольную систему координат с осями, которые соответствуют обеим переменным. Каждая пара значений маркируется при помощи определённого символа. Такой график называется диаграммой рассеяния.
Диаграмма рассеяния (также точечная диаграмма, англ.scatterplot) — математическая диаграмма, изображающая значения двух переменных в виде точек надекартовой плоскости.
На диаграмме рассеяния каждому наблюдению (или элементарной единице набора данных) соответствует точка, координаты которой (в декартовой системе координат) равны значениям двух каких-то параметров этого наблюдения. Если предполагается, что один из параметров зависит от другого, то обычно значения независимого параметра откладывается по горизонтальной оси, а значения зависимого — по вертикальной. Диаграммы рассеяния используются для демонстрации наличия или отсутствия корреляциимежду двумя переменными.
11. Многопараметрический регрессионный анализ
Регрессио́нный анализ — статистический метод исследования влияния одной или нескольких независимых переменных на зависимую переменную . Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.
Цели регрессионного анализа
Определение степени детерминированностивариациикритериальной (зависимой) переменнойпредикторами(независимыми переменными)
Предсказание значения зависимой переменной с помощью независимой(-ых)
Определение вклада отдельных независимых переменных в вариацию зависимой
Регрессионный анализ нельзя использовать для определения наличия связи между переменными, поскольку наличие такой связи и есть предпосылка для применения анализа.
Строго регрессионную зависимость можно определить следующим образом. Пусть — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значенийопределеноусловное математическое ожидание
(уравнение регрессии в общем виде),
то функция называетсярегрессией величины по величинам, а еёграфик—линией регрессии по, илиуравнением регрессии.
Зависимость отпроявляется в изменении средних значенийпри изменении. Хотя при каждом фиксированном наборе значенийвеличинаостаётсяслучайной величинойс определённымраспределением.
Для выяснения вопроса, насколько точно регрессионный анализ оценивает изменение при изменении, используется средняя величинадисперсиипри разных наборах значений(фактически речь идет о мере рассеяния зависимой переменной вокруг линии регрессии).
В матричной форме уравнение регрессии (УР) записывается в виде: , где— матрица ошибок. При обратимой матрице X◤X получается вектор-столбец коэффициентов B с учётом U◤U=min(B). В частном случае для Х=(±1) матрица X◤X является рототабельной, и УР может быть использовано при анализе временны́х рядов и обработке технических данных.