
шпоргалка / шпоры колоквиум по вышке2
.docxКоэффициент корреляции. В качестве числовой характеристики зависимости СВ берут безразмерную величину – коэффициент корреляции, который является оценкой влияния одной величины на другую. rxy=Kxy/σxσy=Kxy/√DX√DY. Свойства коэффициента корреляции. 1) По абсолютной величине не превосходит 1: -1<=rxy<=1. 2) Если коэффициенты Х и Y независимы, то rxy=0. 3) Если СВ связаны линейной зависимостью Y=αX+b, то !rxy!=1; при α>0 rxy=1, при α<0 rxy=-1. 4) Если !rxy!=1, то СВ связаны линейной функциональной зависимостью Y=αX+b. Для независимых СВ rxy=0, для линейно зависимых СВ !rxy!=1, для остальных случаев rxy€(-1;1). Корреляционный момент задают матрицей (Kxx Kxy; Kyx Kyy).
Регрессия. При изучении двумерной СВ часто рассматриваются числовые характеристики условного распределения. Условным МО одной СВ, входящей в систему, называется её МО, вычисленное при условии, что другая СВ приняла определённое значение. M(X!Y), M(Y!X). Для ДСВ M(Y!Xi)=∑j=1myiP(Yi!Xi), M(X!Yi)=∑i=1nxiP(Xi!Yi). Для НСВ M(Y!X)=∫-∞+∞yf(Y!X)dy, M(X!Y)=∫-∞+∞xf(X!Y)dx. Условное МО СВ Y при заданном значении Х=х называется регрессией Y на Х. Графики этих функций называются линиями регрессии. Если обе функции Y на Х и Х на Y линейны, то говорят, что СВ связаны корреляционной зависимостью. Если двумерная СВ распределена по нормальному закону, то СВ Х и Y связаны линейной корреляционной зависимостью – теорема о нормальной корреляции.
или к (M(x1)+…+M(xn))/n).