Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Тер-вер билеты.docx
Скачиваний:
3
Добавлен:
01.05.2025
Размер:
659.25 Кб
Скачать

10)) Дисперсия и ее свойства. Среднее квадратическое отклонение.

Дисперсией случайной величины называется математическое ожидание квадрата ее отклонения от математического ожидания      D(X) = M(XМ(Х))2.      Дисперсию случайной величины Х удобно вычислять по формуле:      а) для дискретной величины      ;      б) для непрерывной случайной величины      j(х)dx – [M(X)]2 .                                     Дисперсия обладает следующими свойствами:      1. D(C) = 0,   где С = const;      2. D(C×X) = C2D(X);      3. D(X±Y) = D(X) + D(Y), если X и Y независимые случайные величины.

Средним квадратическим отклонением случайной величины Х называется арифметический корень из дисперсии, т.е.      σ(X) = .      Заметим, что размерность σ(х) совпадает с размерностью самой случайной величины Х, поэтому среднее квадратическое отклонение более удобно для характеристики рассеяния.      Обобщением основных числовых характеристик случайных величин является понятие моментов случайной величины.

11))Нормальный закон распределения, вероятностный и геометрический смысл его параметров.

12)) Системы случайных величин. Функциональная и статистическая зависимости. Корреляционная зависимость. Лин. Корреляция. Коэф. Корреляции и его св-ва. Системы случайных величин

Упорядоченная пара (X,Y) случайных величин X и Y наз-ся двумер. сл. вел., или сл. вектором двумер. простр-ва. Двумер. сл. вел. (X,Y) наз-ся также системой сл. вел. X и Y. Мн-во всех возм. зн. дискр. сл. вел. с их вер-ми наз-ся законом распределения этой сл. вел Дискр. двумерн. Сл. вел. (X,Y) считается заданной, если известен ее закон распределения: P(X=xi, Y=yj) = pij, i=1,2...,n, j=1,2...,m.

Под функциональной зависимостью понимается зависимость, когда каждому значению аргумента X соответствует четко определенное значение (или несколько значений) функции Y. В случае стохастической (вероятностной, статистической) зависимости кажд. значению арг. X соотв. мн-во знач. Ф-ии Y, причем значения функции распределяются по законам тер вера. Корреляционная зависимость явл частным случаем стохастической завис, при которой функциональн. зависимостью связаны аргумент X и среднее значение функции Ỹ. Корреляционный анализ позволяет измерить стат. Завис. (уровень влияния аргумента на функцию). Измерителем явл. коэф. корреляции.

Коэффициент корреляции Пирсона(линейная корреляция)

Линейный корреляционный анализ позволяет установить прямые связи между переменными вел. по их абсолютным знач-ям. Ф-ла расчета коэф. корреляции построена таким образом, что если связь между признаками имеет линейный характер, коэф. Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона.

Формула для подсчета коэффициента корреляции в общем виде:

где - значения, принимаемые переменной X,

12)) (Продолжение)

- значения, принимаемые переменой Y,

- средняя по X,

- средняя по Y.

Расчет коэффициента корреляции Пирсона предполагает, что переменные и распределены нормально.

Даная формула предполагает, что из каждого значения переменной X, должно вычитаться ее среднее значение . Это не удобно, поэтому для расчета коэффициента корреляции используют не данную формулу, а ее аналог, получаемый с помощью преобразований:

Коэффициентом корреляции случайных величин и называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин: Очевидно, коэффициент корреляции двух независимых случайных величин равен нулю (так как ).

Св-ва коэффициента корреляции

1. Коэффициент корреляции может принимать значения в интервале от -1 до +1 и равен +1 или -1 тогда, и только тогда, когда все точки диаграммы лежат на прямой линии, т. е. в этом случае имеем функциональную зависимость.

2. Линейные преобразования, сводящиеся к изменению масштаба или начала отсчета случайных величин Х и У, не изменяют значения коэффициента корреляции

3. Коэффициент корреляции между независимыми случайными величинами Х и Y равен нулю. Обратное утверждение неверно, т. е. из равенства нулю коэффициента корреляции не следует независимость случайных величин Х и Y. Если r(X,Y) = 0, то Х и Y называются некоррелированными.