- •2)) Статистическое и классическое определение вероятности. Свойства вероятностей.
- •3)) Условные вероятности. События зависимые и независимые. Теорема умножения вероятностей.
- •4)) Теорема сложения вероятностей. Формула полной вероятности.
- •5)) Схема независимых испытаний. Формула Бернулли.
- •6))Формула Пуассона. Понятие о простейшем потоке событий.
- •7)) Случайные величины дискретные и непрерывные. Понятие о законе распределения. Примеры дискретных законов распределения (биномиальный, пуассоновский, гипергеометрический)
- •10)) Дисперсия и ее свойства. Среднее квадратическое отклонение.
- •11))Нормальный закон распределения, вероятностный и геометрический смысл его параметров.
- •12)) Системы случайных величин. Функциональная и статистическая зависимости. Корреляционная зависимость. Лин. Корреляция. Коэф. Корреляции и его св-ва. Системы случайных величин
- •Коэффициент корреляции Пирсона(линейная корреляция)
- •12)) (Продолжение)
- •13)) Функции случайных величин.
- •15)) Закон больших чисел. Неравенство Чебышева. Теоремы Чебышева и Бернулли.
- •16)) Предмет математической статистики. Точечные оценки. Свойства точечных оценок. Оценки для математического ожидания и дисперсии. Методы оценивания (метод моментов, метод наибольшего правдоподобия).
- •16)) (Продолжение)
- •17)) Понятие о доверительных интервалов. Доверительный интервал для математического ожидания. Доверительный интервал для вероятности события.
- •17)) Продолжение
- •18))Проверка статистических гипотез. Критерии согласия «хи-квадрат».
- •19))Проверка параметрических гипотез. Лемма Неймана-Пирсона.
- •20)) Понятие о регрессивном анализе. Изучения корреляционной зависимости на основе опытных данных. Метод наименьших квадратов.
10)) Дисперсия и ее свойства. Среднее квадратическое отклонение.
Дисперсией
случайной величины называется
математическое ожидание квадрата ее
отклонения от математического
ожидания
D(X)
= M(X
–М(Х))2.
Дисперсию случайной величины Х
удобно вычислять по формуле:
а) для дискретной величины
;
б) для непрерывной
случайной величины
j(х)dx
– [M(X)]2
.
Дисперсия обладает
следующими свойствами:
1. D(C)
= 0, где С
= const;
2. D(C×X)
= C2∙D(X);
3. D(X±Y)
= D(X)
+ D(Y),
если X
и Y
независимые случайные величины.
Средним
квадратическим отклонением
случайной величины Х
называется арифметический корень из
дисперсии, т.е.
σ(X)
=
.
Заметим, что размерность σ(х)
совпадает с размерностью самой случайной
величины Х,
поэтому среднее квадратическое отклонение
более удобно для характеристики
рассеяния.
Обобщением
основных числовых характеристик
случайных величин является понятие
моментов случайной величины.
11))Нормальный закон распределения, вероятностный и геометрический смысл его параметров.
12)) Системы случайных величин. Функциональная и статистическая зависимости. Корреляционная зависимость. Лин. Корреляция. Коэф. Корреляции и его св-ва. Системы случайных величин
Упорядоченная пара (X,Y) случайных величин X и Y наз-ся двумер. сл. вел., или сл. вектором двумер. простр-ва. Двумер. сл. вел. (X,Y) наз-ся также системой сл. вел. X и Y. Мн-во всех возм. зн. дискр. сл. вел. с их вер-ми наз-ся законом распределения этой сл. вел Дискр. двумерн. Сл. вел. (X,Y) считается заданной, если известен ее закон распределения: P(X=xi, Y=yj) = pij, i=1,2...,n, j=1,2...,m.
Под функциональной зависимостью понимается зависимость, когда каждому значению аргумента X соответствует четко определенное значение (или несколько значений) функции Y. В случае стохастической (вероятностной, статистической) зависимости кажд. значению арг. X соотв. мн-во знач. Ф-ии Y, причем значения функции распределяются по законам тер вера. Корреляционная зависимость явл частным случаем стохастической завис, при которой функциональн. зависимостью связаны аргумент X и среднее значение функции Ỹ. Корреляционный анализ позволяет измерить стат. Завис. (уровень влияния аргумента на функцию). Измерителем явл. коэф. корреляции.
Коэффициент корреляции Пирсона(линейная корреляция)
Линейный корреляционный анализ позволяет установить прямые связи между переменными вел. по их абсолютным знач-ям. Ф-ла расчета коэф. корреляции построена таким образом, что если связь между признаками имеет линейный характер, коэф. Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона.
Формула для подсчета коэффициента корреляции в общем виде:
где
-
значения, принимаемые переменной X,
12)) (Продолжение)
-
значения, принимаемые переменой Y,
-
средняя по X,
-
средняя по Y.
Расчет
коэффициента корреляции Пирсона
предполагает, что переменные
и
распределены
нормально.
Даная
формула предполагает, что из каждого
значения
переменной
X, должно вычитаться ее среднее значение
.
Это не удобно, поэтому для расчета
коэффициента корреляции используют не
данную формулу, а ее аналог, получаемый
с помощью преобразований:
Коэффициентом
корреляции
случайных
величин
и
называют
отношение корреляционного момента к
произведению средних квадратических
отклонений этих величин:
Очевидно,
коэффициент корреляции двух независимых
случайных величин равен нулю (так как
).
Св-ва коэффициента корреляции
1. Коэффициент корреляции может принимать значения в интервале от -1 до +1 и равен +1 или -1 тогда, и только тогда, когда все точки диаграммы лежат на прямой линии, т. е. в этом случае имеем функциональную зависимость.
2. Линейные преобразования, сводящиеся к изменению масштаба или начала отсчета случайных величин Х и У, не изменяют значения коэффициента корреляции
3. Коэффициент корреляции между независимыми случайными величинами Х и Y равен нулю. Обратное утверждение неверно, т. е. из равенства нулю коэффициента корреляции не следует независимость случайных величин Х и Y. Если r(X,Y) = 0, то Х и Y называются некоррелированными.
