
- •1.Случайные события и операции над ними.
- •3.Частота и вероятность.
- •5.Геометрические вероятности и статистическая вероятность.
- •6.Теоремы сложения и умножения вероятностей.
- •7.Условная вероятность.
- •8.Независимость событий.
- •9.Формулы полной вероятности и байеса.
- •10.Последовательность независимых повторных испытаний.
- •11.Формула бернулли.
- •12.Найвероятнейшее число успехов в схеме бернулли.
- •14.Локальная и интегральная формулы муавра-лапласа.
- •15.Случайные величины и их классификация.
- •16.Дискретные и непрерывные величины.
- •17.Законы распределения св.
- •18.Функция распределения и ее свойства.
- •19.Плотность распределения нсв и ее свойства.
- •20.Математическое ожидание и дисперсия св.
- •21.Мода и медиана.
- •22.Моменты св.
- •23.Асимметрия и эксцесс.
- •24.Функции случайных величин.
- •25.Биномиальный закон распеределения.
- •26.Закон пуассона.
- •27.Геометрическое и гипергеометрическое распределение.
- •32.Распределения «хи-квадрат», стьюдента и фишера-снедекора.
- •33.Многомерные св.
- •34.Зависимые и независимые св.
- •35.Корреляционный момент и коэффициент корреляции.
- •36.Неравенства маркова и чебышева.
- •37.Теоремы чебышева и бернулли.
- •38.Центральная предельная теорема.
- •39.Предмет математической статистики.
- •40.Генеральная и выборочная совокупности.
- •41.Вариационный ряд и его характеристики.
- •42.Точечное и интервальное оценивание параметров генеральной совокупности.
- •43.Предельная ошибка и необходимый объем выборки.
- •44.Статистические гипотезы.
- •45.Уровень значимости и мощность критерия.
- •46.Проверка статистических гипотез.
- •47.Критерии согласии пирсона и колмогорова.
- •48.Основные понятия дисперсионного анализа.
- •51.Линейная корреляционная зависимость и линии регрессии.
- •52.Проверка значимости уравнения и коэффициентов уравнения регрессии.
- •53.Ранговая корреляция.
32.Распределения «хи-квадрат», стьюдента и фишера-снедекора.
В качестве меры расхождения между эмпирическими частотами (ni) и теоретическими (ni’) для i(1,m) используют критерий Пирсона.
χ2=
(ni-n*pi)2/npi
Дифференциальная функция распределения χ2 с v=n степенями свободы задается формулой:
f(χ2)=1/(2n/2*Г(n/2))* (χ2)(n/2-1)*ex^2/2
где Г(х) – гамма, функция Эйлера.
Г(х)=
Согласно теореме Пирсона при n→∞, статистика χ2 имеет χ2 распределение k=l-r-1.
Пусть Х, Х1, Х2,…,Хk – независимые нормально распределенные СВ с нулевыми математическими ожиданиями и одинаковыми дисперсиями. Безразмерная величина t:
t=X/
=X/
,
называется дробью Стьюдента.
Дифференциальная функция t-распределения с v=k степенями свободы задается формулой:
f(t)=(Г((k+1)/2))/
*(k/2))*(1+t2/k)(k+1)/2
Пусть Х1, Х2,…,Хm и Y1, Y2,…,Yn одинаково распределенные по нормальному закону СВ, являющиеся взаимно независимыми, для которых математическое ожидание равно нулю, а среднеквадратическое отклонение равно единице. Дробь Фишера:
F(m,n)=(χ2m/m)/(χ2n/n), она имеет F-распределение с ν1=m – числом степеней свободы числителя, и ν2=n – числом степеней свободы знаменателя, которое называется распределением Фишера-Снедекора.
33.Многомерные св.
Многомерной СВ называется набор из n-штук СВ (Х1, Х2,…,Хn)
Т.к. каждая СВ Хi из этого набора есть функция от элементарных исходов, то многомерная СВ Х=(Х1, Х2,…,Хn) также есть функция от элементарных исходов, отображающая множество всех элементарных исходов Ω в множестве наборов Ʀn
Х:ωϵΩ→(Х1, Х2,…,Хn)ϵ Ʀn
Если СВ Х и Y дискретные, то двумерная СВ (х,у) также дискретная.
ЗР двумерной СВ называется множество ее значений и соответствующие вероятности этих значений.
Pij=P(X=xi, Y=yj)
Функция распределения двумерной СВ: F(x,y)=P(X<x, Y<y)
34.Зависимые и независимые св.
СВX и Y называются независимыми, если их совместная функция распределения f(x,y)=F1(x)*F2(y), в противном случае зависимые.
35.Корреляционный момент и коэффициент корреляции.
Ковариацией (корреляционным моментом) двух СВX и Y называется математическое ожидание произведения отклонения этих СВ от их математических ожиданий и обозначается: cov(x,y)
Cov(x,y)=M((X-MX)*(Y-MX))
Свойства ковариации:
1)симметричность cov(x,y)=cov(y,x)
2)cov(x,x)=DX
3) Если СВ независимые, то cov(x,y)=0, обратное неверно.
Коэффициентом корреляцииСВX и Y называется число равное r(x,y)=cov(x,y)/Ϭx* Ϭy
Свойства коэффициента корреляции:
1)Для любых 2 дискретных СВX и Y, -1≤r(x,y)≤1
2) Если СВ Х и Y независимы, то r(x,y)=0
3)Если r(x,y)=0, то говорят, что СВ Х и Y не коррелированы, что не означает их независимости вообще; в других случаях СВ называются коррелированными.
36.Неравенства маркова и чебышева.
Неравенство Маркова. Если для СВ Х существует M|X|<+∞, то для любого ε>0 верно неравенство:
Р(|X|≥ε)≤M|X|/ε
Обобщенное неравенство Чебышева. Пусть функция g монотонно возрастает и неотрицательна на полуинтервале [0; +∞), если для СВ Х существует M(g(|X|))<+∞, то для любого ε<0 верно неравенство:
Р(|X|≥ε)≤M(g(|X|))/g(ε)
Неравенство
Чебышева. Для
СВ Х существует математическое ожидание
ее квадрата и оно конечно МХ2<+∞,
то для любого
Ϭ>0,
верно:
Р(|X-MX|)<Ϭ)≤DX/Ϭ2