- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •39. Вычисление теоретических частот для нормального распределения.
- •40. Сравнение дисперсий двух нормальных выборок.
- •43. Критерий Манна-Уитни.
- •44. Парная регрессия.
- •45. Парный коэффициент корреляции, его свойства.
- •46. Проверка гипотез о достоверности выборочного коэффициента корреляции.
- •47. Нелинейная парная регрессия.
10. Плотность распределения вероятностей и ее свойства.
Опр. Плотностью распределения вероятностей Св называется производная функции распределения:
.
Свойства плотности вероятности:
1., , так как это производная неубывающей функции.
2. , т.к.
3. .
Следует из определения и свойства 2.
4. Свойство нормировки:
.
В частности, если все возможные значения случайной величины заключены в интервале от a до b, то
.
Опр. СВ называется распределенной по равномерному закону, если ее плотность вероятности принимает постоянное значение в пределах заданного интервала, а вне этого интервала равна нулю
11. Математическое ожидание и его свойства.
Для ТВ и ее приложений большую роль играют некоторые неслучайные числа, вычисленные на основании законов распределения случайных величин.
Опр Мат. Ожид. дискретной СВ с законом распределения , , называется сумма ряда
, (9.1)
если этот ряд сходится абсолютно.
характеризует среднее значение случайной величины, взвешенное по вероятности.
Опр. М непрерывной СВ с плотностью вероятности называется интеграл
= (9.2)
если он сходится абсолютно., если М=+-беск, то говорят, что м не сущ.
Свойства м
1. , c=const
2. М суммы СВ равно сумме их м о-ний:
.
3. Для независимых СВ и М произведения равно произведению М-ний
=.
Следовательно, если а =const
12. Дисперсия и ее свойства.
Дисперсией называется математическое ожидание квадрата отклонения случайной величины от своего мат. ожидания.
Выполним преобразования:
,
.
Для дискретной случайной величины с законом распределения xi pi дисперсия равна
D=
Для непрерывной случайной величины с плотностью вероятности дисперсия равна
.
Следовательно дисперсия характеризует рассеяние возможных значений вокруг своего математического ожидания.
Средним квадратическим отклонением называется корень квадратный из дисперсии.
Свойства дисперсии
1.DC=0, c=const. Т.к. D(C)=M(C-M(C))2=M(C-C2)=0
2. Для независимых случайных величин дисперсия суммы равна сумме дисперсий.
Следствие
Постоянный множитель выносится за знак дисперсии в квадрате
.
3. Если и = const, то
, т.е.
.
13. Коэффициент корреляции и ковариация.
Коэффициентом корреляции называется
p(1, 2)=
Свойства
1.
2. если 1 и 2 независимы, то коэффициент корреляции равен 0. Обратное не верно. Если p=0, то говорят, что 1 и 2 некоррелированы.
3.если 1 и 2 связаны линейной функциональной зависимостью 2= a+b1, то в этом случае [p(1, 2)]=1
cov (1, 2) =M [ (1 - M1)(a + b1 – a - bM1)]=bM(1 - M1)2=bD1
Если , то говорят, что 1 и 2 связаны корреляционной зависимостью, тем более тесной, чем ближе к 1.
Коэффициент корреляции служит для количественной характеристики зависимости между случайными величинами.
Если , то говорят, что зависимость близка к линейной.
Ковариацией случайных величин
Cov(1, 2)=M[(1-M1)( 2-M2)]
Называется мат. Ожидание. произведения отклонений случайных величин от своих МО.
Свойства ковариации
1. cov(1, 1)=M(1-M1)2=D1
2. для независимых случайных величин коэффициент ковариации равен 0
cov (1, 2)=M1M2-M1M2=0
Но обратное не верно. Т.е. можно привести пример, когда коэфф. ковариации равен 0, но случайные величины зависимы.
3.
4. cov (C1, 2)=C cov (1, 2)
Ковариация является качественной характеристикой зависимости случайных величин.