
- •1. Случайные события.
- •2. Классическое определение вероятности и ее свойства.
- •5. Условная вероятность. Независимость событий.
- •6. Формула полной вероятности. Формула Байеса.
- •7. Схема независимых испытаний Бернулли.
- •8. Предельные теоремы в схеме Бернулли.
- •10. Плотность распределения вероятностей и ее свойства.
- •11. Математическое ожидание и его свойства.
- •Свойства м
- •12. Дисперсия и ее свойства.
- •13. Коэффициент корреляции и ковариация.
- •14. Моменты.
- •15. Основные дискретные распределения случайных величин.
- •1. Биноминальное распределение.
- •18. Двумерная функция распределения и ее свойства.
- •19. Двумерная плотность вероятности и ее свойства.
- •20. Независимость случайных величин
- •21. Условный закон распределения.
- •22. Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24. Центральная предельная теорема.
- •25. Выборочный метод.
- •26.Эмпирическая функция распределения и её свойства.
- •27. Полигон и гистограмма.
- •28. Числовые характеристики выборки.
- •29. Точечное оценивание.
- •32. Доверительные интервалы.
- •33. Распределение х2 Стьюдента и Фишера.
- •34. Доверительные интервалы для оценки математического ожидания при известном .
- •35. Доверительные интервалы для оценки матожидания нормального распределения при неизвестном .
- •36. Проверка статистических гипотез.
- •37. Построение критической области.
- •38. Критерий согласия Пирсона.
- •39. Вычисление теоретических частот для нормального распределения.
- •40. Сравнение дисперсий двух нормальных выборок.
- •43. Критерий Манна-Уитни.
- •44. Парная регрессия.
- •45. Парный коэффициент корреляции, его свойства.
- •46. Проверка гипотез о достоверности выборочного коэффициента корреляции.
- •47. Нелинейная парная регрессия.
10. Плотность распределения вероятностей и ее свойства.
Опр. Плотностью
распределения
вероятностей Св
называется производная
функции распределения:
.
Свойства плотности вероятности:
1.,
,
так как это производная неубывающей
функции.
2.
,
т.к.
3.
.
Следует из определения и свойства 2.
4. Свойство нормировки:
.
В частности, если все возможные значения случайной величины заключены в интервале от a до b, то
.
Опр. СВ называется распределенной по равномерному закону, если ее плотность вероятности принимает постоянное значение в пределах заданного интервала, а вне этого интервала равна нулю
11. Математическое ожидание и его свойства.
Для ТВ и ее приложений большую роль играют некоторые неслучайные числа, вычисленные на основании законов распределения случайных величин.
Опр Мат.
Ожид.
дискретной
СВ
с законом распределения
,
,
называется сумма ряда
,
(9.1)
если этот ряд сходится абсолютно.
характеризует
среднее значение случайной величины,
взвешенное по вероятности.
Опр.
М
непрерывной
СВ с
плотностью вероятности
называется интеграл
=
(9.2)
если он сходится абсолютно., если М=+-беск, то говорят, что м не сущ.
Свойства м
1.
,
c=const
2. М суммы СВ равно сумме их м о-ний:
.
3. Для независимых
СВ
и
М произведения равно произведению М-ний
=
.
Следовательно, если а =const
12. Дисперсия и ее свойства.
Дисперсией
называется
математическое ожидание квадрата
отклонения случайной величины
от
своего мат. ожидания.
Выполним преобразования:
,
.
Для дискретной случайной величины с законом распределения xi pi дисперсия равна
D=
Для непрерывной
случайной
величины
с
плотностью вероятности
дисперсия равна
.
Следовательно
дисперсия характеризует рассеяние
возможных значений
вокруг своего математического ожидания.
Средним квадратическим отклонением называется корень квадратный из дисперсии.
Свойства дисперсии
1.DC=0, c=const. Т.к. D(C)=M(C-M(C))2=M(C-C2)=0
2. Для независимых
случайных величин дисперсия суммы равна
сумме дисперсий.
Следствие
Постоянный множитель выносится за знак дисперсии в квадрате
.
3. Если
и
=
const,
то
,
т.е.
.
13. Коэффициент корреляции и ковариация.
Коэффициентом корреляции называется
p(1,
2)=
Свойства
1.
2. если
1
и
2
независимы, то коэффициент корреляции
равен 0. Обратное не верно. Если p=0,
то говорят, что
1
и
2
некоррелированы.
3.если
1
и
2
связаны линейной функциональной
зависимостью
2=
a+b
1,
то в этом случае [p(
1,
2)]=1
cov (1,
2)
=M [ (
1
-
M
1)(a
+ b
1
–
a - bM
1)]=bM(
1
-
M
1)2=bD
1
Если
,
то говорят, что
1
и
2
связаны
корреляционной зависимостью, тем более
тесной, чем ближе
к 1.
Коэффициент корреляции служит для количественной характеристики зависимости между случайными величинами.
Если
,
то говорят, что зависимость близка к
линейной.
Ковариацией случайных величин
Cov(1,
2)=M[(
1-M
1)(
2-M
2)]
Называется мат. Ожидание. произведения отклонений случайных величин от своих МО.
Свойства ковариации
1. cov(1,
1)=M(
1-M
1)2=D
1
2. для независимых случайных величин коэффициент ковариации равен 0
cov
(1,
2)=M
1M
2-M
1M
2=0
Но обратное не верно. Т.е. можно привести пример, когда коэфф. ковариации равен 0, но случайные величины зависимы.
3.
4. cov
(C1,
2)=C
cov
(
1,
2)
Ковариация является качественной характеристикой зависимости случайных величин.