- •1. Детерминированные, неопределенные и случайные события. Понятие статистической однородности. Примеры.
- •2. Определение вероятности – классическое, частотное, теоретико-множественное (аксиоматическое). Иллюстрирующие примеры.
- •3. Операции над событиями. Несовместные и независимые события, условная вероятность. Примеры.
- •4. Теорема о вероятности суммы двух и трех событий (без док-ва, с геометрической иллюстрацией).
- •5. Теорема о вероятности произведения двух событий (без док-ва, для зависимых и незваисимых событий).
- •6. Формула полной вероятности (с док-вом).
- •7. Формула Байеса (с док-вом).
- •8. Схема повторных испытаний. Расчет вероятности хотя бы одного успеха. Формула Бернулли.
- •9. Наивероятнейшее число успехов в серии п испытаний (без вывода).
- •10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).
- •11. Случайные дискретные величины, их числовые характеристики.
- •12. Функция распределения и плотность вероятности случайных непрерывных величин. Их типовые графики. Расчет ф-ции распределения по плотности вероятности и наоборот.
- •13. Равномерное случайное распределение. Задача о встрече.
- •14. Показательный закон распределения, функция надежности.
- •15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.
- •16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.
- •17. Свойства математического ожидания одной и нескольких случайных величин.
- •18. Свойства дисперсии одной и нескольких случайных величин.
- •19. Математическое ожидание и дисперсия биномиального и пуассоновского случайных распределений.
- •24. Закон больших чисел (формулировка и применения).
- •25. Объяснить на примерах понятия «генеральная совокупность», «варианта», «выборка», «вариационный ряд». Принципы формирования выборочной совокупности.
- •26. Дискретный и интервальный вариационные ряды. Формула Стёрджеса. Как рассчитать среднюю величину признака интервального вариационного ряда?
- •27. Размах, мода и медиана выборки.
- •28. Полигон и кумулята. Графический способ нахождения моды интервального вариационного ряда.
- •29. Коэффициент концентрации Джини и кривая Лоренца.
- •30. Точечные и интервальные оценки параметров генеральной совокупности. Какая оценка параметра генеральной совокупности называется несмещенной, состоятельной (на примере мо)?
- •31. Построение доверительного интервала по большой выборке для математического ожидания генеральной совокупности при известной дисперсии. Вероятностный смысл заданного параметра надежности.
- •33. Построение доверительного интервала для дисперсии при условии, что признак имеет нормальное распределение в генеральной совокупности.
- •34. Проверка статистических гипотез. Ведущая и конкурирующая гипотезы. Ошибки 1-го и 2-го рода. Как влияет на ошибку 2-го рода увеличение доверительной вероятности для ведущей гипотезы?
- •35. Мощность критерия, его вероятностный смысл.
- •36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.
- •37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.
- •38. Функциональная, статистическая и корреляционная связи. Примеры.
- •39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.
- •40. Метод наименьших квадратов для построения уравнения парной регрессии y на X. Проверка значимости коэффициента корреляции.
17. Свойства математического ожидания одной и нескольких случайных величин.
1. M(c)=c, M(c)= ∫ba c*p(x)dx= c∫ba p(x)dx=c, c-const
2. M(c*X)=cMX
Пусть случайная величина X задана законом распределения вероятностей:
X x1 x2 . . . xn
p p1 p2 . . . pn Учитывая свойство 1, напишем закон распределения случайной вели-
чины CX: CX Cx1 Cx2 . . . Cxn
p : p1 p2 . . . pn
МО случайной величины CX: M[CX] = Cx1p1 + Cx2p2 + . . . + Cxnpn =
= C(x1p1 + x2p2 + . . . + xnpn) = CM[X].
3. M[X + Y ] = M[X] + M[Y ] МО суммы двух случайных величин равно сумме МО слагаемых
Док-во. Пусть случайные величины X и Y заданы следующими законами распределения X: x1 x2 Y: y1 y2
P: p1 p2 p: g1 g2
Составим все возможные значения величины X + Y . Для этого к каждому возможному значению X прибавим каждое возможное значение Y ; получим x1 + y1, x1 + y2, x2 + y1, x2 + y2. Предположим для простоты, что эти возможные значения различны (если это не так, то доказательство проводится аналогично), и обозначим их вероятности соответственно через p11, p12, p21, p22.
МО величины X + Y = сумме произведений возможных значений на их вероятности: M[X + Y ] = (x1 + y1)p11 + (x1 + y2)p12 +(x2 + y1)p21 + (x2 + y2)p22
или
M[X + Y ] = x1(p11 + p12) + x2(p21 + p22) +y1(p11 + p21) + y2(p12 + p22).
Докажем, что p11 + p12 = p1. Событие, состоящее в том, что X примет
значение x1, (вероятность этого события равна p1) влечет за собой
событие, которое состоит в том, что X + Y примет значение x1 + y1
или x1 + y2 (вероятность этого события по теореме сложения равна
p11 + p12 = p1, и обратно. Отсюда и следует,
p21 + p22 = p2, p11 + p21 = g1,
p12 + p22 = g2, Подставляя правые части этих равенств в соотношение для M[X + Y ], Получим M[X + Y ] = (x1p1 + x2p2) + (y1g1 + y2g2) =
= M[X] + M[Y ].
4. M(X-Y)= M(X+(-1)Y)=(по св-ву 3) MX+M[(-1)Y]=(по св-ву 2) MX-MY
5. М ( Х · Y ) = М ( Х ) · М ( Y ) для независимых случайных величин Х и Y .
(МО произведения двух независимых случайных величин равно произведению их МО)
Док-во. Пусть независимые случайные величины X и Y заданы своими законами распределения X: x1 x2 Y: y1 y2
P: p1 p2 , p: g1 g2
Составим все значения, которые может принимать случайная величина XY . Для этого перемножим все возможные значения X на каждое возможное значение Y ; в итоге получим x1y1, x2y1, x1y2 и x2y2. Напишем закон распределения XY , предполагая, что все возможные значения произведения различны (если это не так, то доказательство проводится аналогично): XY: x1y1 x2y1 x1y2 x2y2
P: p1g1 p2g1 p1g2 p2g2
МО равно сумме произведений всех возможных значений на их вероятности:
M[XY ] = x1y1 · p1g1 + x2y1 · p2g1 + x1y2 · p1g2 + x2y2 · p2g2.
Или M[XY ] = y1g1(x1p1 + x2p2) + y2g2(x1p1 + x2p2)
(x1p1 + x2p2)(y1g1 + y2g2) = M[X]M[Y ]
18. Свойства дисперсии одной и нескольких случайных величин.
1. D(c)=0, c-const
Дисперсия постоянной величины C равна нулю; D[C] = 0.
Доказательство. По определению дисперсии,
D[C] = M[[C − M[C]]2] = M[C − C] = M[0] = 0.
2. D(c*X)=c2MX
Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат.
Доказательство. По определению дисперсии,
D[CX] = M[[CX − M[CX]]2] = M[C2[X − M[X]]2] = C2D[X].
3. D(X+Y)=DX+DY(если Х и Y- независимые СВ).
D(3X-3Y)=?, D(3X-3Y)=D(3X+(-2)Y)=9DX+4DY
Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:
D[X + Y ] = D[X] + D[Y ]
Доказательство. По формуле для вычисления дисперсии имеем
D[X + Y ] = M[(X + Y )2] − [M[X + Y ]]2
Раскрыв скобки и пользуясь свойствами математического ожидания суммы нескольких величин и произведения двух независимых случайных величин, получим
D[X + Y ] = M[X2+ 2XY + Y2] − [M[X] + M[Y ]]2= M[X2] + 2M[X]M[Y ] + + M[Y2] − M2[X] − 2M[X]M[Y ] − M2[Y ] =M[X2] − [M[X]]2+M[Y2] − M[Y ]]2= D[X] + D[Y ].