- •1. Детерминированные, неопределенные и случайные события. Понятие статистической однородности. Примеры.
- •2. Определение вероятности – классическое, частотное, теоретико-множественное (аксиоматическое). Иллюстрирующие примеры.
- •3. Операции над событиями. Несовместные и независимые события, условная вероятность. Примеры.
- •4. Теорема о вероятности суммы двух и трех событий (без док-ва, с геометрической иллюстрацией).
- •5. Теорема о вероятности произведения двух событий (без док-ва, для зависимых и незваисимых событий).
- •6. Формула полной вероятности (с док-вом).
- •7. Формула Байеса (с док-вом).
- •8. Схема повторных испытаний. Расчет вероятности хотя бы одного успеха. Формула Бернулли.
- •9. Наивероятнейшее число успехов в серии п испытаний (без вывода).
- •10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).
- •11. Случайные дискретные величины, их числовые характеристики.
- •12. Функция распределения и плотность вероятности случайных непрерывных величин. Их типовые графики. Расчет ф-ции распределения по плотности вероятности и наоборот.
- •13. Равномерное случайное распределение. Задача о встрече.
- •14. Показательный закон распределения, функция надежности.
- •15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.
- •16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.
- •17. Свойства математического ожидания одной и нескольких случайных величин.
- •18. Свойства дисперсии одной и нескольких случайных величин.
- •19. Математическое ожидание и дисперсия биномиального и пуассоновского случайных распределений.
- •24. Закон больших чисел (формулировка и применения).
- •25. Объяснить на примерах понятия «генеральная совокупность», «варианта», «выборка», «вариационный ряд». Принципы формирования выборочной совокупности.
- •26. Дискретный и интервальный вариационные ряды. Формула Стёрджеса. Как рассчитать среднюю величину признака интервального вариационного ряда?
- •27. Размах, мода и медиана выборки.
- •28. Полигон и кумулята. Графический способ нахождения моды интервального вариационного ряда.
- •29. Коэффициент концентрации Джини и кривая Лоренца.
- •30. Точечные и интервальные оценки параметров генеральной совокупности. Какая оценка параметра генеральной совокупности называется несмещенной, состоятельной (на примере мо)?
- •31. Построение доверительного интервала по большой выборке для математического ожидания генеральной совокупности при известной дисперсии. Вероятностный смысл заданного параметра надежности.
- •33. Построение доверительного интервала для дисперсии при условии, что признак имеет нормальное распределение в генеральной совокупности.
- •34. Проверка статистических гипотез. Ведущая и конкурирующая гипотезы. Ошибки 1-го и 2-го рода. Как влияет на ошибку 2-го рода увеличение доверительной вероятности для ведущей гипотезы?
- •35. Мощность критерия, его вероятностный смысл.
- •36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.
- •37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.
- •38. Функциональная, статистическая и корреляционная связи. Примеры.
- •39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.
- •40. Метод наименьших квадратов для построения уравнения парной регрессии y на X. Проверка значимости коэффициента корреляции.
15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.
Нормальное распределение, также называемое гауссовым распределением —распределение вероятностей, которое задается функцией плотности распределения: где параметр μ — среднее значение (математическое ожидание) случайной величины и указывает координату максимума кривой плотности распределения, а σ² — дисперсия.
Для нормального распределения F(x) = 0,5 + Φ(x),
где Φ(x) = 12π*0хе-42*du, F(x)-функция распределения, Φ(x)-ф-ция Лопласа.
Вероятность того, что нормально распределенная случ. величина Х примет значение, принадлежащее интервалу (α;β) равна:
, где α-МО, β - среднеквадр. отклонение данной величины.
Правило 3х сигма: Пусть Х~N(а; )
Р(х-а>3 )≅0,0027 =
Рх-а3>1=2(0,5-Φ3)
Правило 3х сигма разрешает заменить бесконечный интервал (-∞;+∞) на конечный
(а-3 ;а+3 )
16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.
1. МО дискретной СВ наз. сумму произведений всех её возможных значений на их вероятности. М(Х) = х1р1 +…+ хпрп =i=1nхi*pi
МО приближенно равно среднему арифметическому наблюдаемых значений случайной величины. Полностью не характеризует СВ.
Центральным моментом k-го порядка (k>1) СВ Х наз μ k = ∑ni=1 (xi – MX)k pi , (μ 1 =0)
Моментом k-го порядка СВ Х наз mk = ∑ni=1 (xi)kpi , (m1=MX)
2. Введем понятие отклонения СВ от ее МО: Отклонением называют разность между случайной величиной и ее МО.
Для того, что бы оценить, как рассеяны возможные значения СВ вокруг ее МО, пользуются дисперсией. Дисперсией (рассеянием) дискретной СВ наз. МО квадрата отклонения случайной величины от её МО.
D(X) = M[X-M(X)]2 => Для того чтобы найти дисперсию достаточно вычислить сумму произведений возможных значений квадрата отклонения на их вероятности: i=1nхi-МХ2 * рi
т.е. (х1 – МХ)2 * р1 +…+ (хп – МХ)2 * рп
Смысл дисперсии: это положит. мера, которая характеризует близость расположения значения СВ относительно МО этой СВ.
3. Среднеквадратическим отклонением случайной величины Х называют квадратный корень из дисперсии: (Х) = √D(X) (сигма)
Свойства математического ожидания:
1) М ( с · Х ) = с · М ( Х ) , c R (постоянный множитель можно выносить за знак МО)
Док-во. Пусть случайная величина X задана законом распределения вероятностей:
X : x1 x2 . . . xn
P: p1 p2 . . . pn
Напишем закон распределения случайной величины CX: CX: Cx1 Cx2 . . . Cxn
P: p1 p2 . . . pn
Математическое ожидание случайной величины CX: M[CX] = Cx1p1 + Cx2p2 + . . . + Cxnpn = C(x1p1 + x2p2 + . . . + xnpn) = CM[X]
2) М ( Х + Y ) = М ( Х ) + М ( Y ) , Х , Y Е , (МО суммы двух случайных величин равно сумме математических ожиданий слагаемых)
3) М ( Х · Y ) = М ( Х ) · М ( Y ) для независимых случайных величин Х и Y .
(МО произведения двух независимых случайных величин равно произведению их МО)
Док-во. Пусть независимые случайные величины X и Y заданы своими законами распределения X: x1 x2 Y: y1 y2
P: p1 p2 , p: g1 g2
Составим все значения, которые может принимать случайная величина XY . Для этого перемножим все возможные значения X на каждое возможное значение Y ; в итоге получим x1y1, x2y1, x1y2 и x2y2. Напишем закон распределения XY , предполагая, что все возможные значения произведения различны (если это не так, то доказательство проводится аналогично): XY: x1y1 x2y1 x1y2 x2y2
P: p1g1 p2g1 p1g2 p2g2
МО равно сумме произведений всех возможных значений на их вероятности:
M[XY ] = x1y1 · p1g1 + x2y1 · p2g1 + x1y2 · p1g2 + x2y2 · p2g2.
Или M[XY ] = y1g1(x1p1 + x2p2) + y2g2(x1p1 + x2p2)
(x1p1 + x2p2)(y1g1 + y2g2) = M[X]M[Y ]
Свойства дисперсии:
1) D ( с · Х ) = с 2 · D ( Х ) , c R ,
2) D ( Х + Y ) = D ( Х ) + D ( Y ) для независимых случайных величин Х и Y .