- •1. Детерминированные, неопределенные и случайные события. Понятие статистической однородности. Примеры.
- •2. Определение вероятности – классическое, частотное, теоретико-множественное (аксиоматическое). Иллюстрирующие примеры.
- •3. Операции над событиями. Несовместные и независимые события, условная вероятность. Примеры.
- •4. Теорема о вероятности суммы двух и трех событий (без док-ва, с геометрической иллюстрацией).
- •5. Теорема о вероятности произведения двух событий (без док-ва, для зависимых и незваисимых событий).
- •6. Формула полной вероятности (с док-вом).
- •7. Формула Байеса (с док-вом).
- •8. Схема повторных испытаний. Расчет вероятности хотя бы одного успеха. Формула Бернулли.
- •9. Наивероятнейшее число успехов в серии п испытаний (без вывода).
- •10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).
- •11. Случайные дискретные величины, их числовые характеристики.
- •12. Функция распределения и плотность вероятности случайных непрерывных величин. Их типовые графики. Расчет ф-ции распределения по плотности вероятности и наоборот.
- •13. Равномерное случайное распределение. Задача о встрече.
- •14. Показательный закон распределения, функция надежности.
- •15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.
- •16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.
- •17. Свойства математического ожидания одной и нескольких случайных величин.
- •18. Свойства дисперсии одной и нескольких случайных величин.
- •19. Математическое ожидание и дисперсия биномиального и пуассоновского случайных распределений.
- •24. Закон больших чисел (формулировка и применения).
- •25. Объяснить на примерах понятия «генеральная совокупность», «варианта», «выборка», «вариационный ряд». Принципы формирования выборочной совокупности.
- •26. Дискретный и интервальный вариационные ряды. Формула Стёрджеса. Как рассчитать среднюю величину признака интервального вариационного ряда?
- •27. Размах, мода и медиана выборки.
- •28. Полигон и кумулята. Графический способ нахождения моды интервального вариационного ряда.
- •29. Коэффициент концентрации Джини и кривая Лоренца.
- •30. Точечные и интервальные оценки параметров генеральной совокупности. Какая оценка параметра генеральной совокупности называется несмещенной, состоятельной (на примере мо)?
- •31. Построение доверительного интервала по большой выборке для математического ожидания генеральной совокупности при известной дисперсии. Вероятностный смысл заданного параметра надежности.
- •33. Построение доверительного интервала для дисперсии при условии, что признак имеет нормальное распределение в генеральной совокупности.
- •34. Проверка статистических гипотез. Ведущая и конкурирующая гипотезы. Ошибки 1-го и 2-го рода. Как влияет на ошибку 2-го рода увеличение доверительной вероятности для ведущей гипотезы?
- •35. Мощность критерия, его вероятностный смысл.
- •36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.
- •37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.
- •38. Функциональная, статистическая и корреляционная связи. Примеры.
- •39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.
- •40. Метод наименьших квадратов для построения уравнения парной регрессии y на X. Проверка значимости коэффициента корреляции.
9. Наивероятнейшее число успехов в серии п испытаний (без вывода).
Биномиальное распределение (распределение по схеме Бернулли) позволяет, в частности, установить, какое число появлений события А наиболее вероятно. Формула для наиболее вероятного числа успехов (появлений события) имеет вид:
Так как , то эти границы отличаются на 1. Поэтому , являющееся целым числом, может принимать либо одно значение, когда целое число ( ) , то есть когда (а отсюда и ) нецелое число, либо два значения, когда целое число.
Неравенства для наивероятнейшего числа успехов позволяют решить и обратную задачу: по данному и известному значению р определить общее число n всех испытаний.
Х: 0 1 2 … n …
Р: Рn(0) Рn(1) Рn(2) … Рn(n) …, где
Рn(i)= Cinpi(1-p)n-i, i=0,…,n.
Рn(i)= Рn(i+1) – НВЧУ. Найдем ф-лу для k0:
Рn(k0) = max Рn (k), k=1,…,n.
1. Рn(k0-1)≤ Рn(k0)
2. Рn(k0+1)≤ Рn(k0)
НВЧУ k0:
np-1≤ k0≤ (n+1)p
(n+1)p-p-1 ≤ k0≤ (n+1)p
(n+1)p-1 ≤ k0≤ (n+1)p
np-q ≤ k0≤ np+p
k0 - целое число!
10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).
Закон распределения (функция распределения и ряд распределения или плотность вероятности) полностью описывают поведение случайной величины.
Рk = lim Cnkpk (1-p)n-k = ak . e-a
n∞ k! Ф-ла Пуассона
Рk – вероятность наступления «k» успехов в серии испытаний Бернулли при условиях: 10 р = а/п (а – параметр, п – чило испытаний Бернулли)
20 п +∞
X: 0 1 2 … п …
Р: е-а а е-а а2 . е-а ап . е-а
2 п!
∑рi = е-а 1 + a + a2 + a3 + …+ an + … = e-a * ea = 1
2! 3! n!
ea
11. Случайные дискретные величины, их числовые характеристики.
Дискретной (прерывной) называют случайную величину, которая принимает отдельные, изолированные возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным или бесконечным.
Числ. хар-ки: (числа, кот. описывают случайную величину суммарно)
1. МО дискретной СВ наз. сумму произведений всех её возможных значений на их вероятности. М(Х) = х1р1 +…+ хпрп =i=1nхi*pi
МО приближенно равно среднему арифметическому наблюдаемых значений случайной величины. Полностью не характеризует СВ.
2. Введем понятие отклонения СВ от ее МО: Отклонением называют разность между случайной величиной и ее МО.
Для того, что бы оценить, как рассеяны возможные значения СВ вокруг ее МО, пользуются дисперсией. Дисперсией (рассеянием) дискретной СВ наз. МО квадрата отклонения случайной величины от её МО.
D(X) = M[X-M(X)]2 => Для того чтобы найти дисперсию достаточно вычислить сумму произведений возможных значений квадрата отклонения на их вероятности: i=1nхi-МХ2 * рi
т.е. (х1 – МХ)2 * р1 +…+ (хп – МХ)2 * рп
Смысл дисперсии: это положит. мера, которая характеризует близость расположения значения СВ относительно МО этой СВ.
3. Среднеквадратическим отклонением случайной величины Х называют квадратный корень из дисперсии: (Х) = √D(X) (сигма)
Центральным моментом k-го порядка СВ Х называют МО величины (Х – M(X))k:
mk = M[(Х – M(X))k]
Э(Х) эксцесс СВ это Э(Х) = ∑ni=1 (xi – МХ)3pi. Эксцесс хар-ет симметричность распределения СВ Х относительно МХ. Э(Х)=0-симметрично Э(Х)>0-больше значений Х располагаются правее МХ, Э(Х)<0- левее МХ.