- •1. Детерминированные, неопределенные и случайные события. Понятие статистической однородности. Примеры.
- •2. Определение вероятности – классическое, частотное, теоретико-множественное (аксиоматическое). Иллюстрирующие примеры.
- •3. Операции над событиями. Несовместные и независимые события, условная вероятность. Примеры.
- •4. Теорема о вероятности суммы двух и трех событий (без док-ва, с геометрической иллюстрацией).
- •5. Теорема о вероятности произведения двух событий (без док-ва, для зависимых и незваисимых событий).
- •6. Формула полной вероятности (с док-вом).
- •7. Формула Байеса (с док-вом).
- •8. Схема повторных испытаний. Расчет вероятности хотя бы одного успеха. Формула Бернулли.
- •9. Наивероятнейшее число успехов в серии п испытаний (без вывода).
- •10. Распределение Пуассона как предельный случай биномиального распределения (без вывода).
- •11. Случайные дискретные величины, их числовые характеристики.
- •12. Функция распределения и плотность вероятности случайных непрерывных величин. Их типовые графики. Расчет ф-ции распределения по плотности вероятности и наоборот.
- •13. Равномерное случайное распределение. Задача о встрече.
- •14. Показательный закон распределения, функция надежности.
- •15. Нормальное распределение, функция Лапласа. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило 3-х сигма.
- •16. Числовые характеристики случайных величин, их вычисление. Содержательный смысл и свойства математического ожидания и дисперсии.
- •17. Свойства математического ожидания одной и нескольких случайных величин.
- •18. Свойства дисперсии одной и нескольких случайных величин.
- •19. Математическое ожидание и дисперсия биномиального и пуассоновского случайных распределений.
- •24. Закон больших чисел (формулировка и применения).
- •25. Объяснить на примерах понятия «генеральная совокупность», «варианта», «выборка», «вариационный ряд». Принципы формирования выборочной совокупности.
- •26. Дискретный и интервальный вариационные ряды. Формула Стёрджеса. Как рассчитать среднюю величину признака интервального вариационного ряда?
- •27. Размах, мода и медиана выборки.
- •28. Полигон и кумулята. Графический способ нахождения моды интервального вариационного ряда.
- •29. Коэффициент концентрации Джини и кривая Лоренца.
- •30. Точечные и интервальные оценки параметров генеральной совокупности. Какая оценка параметра генеральной совокупности называется несмещенной, состоятельной (на примере мо)?
- •31. Построение доверительного интервала по большой выборке для математического ожидания генеральной совокупности при известной дисперсии. Вероятностный смысл заданного параметра надежности.
- •33. Построение доверительного интервала для дисперсии при условии, что признак имеет нормальное распределение в генеральной совокупности.
- •34. Проверка статистических гипотез. Ведущая и конкурирующая гипотезы. Ошибки 1-го и 2-го рода. Как влияет на ошибку 2-го рода увеличение доверительной вероятности для ведущей гипотезы?
- •35. Мощность критерия, его вероятностный смысл.
- •36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.
- •37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.
- •38. Функциональная, статистическая и корреляционная связи. Примеры.
- •39. Коэффициент корреляции. Эмпирическая характеристика тесноты связи между случайными величинами по числовым значениям коэффициента корреляции.
- •40. Метод наименьших квадратов для построения уравнения парной регрессии y на X. Проверка значимости коэффициента корреляции.
35. Мощность критерия, его вероятностный смысл.
Мощность критерия – вероятность попадания критерия в критическую область при условии, что справедлива конкурирующая гипотеза (вер-ть, что Н0 будет отвергнута, если верна Н1).
Пусть для проверки гипотезы принят ур-нь значимости и выборка имеет фиксированный объем. Остается произвол в выборе критической области. Убедимся что вер-ть ошибки 2-го рода = β => мощность = 1- β. Пусть мощность возрастает, тогда вер-ть β уменьшаяется => чем выше мощность, тем ниже вер-ть ошибки 2-го рода. =>если ур-нь значимости уже выбран, то крит область стоит строить так, чтобы мощность критерия была max.
36. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события. Двусторонний, правосторонний и левосторонний критерии.
При заданном уровне значимости α проверяется нулевая гипотеза, состоящая в том, что неизвестная вероятность появления события равна гипотетической вероятности р0 серии повторных независимых испытаний.
В качестве критерия проверки нулевой гипотезы принимаем случайную величину
U=(Mn- p0 ) np0q0 , где q0= 1- р0
Пример. По 100 независимым испытаниям найдена относительная частота 0,07. При уровне значимости 0,05 проверить нулевую гипотезу Н0: р = р0 = 0,1 при конкурирующей гипотезе Н1: р ≠ 0,1. Решение:
Найдем наблюдаемое значение критерия: Uэмп= Mn- p0 *np0*q0 = 0,07-0,1*1000,07*0,93≈-1,18 Учитывая, что критическая область двусторонняя, находим из равенства
ΦUкр=1-α2=1-0,052=0,475
По таблице функции Лапласа (прил. 2) находим Uкр≈2. Поскольку Uэмп=1,18<2=Uкр , то нет оснований отвергать гипотезу о незначительном отличии наблюдаемой относительной частоты от гипотетической вероятности.
Н0 – ведущая гипотеза: р=р0; Н1 – альтернативная гипотеза: а)р≠р0 – двусторонний критерий; б)р>р0 в)р<р0. n – объем выборки (наблюдения за наступлением случ событий с 2мя исходами)
Uнабл = (m/n – p0) / [√np0(1-p0)/√n] ~ N(0,1)
H0: p=p0(1/2); H1: p>p0. По таб Лапласа вычисляется Uα. Если Uнабл > Uα ,то принимается H1.
Односторонние критерии: Н1: р>p0
Ф (Uкр) = (1-α) / 2. Если Uнабл > Uα ,то принимается H1.
Н1: р<p0. Uнабл <- Uα ,то принимается H1.
37. Критерий Пирсона для проверки гипотезы о законе распределения генеральной совокупности по выборочным данным.
Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения. К. Пирсона χ 2 .
Имеется выборка из ген совокупности. По этой выборке требуется опр закон распределения признака в гс.
Выборка: х1, х2, х3, … , хп п>50 n≥100
1) необходимо поместить все выборочные значения в «к» классов, причем так, чтобы число эл-тов выборки, находящихся в каждом классе была не менее 5.
2) делается гипотетическое предположение о законе распределения признака в гс, и в соответствии с этим признаком вычисляется гипотетическая вероятность рi попадания i-ый класс. Тогда n*pi – гипотетическое число попаданий СВ – Х(признак) в i-ый класс.
3) вычисляется наблюдаемая статистика
К. Пирсона
(ni-npi)2npi~Ν0;1=>χ 2 ~ распределения χ 2 с ν (ню) степени свободы
χ 2 = i=1к(ni-npi)2npi , где χ 2 - Vнабл , к – число классов, ni – число эл-тов выборки, попавших в i-ый класс.
ν = n-1-l l+1
ν-число степеней свободы
l-число параметров оцениваемых
по данной выборке
4) по таблице χ 2 находят χ 2 крит.= χ 2
Если χ 2 < χ 2 крит , то принимается ведущая гипотеза за Н0: признак х в гс имеет гипот. Закон распределения.
Если χ 2 > χ 2 крит , то Н0 отвергается.