
- •Вопросы
- •Основные понятия комбинаторики. Правила суммы и произведения. Перестановки, размещения, сочетания и формулы для их вычисления.
- •Понятие эксперимента. Понятие события, пространство элементарных событий.
- •Достоверное и невозможное событие. Совместимые и несовместимые события. Противоположное событие.
- •Операции над событиями (сумма, разность, произведение).
- •Понятие о полной группе событий.
- •Классическое определение вероятности события.
- •Геометрическое определение вероятности события.
- •Статистическое определение вероятности события. Аксиоматическое определение вероятности события.
- •Условная вероятность и ее свойства.
- •Свойства условных вероятностей:
- •Теоремы сложения вероятностей несовместных и совместных событий.
- •Формула сложения вероятностей
- •Зависимые и независимые события.
- •Формула полной вероятности события. Формулы Байеса.
- •Понятие схемы независимых испытаний Бернулли. Наивероятнейшее число наступления событий в схеме Бернулли.
- •Функция распределения случайной величины и ее свойства.
- •Свойства функции распределения:
- •Числовые характеристики случайной величины.
- •Законы распределения дискретной случайной величины:
- •Понятие случайной непрерывной величины.
- •Числовые характеристики непрерывной случайной величины.
- •Плотность распределения.
- •Мода и медиана непрерывной случайной величины.
- •Законы распределения непрерывной случайной величины:
- •Правило «трех сигм».
- •Закон больших чисел. Неравенство Чебышева. Теорема Чебышева.
- •Понятия многомерной случайной величины.
- •Дискретные двумерные случайные величины.
- •Непрерывные двумерные случайные величины.
- •Понятия плотности совместного распределения вероятностей и совместная функция распределения.
- •Независимые случайные величины.
- •Понятия корреляционного момента и коэффициента корреляции. Понятие корреляционной зависимости.
- •Выборочный метод и его основные понятия. Случайная выборка, объем выборки.
- •Способы отбора:
- •Вариационный ряд для дискретных и непрерывных случайных величин. Полигон и гистограмма.
- •Эмпирическая функция распределения и ее свойства.
- •Свойства эмпирической функции распределения:
- •Статистические оценки параметров распределения. Состоятельность и несмещенность статистических оценок.
- •Выборочные среднее и дисперсия и их свойства.
- •Надежность и доверительный интервал. Доверительный интервал для математического ожидания нормального распределения при известной дисперсии.
- •Проверка статистических гипотез. Нулевая и альтернативная гипотезы, статистический критерий. Ошибки первого и второго рода.
- •Этапы проверки статистической гипотезы.
- •Критерий согласия Пирсона о виде распределения.
- •Понятие о регрессионной зависимости случайных величин. Выборочные уравнения регрессии.
- •Линейная регрессия.
- •Нелинейная регрессия. Логарифмическая, обратная, степенная, и показательные модели нелинейной регрессии.
Проверка статистических гипотез. Нулевая и альтернативная гипотезы, статистический критерий. Ошибки первого и второго рода.
Проверка гипотезы о равенстве вероятностей: пусть произведено две серии опытов, состоящих соответственно из n1 и n2 опытов. В каждом из них регистрировалось появление одного и того же события А. В первой серии событие А появилось в k1 опытах, во второй – в k2 опытах, причем частота события А в первой серии получилась больше, чем во второй:
Разность между двумя частота получилась равной U = P1* – P2* (1). Выдвинем двухальтернативную гипотезу {H0, H1}(H0- нулевая гипотеза, а H1- альтернативная гипотеза), где:
H0 – различия в вероятностях не существует, т.е. обе серии опытов произведены в одинаковых условиях, а расхождение U объясняется случайными причинами;
H1 – различие в вероятностях существует, т.е. обе серии опытов произведены не в одинаковых условиях.
В данном случае гипотеза H0 состоит в том, что обе серии опытов однородны и что вероятность P появления события А в них одна и та же, приближенно равная частоте, которая получится, если обе серии смешать в одну:
При достаточно больших n1 и n2 каждая из случайных величин P1* и P2*распределена практически нормально, с одним и тем же математическим ожиданием m= P ≈ P* . Что касается дисперсий D1 и D2 в первой и во второй сериях, то они различны и равны соответственно:
В качестве критерия будем использовать случайную величину U = P1* – P2*, которая также имеет приближенно нормальное распределение с математическим ожиданием mU =0 и дисперсией:
Откуда
Определим критическую точку Uα для заданного уровня значимости α из уравнения:
=P(U
)=0,5-Ф(
),
т.е. Uα
=
Если значение, вычисленное по формуле (1), больше, чем критическое значение, т.е. Uα > U , то гипотеза H0 отклоняется, в противном случае нет оснований ее отклонить.
Статическим критерием называется случайная величина U =Ф ( x1, K , xn ) ,где xi –значения выборки, которая позволяет принять или отклонить нулевую гипотезу H0.
Ошибка первого рода состоит в том, что будет отклонена гипотеза H0, если она верна. Вероятность совершить ошибку первого рода обозначается α и называется уровнем значимости. Наиболее часто на практике принимают, что α = 0,05 или α = 0,01.
Ошибка второго рода заключается в том, что гипотеза H0 принимается, если она неверна. Вероятность ошибки этого рода обозначается β. Вероятность не допустить ошибку второго рода (1-β) называют мощностью критерия.
Этапы проверки статистической гипотезы.
Этапы проверки статистической гипотезы:
По выборочным данным формулируют нулевую Н0 и альтернативную Н1 гипотезы.
Задают уровень значимости α (0,05 или 0,01).
В зависимости от Н0 определяют статистический критерий K = f(x1, …, xn), имеющий известное распределение.
По выборке и формуле критерия K рассчитывают наблюдаемое значение критерияKнабл для этого в формулу критерия K = f(x1, …, xn) вместо (x1, …, xn) подставляют конкретные числа, полученные в результате наблюдений, и подсчитывают числовое значение критерия.
В зависимости от вида конкурирующей гипотезы и распределения критерия выбирают вид расположения критической области: правосторонняя, левосторонняя или двусторонняя. Границы (критические точки) при заданном уровне значимости находят из соотношений для критических областей:
правосторонней: P(K>Kкр) = α;
левосторонней: P(K<Kкр) = α;
двусторонней: P(K<Kкр) = α /2 и P(K>Kкр) = α /2.
По результатам проверки: Kнабл
W ?- делают вывод о принятии или отклонении гипотезы Н0. Если Kнабл попадает в критическую область W, то гипотеза Н0 отвергается и принимается гипотеза Н1 (на рис. 2 двусторонняя критическая область W показана желтым цветом). Если Kнабл не попадает в критическую область, гипотеза Н0 не отвергается (принимается).