
- •1) Перебор вариантов, дерево вариантов, примеры.
- •2) Комбинаторное правило суммы, правило произведения. Перестановки.
- •Правило произведения
- •3) Размещения и сочетания без повторений.
- •4) Бином Ньютона. Треугольник Паскаля. Основные свойства биномиальных коэффициентов.
- •5) Понятие события, классификация событий.
- •6) Статистическое определение вероятности, примеры.
- •7) Классическое определение вероятности, примеры.
- •8) Геометрическое определение вероятности, примеры.
- •9) Действия над событиями. Свойства операций над событиями.
- •10) Теорема о вероятности суммы нескольких событий.
- •12) Аксиоматика вероятностей пространства. Аксиомы вероятностей.
- •13) Условная вероятность. Теорема о вероятности произведения двух событий.
- •14) Независимость событий. Теорема о вероятности произведения двух независимых событий.
- •15) Формула полной вероятности
- •16) Формула Байеса
- •17) Схема Бернулли.
- •18) Теорема Бернулли и формула Бернулли.
- •20) Локальная теорема Муавра-Лупласа.
- •21) Интегральная теорема Муавра-Лапласа.
- •22) Предельная теорема Пуассона. Приближение формулы Пуассона.
- •23) Понятие случайной величины. Закон распределения случайной величины.
- •24) Функция распределения и её свойства.
- •25) Дискретные случайный величины.
- •26) Дискретные случайные величины. Таблицы и многоугольник распределения. Особенности функции распределения дискретной случайной величины, примеры.
- •27) Непрерывные случайные величины. Особенности функции распределения непрерывной случайной величины, примеры.
- •28) Плотность вероятности как производная функции распределения
- •29) Математическое ожидание дискретной и непрерывной случайной величин.
- •30) Свойства математического ожидания.
- •31) Дисперсия дискретной и непрерывной случайной величин. Среднее квадратичное отклонение.
- •32) Свойства дисперсии.
- •33) Понятие моды, медианы, начального и центрального моментов.
- •34) Биномиальный закон распределения и его характеристики, пример.
- •35) Геометрический закон распределения и его характеристики, пример.
- •36) Закон распределения Пуассона и его характеристики, пример.
- •37) Равномерный закон распределения и его характеристики, пример.
- •38) Показательный закон распределения и его характеристики, пример.
- •39) Нормальное распределение и его характеристики, пример.
- •40) Ковариация и коэффициент корреляции, их свойства.
- •41) Вариационный ряд, таблица частот, гистограмма.
- •42) Меры центральной тенденции (средняя арифметическая, мода, медиана, размах, дисперсия) ряда данных.
- •43) Точечные оценки параметров распределения.
- •44) Интервальные оценки параметров распределения.
- •45) Статистические гипотезы и критерии.
- •46) Критерий Пирсона .
43) Точечные оценки параметров распределения.
Оценкой Ѳ параметра τ называют всякую функцию результатов наблюдения за случайной величиной X, с помощью которой судят о значении параметра τ.
Желательно, чтобы, пользуясь оценкой Ѳ вместо τ, не случалось ошибок ни сторону завышения, ни сторону занижения, т.е. чтобы выполнялось M[Ѳ]=τ.
Оценка, удовлетворяющая условию M[Ѳ]=τ, называется несмещенной.
Желательно, чтобы с увеличением числа проводимых опытов значения Ѳ концентрировались вокруг τ все более тесно, т.е. чтобы D[Ѳ]→0 при n→∞.
Оценка, удовлетворяющая условию D[Ѳ]→0 при n→∞, называется состоятельной.
44) Интервальные оценки параметров распределения.
Построим такой доверительный интервал с доверительной вероятностью α для нормального распределения с параметрами m=M(X) (математическое ожидание величины X) и σ (среднее квадратичное отклонение).
Отыскание такого интервала разбивается на два случая: а) когда σ известно; б) когда σ неизвестно.
а) Пусть σ известно. Тогда для
математического ожидания m
доверительным интервалом, отвечающим
доверительной вероятности α будет
интервал
Здесь
– эмпирическое среднее, σ – среднее
квадратичное отклонение,
– значение, которое находят, решая
уравнение
.
Φ(t) – функция Лапласа, для которой имеются табличные значения.
б) Пусть теперь σ неизвестно. Тогда
для математического ожидания m
доверительным интервалом, отвечающим
доверительной вероятности α будет
интервал -
.
Здесь
– средняя арифметическая,
– квадратный корень из несмещенной
эмпирической дисперсии,
– значение, которое находят, решая
уравнение
Здесь Sn-1(t) – функция Стьюдента, для которой также имеются табличные значения.
45) Статистические гипотезы и критерии.
Статистической гипотезой (или просто гипотезой) называют любое утверждение о виде или свойствах распределения наблюдаемых в эксперименте случайных величин. Обозначается гипотеза буквой Н.
Если для исследуемого явления процесса, ситуации и т.д., сформулирована та или иная гипотеза обычно ее называю основной или нулевой гипотезой и обозначают символом Н0. К высказанной основной гипотезе можно сформулировать конкурирующую (альтернативную) противоречащую ей. Конкурирующую (альтернативную) обозначают Н1
Различают три вида критериев:
Параметрические критерии - критерий значимости, которые служат для проверки гипотез о параметрах распределения генеральной совокупности.
Критерии согласия позволяют проверять гипотезы о соответствии распределении генеральной совокупности известной теоретической модели.
Непараметрические критерии используются в гипотезах, когда не требуется знаний о конкретном виде распределений.
46) Критерий Пирсона .
Для этого рассмотрим дискретную случайную величину X, которая принимает значения α1, α2 … αk. Пусть произведено n независимых опытов, в каждом из которых X приняла определенное значение. На основе этих опытов составлен эмпирический (или говорят еще статистический) ряд распределений и составлена таблица частот.
Далее выдвигается гипотеза, состоящая в том, что случайная величина X имеет некий закон распределения с гипотетической таблицей частот .
При использовании этого критерия число степеней свободы подсчитывается так: k (число значений случайной величины) минус количество независимых условий. Независимыми условиями являются:
равенство суммы эмпирических частот единице;
совпадение средней арифметической статистического ряда с математическим ожиданием гипотетического ряда;
совпадение дисперсий эмпирического ряда и гипотетического.
Для распределения χ2 Пирсона составлены таблицы значений, по которым по значениям χ2 и r можно найти вероятность р. Если эта вероятность меньше заданного уровня значимости α, то это значит, что опытные данные противоречат выдвинутой гипотезе H о том, что случайная величина имеет определенный закон распределения. Если же вероятность получится больше уровня значимости, то гипотезу можно считать правдоподобной.
Опуская доказательство, осуществленное Пирсоном, привожу алгоритм, с помощью которого находят вероятность p, позволяющую судить, насколько правдоподобна выдвинутая гипотеза.
Сначала вычисляется количество степеней свободы r.
а) Если выполняется
, то это считается независимым условием;
б) Если выполняется
, т.е. эмпирическое среднее совпадает с гипотетическим, то это является независимым условием;
в) Если выполняется
, т.е. эмпирическая дисперсия совпадает с гипотетической, то это является независимым условием.