
- •1. Классическое определение вероятности. Непосредственное вычисление. Статистическая оценка вероятности.
- •2. Алгебра событий. Вероятность противоположного признака.
- •3. Условная вероятность. Зависимые и независимые признаки.
- •4. Вероятность произведения двух и более признаков.
- •5. Вероятность суммы двух и более слагаемых. Совместные и несовместные признаки.
- •6. Элементы комбинаторики. Размещения, перестановки, сочетания
- •7.Геометрические вероятности. Аксиоматическое определение вероятности.
- •8. Формулы полной вероятности и Байеса.
- •9. Повторные независимые испытания. Формула Бернулли.
- •10. Формула Пуассона и локальная теорема Лапласа и их применение.
- •11.Интегральная теорема Лапласа. Работа с таблицами.
- •12.Понятие случайной величины. Дискретные величины. Ряд распределения вероятностей.
- •13. Математическое ожидание и его свойства.
- •14. Дисперсия и ее свойства.
- •15. Ковариация и ее свойства. Коррелированность и зависимость случайных величин.
- •16. Непрерывные случайные величины. Функция плотности. Примеры
- •17. Дисперсия и другие моменты непрерывно случайной величины
- •18. Функция распределения и ее свойства.
- •20. Устойчивость средних. Неравенство Чебышева.
- •21. Закон больших чисел. Теорема Чебышева.
- •22. Теорема Бернулли, усиленный закон больших чисел Бореля и Колмогорова.
- •Усиленный закон больших чисел
- •23. Центральная предельная теорема и интегральная теорема Лапласа
- •24. Совместное распределение случайных величин
- •25. Коэффициент корреляции и его свойства
- •28. Статистические оценки
- •29. Начальные и центральные моменты и их статистические оценки. Сходимость оценок.
- •31. Доверительные интервалы для дисперсии и среднего квадратичного отклонения
- •32. Проверка статических гипотез, гипотезы о средних.
- •34. Однофакторный дисперсионный анализ
- •35. Критерий согласия Пирсона, проверка гипотезы о законе распределения
- •36. Регрессия, как условная средняя. Оценка погрешности метода наименьших квадратов Суть метода наименьших квадратов (мнк).
- •Графическая иллюстрация метода наименьших квадратов (мнк).
- •37. Простая линейная регрессия.
- •38. Проверка значимости коэффициента регрессии по Фишеру и Стьюденту
- •39. Понятие о случайных процессах. Цепи Маркова и теорема Маркова.
- •40. Цепи Маркова. Предельные вероятности состояний
1. Классическое определение вероятности. Непосредственное вычисление. Статистическая оценка вероятности.
Численная мера степени объективной возможности наступления события называется вероятностью события. Это определение, качественно отражающее понятие вероятности события, не является математическим. Чтобы оно таким стало, необходимо определить его количественно.
Пусть исходы некоторого испытания образуют полную группу событий и равновозможны, т.е. единственно возможны, несовместны и равновозможны. Такие исходы называются элементарными исходами, случаями или шансами. При этом говорят, что испытание сводится к схеме случаев или схеме урн.
Случай называется благоприятствующим (благоприятным) событию А, если появление этого случая влечет за собой появление события А.
Согласно классическому определению вероятность события А равна отношению числа случаев,
благоприятствующих ему, к общему числу случаев, т.е. P(A) = m/n, где Р(А) – вероятность события А; m - число случаев, благоприятствующих событию А; n — общее число случаев.
Классическое определение вероятности следует рассматривать не как определение, а как метод вычисления вероятностей для испытаний, сводящихся к схеме случаев.
Свойства вероятности события:
а) Вероятность любого события заключена между нулём и единицей.
б) Вероятность достоверного события равна единице.
в) Вероятность невозможного события равна нулю.
Статистической вероятностью события А называется относительная частота появления этого события в n произведенных испытаниях, т.е. P(A) = w(A) = m/n, где Р(А) – статистическая вероятность события А, w(A) – относительная частота события А, m – число испытаний в которых проявилось событие А, n – общее число испытаний.
Статистическая вероятность Р(А) является характеристикой опытной, экспериментальной.
Если Р(А) есть доля случаев, благоприятствующих событию А, которая определяется непосредственно, без каких-либо испытаний, то Р(А) есть доля тех фактически
произведенных испытаний, в которых событие А появилось.
2. Алгебра событий. Вероятность противоположного признака.
Суммой А+В двух событий А и В называют событие, состоящее в том, что произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответственно, называется событие, заключающееся в том, что произошло хотя бы одно из этих событий.
Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события.
Разностью А\B событий А и В называется событие, состоящее в том, что А произошло, а В – нет.
События А и В называются совместными, если они могут произойти оба в результате одного опыта. В противном случае (то есть если они не могут произойти одновременно) события называются несовместными.
События А1, А2,…,Ап образуют полную группу, если в результате опыта обязательно произойдет хотя бы одно из событий этой группы.
Вероятность события, противоположного событию А, дополняет его вероятность до единицы.