
- •1.Основные понятия и закономерности теории вероятностЕй.
- •1.1.Элементы комбинаторики.
- •1.2. Основные понятия теории вероятностей.
- •1.3. Классическое определение вероятности.
- •1.4. Сложение вероятностей.
- •1.5. Геометрические вероятности.
- •1.6. Условные вероятности.
- •1.7.Теорема умножения.
- •1.8.Независимые события. Теорема умножения для независимых событий.
- •1.9.Вероятность появления хотя бы одного события.
- •1.10. Теорема сложения вероятностей совместных событий.
- •1.11. Формула полной вероятности.
- •1.12. Формула Байеса.
- •1.13. Повторные испытания. Формула Бернулли.
- •1.14. Локальная теорема Лапласа.
- •1.15. Интегральная теорема Лапласа.
- •2. Случайные величины.
- •2.1. Понятие случайных величин.
- •2.2. Законы распределения вероятностей для дсв .
- •2.3. Биноминальное распределение.
- •2.4. Распределение Пуассона.
- •2.5.Числовые характеристики дсв. Математическое ожидание.
- •2.6. Свойства математического ожидания.
- •2.7. Математическое ожидание числа появлений события в независимых испытаниях.
- •2.8. Дисперсия случайной величины.
- •2.9. Формула для вычисления дисперсии.
- •2.10. Свойства дисперсии.
- •2.11. Дисперсия числа появлений событий в независимых испытаниях.
- •В соответствии с последним свойством
- •2.12. Среднее квадратическое отклонение.
- •2.13. Среднее квадратическое отклонение суммы взаимно независимых случайных величин.
- •2.14. Одинаково распределенные взаимно независимые величины.
- •2.15. Центральные и начальные моменты случайных величин.
- •3. Непрерывные случайные величины.
- •3.1. Функция распределения вероятностей случайной величины.
- •3.2. График функции распределения.
- •3.3. Плотность распределения вероятностей непрерывной случайной величины.
- •3.4. Вероятность попадания непрерывной случайной величины в заданный интервал.
- •3.5. Нахождение функции распределения по плотности вероятностей.
- •3.6. Свойства плотности распределения.
- •3.7. Вероятностный смысл плотности распределения.
- •3.8.Числовые характеристики непрерывной случайной величины.
- •3.9. Равномерное распределение.
- •3.10. Нормальное распределение.
- •3.11. Нормальная кривая.
- •3.17. Показательное распределение.
- •4.Законы больших чисел.
- •4.1. Неравенство Чебышева.
- •4.2. Теорема Чебышева.
- •4.3. Теорема Бернулли.
- •5. Система случайных величин.
- •5.1. Понятие о системе нескольких случайных величин.
- •5.2. Закон распределения вероятностей для дискретных двумерных случайных величин.
- •5.3. Функция распределения двумерной случайной величины и плотность распределения вероятностей непрерывной двумерной случайной величины.
- •5.4. Условные законы распределения составляющих двумерных случайных величин.
- •5.5.Условное математическое ожидание.
- •5.6. Зависимые и независимые случайные величины.
- •5.7. Корреляционный момент. Коэффициент корреляции.
- •5.8.Линейная регрессия. Прямые линии среднеквадратической регрессии.
- •6. Математическая статистика.
- •6.1.Задачи математической статистики.
- •Способы отбора.
- •6.2.Статистическое распределение выборки.
- •6.3. Эмпирическая (опытная) функция распределения.
- •6.4.Полигон и гистограмма для статистического распределения.
- •6.5.Статистические оценки параметров распределения.
- •6.6.Генеральная и выборочная средняя.
- •6.7.Оценка генеральной средней по выборочной средней.
- •6.8.Групповая и общая средняя.
- •6.9.Отклонение значений признака от общей средней.
- •6.10.Генеральная и выборочная дисперсия.
- •6.11.Групповая, внутригрупповая, межгрупповая, общая дисперсии.
- •6.12. Оценка генеральной дисперсии по исправленной выборочной.
- •6.13. Точность оценки. Доверительная вероятность и доверительный интервал.
- •6.14. Доверительный интервал для математического ожидания нормального распределения при известном .
- •6.15.Доверительный интервал для математического ожидания нормального распределения при неизвестном среднем квадратическом отклонении .
- •6.16. Другие характеристики вариационного ряда.
- •7. Статистическая проверка гипотез.
- •7.1. Статистическая гипотеза. Нулевая и конкурирующая гипотезы. Простая и сложная гипотезы.
- •7.2. Отыскание критических точек и критических областей.
- •7.3. Сравнение двух дисперсий нормальных генеральных совокупностей.
- •7.4. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны.
- •Правило проверки гипотезы.
- •7.5. Сравнение выборочной средней с генеральной средней нормальной совокупности.
- •7.6. Проверка гипотезы о нормальном распределении. Критерий согласия Пирсона.
- •7.7. Схема вычисления теоретических частот для нормального распределения.
- •8.Теория корреляции.
- •8.1.Основные понятия.
- •8.2. Условные средние и выборочные уравнения регрессии.
- •8.3.Отыскание параметров выборочного уравнения среднеквадратической регрессии по несгруппированным данным..
- •8.4. Корреляционная таблица.
- •8.5.Отыскание параметров выборочного уравнения линейной регрессии в случае сгруппированных данных.
- •8.6. Выборочный коэффициент корреляции.
- •8.7. Простейшие случаи криволинейной корреляции.
- •8.8. Понятие о множественной корреляции.
- •Содержание.
1.Основные понятия и закономерности теории вероятностЕй.
1.1.Элементы комбинаторики.
При решении многих практических задач приходится выбирать из некоторой совокупности объектов элементы, обладающие тем или иным свойством, и располагать эти элементы в определенном порядке. В этих задачах речь идет о тех или иных комбинациях элементов. Такие задачи называются комбинаторными, а раздел математики, изучающий эти задачи называется комбинаторикой.
Определение:
Сочетаниями из n (различных) элементов по k элементов называют комбинации, составленные из данных n элементов по k элементов, которые отличаются друг от друга хотя бы одним элементом.
n!
Cnk = ------------
k!*(n-k)!
Пример: Дано множество {a,b,c} . Составить сочетания по 2 элемента.
3!
C32 : ab, bc, ac ; C32 = ----------- = 3 - их количество
2!*1!
Пример: В ящике 20 шаров: 12 белых, остальные черные. Сколькими способами можно отобрать 2 белых щара? 2 черных шара? 1 черный и 1 белый шар?
12! 11*12 8! 8*7
1) C122 = ------------- = ---------- = 66 ; 2) C82 = ------------ = ---------- = 28 ;
2!*10! 2 2!*6! 2
12! 8!
3) C121 * С81 = --------- * ----------- = 12*8 = 96 .
1!*11! 1!*7!
Определение:
Размещениями из n различных элементов по k элементов называют комбинации, составленные из данных n элементов по k элементов, которые различаются между собой либо самими элементами, либо их порядком.
n!
Ank = ------------
(n-k)!
Пример: Составить для множества {a,b,c} размещения по два элемента и определить их количество.
ab, ac, bc 3!
A32 : ba, ca, cb ; A32 = --------- = 6 - их количество.
1!
Пример : Сколько различных 3-х значных чисел можно составить из множества цифр {1, 2, 3, 4, 5} без повторений?
5!
А53 = ------- = 60 .
(5 – 3)!
Определение:
Перестановками из n различных элементов называют множества из данных n элементов, каждое из которых отличается от другого порядком элементов.
Pn = n!
Пример: Составить для множества {a,b,c} перестановки и определить их количество:
P3 = 3! = 6 : abc, bca, cba, bac, cab, acb.
1.2. Основные понятия теории вероятностей.
Основным понятием теории вероятности является понятие случайного события.
Случайным событием будем называть событие, которое при осуществлении некоторых условий может произойти или не произойти.
Теория вероятностей изучает закономерности, которым подчиняются случайные события.
Определение: Опыт, эксперимент, наблюдение, явление в теории вероятностей называют испытанием.
Примеры испытаний в теории вероятностей – подбрасывание монеты, выстрел по мишени и т.д..
Определение: Результат, исход испытания, называют событием.
События обозначают буквами: А, В, С, ….
Примеры: А = {выпадание орла} ; В = {выпадание решки}.
Классификация событий.
Определение: Событие называется достоверным, если оно неизбежно произойдет при данном испытании.
Пример: Событие C = {выпадание числа от 1 до 6} при подбрасывании игральной кости.
Определение: Два события называются несовместными, если появление одного из них исключает появление другого в одном и том же испытании.
Пример: Выпадание «орла» или «решки» при подбрасывании монеты.
О
пределение:
Два события А и В называют противоположными,
если в данном испытании они несовместны
и одно из них обязательно происходит
(обозначают А и
А ).
Пример: При выстреле по мишени противоположны:
А = {попадание} и А = {промах}.
Определение: Суммой двух событий “А” и “В” называют событие “С”, состоящее в наступлении или события “А”, или события “В”.
Пример: По мишени стреляют два стрелка одновременно.
А = {попадает первый стрелок},
В = {попадает второй стрелок},
С = А+В = {попадает в мишень хотя бы один из стрелков}.
Определение: Произведением двух событий “А” и “В” называют событие “С”, состоящее в том, что события “А” и “В” произойдут одновременно.
Пример: С = А*В = {попадают в мишень и первый и второй стрелок}.
Определение: Относительной частотой случайного события называют отношение числа m появлений события к общему числу n проведенных одинаковых испытаний.
m
P*(A)
= .
n
Пример: Проводится 6 серий выстрелов. Относительная частота события А = {попадание в мишень}:
в первой серии испытаний P*1(A) = 4/10,
во второй P*2(A) = 8/15,
в третьей P*3(A) = 13/25,
в четвертой P*4(A) = 27/50,
в пятой P*5(A) = 51/100,
в шестой P*6(A) = 74/150.
Опыт показывает, что относительная частота событий стремится к некоторому числу P. Это число P в дальнейшем будем называть вероятностью события A. Для рассмотренного примера серий выстрелов P*(A)1/2.