- •1.Случайные события. Достоверное и невозможное события. Совместимые, несовместимые и противоположные события.
- •2.Определение классической вероятности. Полная группа событий, элементарные события.
- •3.Статистическое определение вероятности. Частота события.
- •4.Основные формулы комбинаторики. Размещения, сочетания и перестановки.
- •5.Теорема сложения вероятностей совместимых событий. Сумма и произведение событий.
- •6.Теорема умножения вероятностей. Зависимые и независимые события, условная вероятность.
- •7. Теорема сложения вероятностей несовместимых событий. Сумма событий.
- •8.Формула полной вероятности. Произведение событий. Формула Байеса.
- •9.Понятие св. Дискретные и непрерывные св.
- •10.Закон распределения дискретной св. Примеры.
- •11.Функция распределения св и ёё свойства.
- •12.Мат.Ожидание дсв. Теорема о мат.Ожидании.
- •13. Свойства мат.Ожидания дсв.
- •18.Плотность вероятности нсв и её свойства.
- •19.Мат.Ожидание,дисперсия и среднее квадратическое отклонение нсв
- •20 Биноминальное распределение
- •21.Геометрическое распределение
- •22.Равномерное распределение непрерывной случайной величины
- •24.Закон нормального распределения
- •26.Основные понятия многомерных св.
- •27.Закон распределения вероятностей двумерной дсв.
- •28.Функция распределения двумерной св и её свойства.
- •33.Генеральная и выборочная совокупности.
- •34.Повторная и бесповторная выборки. Репрезентативная выборка.
- •35.Способы отбора в выборочную совокупность.
- •36.Стат.Распределение выборки или вариационный ряд.
- •37.Эмпирическая функция распределения и её свойства.
- •38.Графическое представление выборки. Полигон и гистограмма.
- •39. Стат.Оценки параметров распределения. Несмещенные, эффективные и состоятельные оценки.
- •40.Генеральная и выборочная средняя.
- •41.Генеральная и выборочная дисперсия.
- •42.Оценка генеральной дисперсии по исправленной выборочной дисперсии.
- •43.Вычисление числовых характеристик вариационного ряда с помощью условных вариант.
- •44.Метод моментов для оценки вариационного ряда.
- •45.Метод наибольшего правдоподобия для оценки параметров распределения.
- •46. Метод наибольшего правдоподобия для биноминального распределения
- •47. Метод наибольшего правдоподобия для пуассоновского распределения
- •48.Показательный (экспоненциальный) закон распределения
- •49.Интервальные оценки числовых характеристик
13. Свойства мат.Ожидания дсв.
1. М(Х) постоянной величины равно этой постоянной. М(С)=С
2.Постоянный множитель можно вынести за знак мат.ожидания М(КХ)=К*М(Х)
3.Сумма мат.ожидания конечного числа СВ равна сумме их мат.ожиданий. М(Х±У)=М(Х)±М(У)
4.Мат.ожидание произведения конечного числа независимых СВ равно произведению их мат.ожиданий. М(ХУ)=М(Х)*М(У)
5.Если каждому значению СВ прибавить одно и то же число,то мат.ожидание увеличится (уменьшится) на это число.
6.Мат.ожидание отклонения СВ от её мат.ожидания равно 0. М(Х-М(Х))=0
14.Дисперсия ДСВ. Теорема об отклонении мат.ожидания.
Дисперсией ДСВ наз-ют мат.ожидание квадрата отклонения СВ от её мат.ожидания D(Х)=М[Х-М(Х)]^2
Теорема. Дисперсия равна разности между мат.ожиданием квадрата СВ Х и квадратом её мат.ожидания.D(Х)=М(Х^2)-(М(Х))^2
15. Свойства дисперсии ДСВ.
1. Дисперсия const=0 D(С)=М[(C-M(C))^2]=M(0)=0
2.Постоянный множитель можно вынести за знак D, возведя его в квадрат.
D(KX)=K^2D(X)
3.Дисперсия суммы независимых СВ равна сумме дисперсий. D(X+Y)=D(X)+D(Y)
4.Дисперсия СВ равна мат.ожиданию квадрата этой СВ минус квадрат её ожидания.
D(X)=M(X^2)-M^2(X)
5. Дисперсия разности СВ равна сумме их дисперсий. D(X-Y)=D(X)+D(Y)
16. Непрерывные СВ. Определение вероятности.
CВ наз-ся непрерывной, если ее функция непрерывна и дифференцируема в любой точке за исключением конечного числа. Вероятность любого отдельно взятого значения для непрерывной СВ равна нулю, т.е. Р(Х=хi)=0
17.Функция распределения непрерывной СВ и её свойства.
Функцией распределения называют функцию F(x), определяющую для каждого значения х вероятность того что СВ Х примет значение, меньше х, т.е. F(x)=P(X<x).
Свойства:
1.Значения функции распределения принадлежат отрезку от 0 до 1.
2.Функция распределения-неубывающая, F(x2)≥F(x1) если х2>х1.
3.Если все возможные значения СВ Х принадлежат интервалу (a,b), то F(x) = 0 при
x≤a; F(x)=1 при x≥b
4. Функция распределения непрерывна слева.
18.Плотность вероятности нсв и её свойства.
Плотность вероятности НСВ – производная функции её распределения (тоже самое что вероятность для ДСВ).
Свойства:
1.Плотность вероятности НСВ неотрицательна, т.к. это производная неубывающей функции.
2. Вероятность попадания значений НСВ в заданный интервал определяется формулой Р(а≤Х≤b)=F(b)-F(a)
3. Функция распределения может быть выражена через плотность вероятности. F(x)=∫(в х,н -∞) F(t)=dt
4. Интеграл от плотности вероятности = 1
19.Мат.Ожидание,дисперсия и среднее квадратическое отклонение нсв
Мат. Ожидание НСВ Х, возможные значения которой принадлежат всей оси Ох, определяется равенством M(X)=∫(∞;-∞) xf(x)dx
Дисперсия НСВ Х D(X)=∫(∞;-∞) [x-M(X)]^2f(x)dx
Среднее квад.отклонение НСВ определяется также как и для ДСВ σ(Х)=√D(X)
20 Биноминальное распределение
Если производится п независимых испытаний, в каждом из которых событие А может появиться с одинаковой вероятностью р в каждом из испытаний, то вероятность того, что событие не появится, равна q = 1 – p. Примем число появлений события в каждом из испытаний за некоторую случайную величину Х. Чтобы найти закон распределения этой случайной величины, необходимо определить значения этой величины и их вероятности. Значения найти достаточно просто. Очевидно, что в результате п испытаний событие может не появиться вовсе, появиться один раз, два раза, три и т.д. до п раз. Вероятность каждого значения этой случайной величины можно найти по формуле Бернулли. Эта формула аналитически выражает искомый закон распределения. Этот закон распределения называется биноминальным.
Пример. Две игральные кости одновременно бросают 2 раза. Написать биноминальный закон распределения дискретной случайной величины Х – числа выпадений четного числа очков на двух игральных костях. Каждая игральная кость имеет три варианта четных очков – 2, 4 и 6 из шести возможных, таким образом, вероятность выпадения четного числа очков на одной кости равна 0,5. Вероятность одновременного выпадения четных очков на двух костях равна 0,25. Вероятность того, что при двух испытаниях оба раза выпали четные очки на обеих костях, равна: Вероятность того, что при двух испытаниях один раз выпали четные очки на обеих костях: Вероятность того, что при двух испытаниях ни одного раза не выпаде четного числа очков на обеих костях: