- •1. Предмет тер вера. Случ опыт. Случ событие.Элемент событие. Мн-во эл событий
- •2.Достоверн и невозможн событие. Сумма, разность, произведение.
- •3. Несовместные события. Полная группа событий. Противоположные события.
- •4. Классич и статистич определение вероятностей.
- •5. Формулы комбинаторики
- •6. Вероятн суммы несовместных событий. Следствия (о вероятн против события и суммы вер группы событий)
- •7.Теорема сложения вер 2х совместных соб. Вер суммы неск совместн событий как вер появления хоты бы одно из неск событий.
- •8. Условная вероятнось. Завис и независ события. Теорема умножения вероятней ( для 2х событий)
- •9. Формула полной вероятности
- •10. Формула Байеса (учебник)
- •10. Формула Байеса (лекции)
- •11. Схема Бернулли. Теорема Бернулли. Теорема Пуассона.
- •12. Случайные величины. Дискретные и непрерывные случайные величины
- •13. Закон распределения дискретной случайной величины
- •14. Функция распределения дискретной случайной величины
- •2. Свойство:
- •15. Математическое ожидание дискретной случайной величины. Свойства математического ожидания.
- •16. Дисперсия дискретной случайной величины. Св-ва дисперсии. Среднее квадратическое отклонение.
- •18. Закон распределения Пуассона. Математическое ожидание и дисперсия дискретной случайной величины, распределенной по закону Пуассона.
- •19.Функция распределения вероятностей непрерывной случайной величины и ее свойства.
- •20. Плотность распределения вероятностей непрерывной случайной величины и ее свойства.
- •21. Математическое ожидание и дисперсия непрерывной случайной величины. Среднее квадратическое отклонение.
- •22. Мода. Медиана. Наивероятнейшее число появления события в независимых испытания Бернулли. Геометрическая интерпретация числовых характеристик случайных величин.
- •24. Экспоненциальное распределение: плотность, функция распределения, математическое ожидание и дисперсия.
- •25. Нормальное распределение: плотность, функция распределения, математическое ожидание и дисперсия. Стандартное нормальное распределение. Функция Лапласа. Интеграл Пуассона.
- •27. Многомерные случайные величины. Закон распределения двумерной случайной величины. Закон распределения составляющих.
- •Условные законы распределения:
- •Функции регрессии:
- •Плотность распределения составляющих двумерной дискретной случайной величины.
- •Зависимые и независимые случайные величины.
- •Линейная зависимость между случайными величинами и значение коэффициента корреляции:
- •35. Центральная предельная теорема – теорема Ляпунова
- •Локальная теорема Лапласа:
- •33. Закон больших чисел.
- •34. Теорема Бернулли
Зависимые и независимые случайные величины.
С. в. Х и Y – независимые, если их совместная функция распределения в интервале F(X,Y)=F1(X)*F2(Y). F1(X) и F2(Y) – функции распределения X и Y как одномерн. величин. В другом случае Х и Y – зависимы.
Определение: Зависимость между двумя с. в. называется вероятностной (стохастической, статистической), если каждому значению из них соответствует определенное условное распределение другой.
В случае вероятностной зависимости нельзя точно определить значение другой, зная значение другой, а можно лишь указать распределения вероятности. Если с. в. независимы, то их линии регрессии X по Y и Y по Х параллельны осям.
Совместная плотность распределения независимых дискретных случайных величин:
Две непрерывные случайные величины называются независимыми, если плотность совместного распределения системы этих величин равна произведению плотностей распределения составляющих.
Ковариация независимых дискретных случайных величин:
Ковариацией (или корреляционным моментом) μxy случайных величин X и Y называют математическое ожидание произведения отклонений этих величин. Ковариация двух независимых случайных величин X и Y равна нулю: μxy =M{[X-M(X)]*[Y-M(Y)]}=M[X-M(X)]*M[Y-M(Y)]=0.
Линейная зависимость между случайными величинами и значение коэффициента корреляции:
Линейная зависимость случайных величин является частным случаем их функциональной зависимости.
Для того чтобы иметь количественный показатель того, насколько сильно зависят друг от друга случайные величины, часто используют коэффициент корреляции.
Коэффициент корреляции - мера линейной зависимости между случайными величинами.
Если |ρ|=1, то случайные величины линейно зависимы.
35. Центральная предельная теорема – теорема Ляпунова
Центральная предельная теорема – группа теорем, посвященных определению условий, при которых возникает нормальный закон распределения.
Теорема: X1, X2, …Xn – независимые с.в. с M(Xi)=ai, D(Xi)=σi2, абсолютным центральным магнитом третьего порядка M( | Xi-ai |3 )=mi и limn→∞ (i=1∑nmi) / (i=1∑nσi2)3/2 =0, то закон распределения Yn=X1+X2+…Xn при n→∞ приближается к нормальному с математическим ожиданием i=1∑nai и дисперсией i=1∑nσi2.
Смысл limn→∞ (i=1∑nmi) / (i=1∑nσi2)3/2 =0 состоит в том, чтобы в сумме Yn=i=1∑nxi не было слагаемых, влияние которых на рассеяние Yn велико по сравнению с суммарным влиянием др.
Локальная теорема Лапласа:
При большом числе испытаний n→∞ : Pn(m)=(1/√[npq]* √[2π])*e-1/2([m-np]/ √[npq])^2
Интегральная теорема Лапласа:
При большом количестве испытаний вероятность того, что число появлений события А находится в пределах от М1 до М2.
Pn(m1≤x1≤m2)=Φ ([m2-np]/ √[npq])*Φ([m1-np]/ √[npq]).
33. Закон больших чисел.
Под законом больших чисел в широком смысле понимают общий принцип, согласно которому совокупное действие большого числа случайных факторов приводит к результату почти не зависящему от случая. В узком смысле – ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа испытаний к некоторым определенным постоянным.
Закон больших чисел состоит в теоретическом обосновании методов матстатистики. Он устанавливает факт приближения средней величины больш. числа с.в. к постоянной величине, но это не ограничив. закономерность возникновения в результате суммарного действия с.в.
При некоторых условиях совокупное действие случайных величин приводит к нормальному закону распределения.
Неравентсво Маркова (лемма Чебышева):
Теорема: если с.в. Х принимает только неотрицательные значения (≥0) и имеет конечное математическое ожидание M(X)<∞, то
для любого (A>0) 1-p(x≤A)*P(X>A) ≤M(X)/A
(P(x≤A)≥1-M(X)/A)= 1-p(x≤A)*P(X>A) ≤M(X)/A
Неравенство Чебышева:
Для любой с.в. х P(|x-M(x)| ≥ε) ≤D(x)/ε2 (ε>0)
В другой форме P(|x-M(x)| ≤ε) ≥1- D(x)/ε2
Частные случаи:
С.в. X=m имеет биномиальное распределение.
С математическим ожиданием M(x)=np и дисперсией D(X)=np, тогда P(|m-np|≤ ε) ≥1- (npq)/ε2
Для частоты m/n события в n независимых испытаниях, в каждом из которых событие может произойти с одной и той же вероятностью p и дисперсией (pq)/n, P(|m/n-p|≤ ε) ≥1- (pq)/(nε2 ).
Теорема Чебышева:
Теорема: если дисперсии n независимых с. в. ограничены одной и той же постоянной |D(x)|<C, то при неограниченном увеличении числа n (n→∞), среднее арифметическое значение с.в. «сходится по вероятности» к среднему арифметическому их математических ожиданий.
Т.е. limn→∞ P ( | [(x1+x2+…xn)/n – [M(X1)+M(X2)+…+M(Xn)]/n] ≤ε| )
Замечание: «Сходимость по вероятности» означает, что (∑xi)/n к (∑M(xi))/n нужно понимать не как категорическое утверждение, а как утверждение, справедливость которого гарантируется с вероятностью сколь угодно близкой к 1 при n→∞.
Смысл т. Чебышева: при большом числе n с.в. X1, X2, Xn практически достоверно то, что их средняя величина случайная X=(∑xi)/n как угодно мало отличается от X=(∑M(xi))/n, т.е. становится неслучайной.
Следствие: Если с.в. X1, X2, Xn имеют одинаковые математические ожидания, равные а, т.е. M(x1)=M(x2)=…=a и их дисперсия ограничена одной и той же величиной С, то средняя арифметическая P( | (x1+x2+…xn)/n -a| ≤ε) ≥1-C/n ε2. limn→∞Р( | (x1+x2+…xn)/n -a| ≤ε )=1.