
- •1.Классификация событий. Классическое определение вероятности.
- •2. Элементы комбинаторики: перестановки, сочетания, размещения, правило умножения и сложения.
- •4. Частота события. Стат. Определение вероятности.
- •5. Условная вероятность. Теорема умножения вероятностей. Независимость событий.
- •6. Формула полной вероятности. Формулы Байеса.
- •7. Повторные независимые испытания. Ф-ла Бернулли.
- •3. Действия над событиями. Соотношения между событиями. З-н сложения вероятностей.
- •9. Понятие случайной величины и ее ф-ии распр-ния.
- •8. Формула Пуассона. Локальная и интегральная предельные теоремы Лапласа.
- •11. Биномиальное распределение.
- •12. Распределение Пуассона.
- •10.Дискретные случайные величины. Числовые характеристики случайных величин.
- •22. Точечные и интервальные оценки. Доверительная вероятность и доверительный интеграл.
- •23. Доверительный интервал для оценки мат. Ожидания нормального распределения.
- •19. Оценка параметров по выборке. Понятие несмещенности, состоятельности и эффективности оценки.
- •21.Связь между хар-ми генеральной и выборочной совокупностей. Точечное оценивание.
- •17. Теоремы Чебышева и Бернулли. Центральная предельная теорема.
- •46. Градиентные методы. Методы наиск-его подъёма.
- •33. Различные формы записи задач линейного программирования.
- •41. Способы построения исходного опорного плана транспортной задачи.
- •13.Непрерывные случайные величины. Плотность распределения. Числовые хар-ки
- •16. Нормальное распределение. Вероятность попадания в заданный интервал нормальной св. Правило трех сигм.
- •14. Равномерное распределение. Показательное распределение. Вероятность попадания св в заданный интервал.
- •16. Понятие о з-не больших чисел. Неравенства Маркова и Чебышева.
- •45. Выпуклые и вогнутые функции и их свойства.
- •44. Градиент функции и его свойства.
- •18. Выборочный метод. Основные понятия. Полигон и гистограмма. Эмпирическая ф-ия распределения.
- •40.Постановка транспортной задачи по критерию стоимости в матричной форме.
- •47.Общая постановка задачи динамического программирования. Принцип оптимальности р.Беллмана.
- •50.Парные матричные игры с нулевой суммой.
7. Повторные независимые испытания. Ф-ла Бернулли.
Пусть
производится n испытаний, при чем
вероятность появления события А в каждом
испытании одна и та же и u=р и не зависит
от исхода других испытаний (независимых
испытаний). Такая последовательность
испытаний называется схемой Бернулли.
В условиях схемы Бернулли требуется
найти вероятность того, что при n
испытаниях событие А наступит m раз
(m≤n). Т.к. вероятность наступления события
А в одном испытании равна р, то вероятность
его ненаступления равна q=1-p. Обозначается
через Рn(m) вероятность появления события
А в n независимых испытаниях ровно m раз.
Тогда
- формула Бернулли, где число сочетаний
Число m0, которому при заданном n
соответствует максимальная вероятность
называется наивероятнейшим числом
появления события А. При заданных n и p
это число определяется неравенствами:
np-q≤m0≤np+p. Заметим, что всегда существует
целое число m0 удовлетворяющее двойному
неравенству np-q≤m0≤np+p. При этом, если
np+p – целое число, то наивероятнейших
числа два: np-q и np+p.
3. Действия над событиями. Соотношения между событиями. З-н сложения вероятностей.
Суммой (объединением) 2-ух событий А и В называется событие, состоящее в появлении хотя бы одного из них (А+В). Если А и В несовместные события, то сумма А и В означает появление только одного из них. Сумма событий А1, А2, …, Аn означает событие, состоящее в появлении хотя бы одного из них. Произведением (пересечением) 2-ух событий А и В называется событие, состоящее одновременно в их появлениях (АВ). Если события А и В несовместны, то их произведение является невозможным событием, т.е. АВ=О. Произведение n событий А1* А2* …* Аn означает событие, состоящее в появлении всех событий А1, А2, …, Аn. Разностью событий А и В называется событие С, которое означает, что наступает событие А и не происходит событие В (А-В). Св-ва операций суммы и произведения событий: 1. А+В=В+А, А*В=В*А; 2. (А+В)+С=А+(В+С)=(А+С)+В, (АВ)С=А(ВС)=(АС)В; 3. (А+В)*С=АС+ВС; 4. А+А=А, А*А=А для любого А; 5. А =О, А*О=О, А*Е=А, А+ =Е, А+О=А, А+Е=Е, где Е-достоверное событие, О-невозможное событие, А-любое, -событие, противоположное А. Если событие А обязательно произойдет при появлении некоторого другого события В, то говорят, что событие В представляет собой частный случай события А, или, что В влечет А. Обозначается В влечет А. Если А влечет В, В влечет А, т.е. событие А и В в данном опыте могут появиться или не появиться вместе, то их называют равносильными и эквивалентными и пишут А=В. Теорема 1 (з-н сложения вероятностей): вероятность суммы 2-ух событий равна сумме вероятностей этих событий без вероятности их совместного появления, т.е. Р (А+В)=Р(А)+Р(В)-Р(АВ). Следствие: вероятность суммы 2-ух несовместных событий равна сумме вероятностей этих событий, т.е. Р(А+В)=Р(А)+Р(В), где А и В – несовместны. Сумма вероятностей событий А1, А2, …, Аn образующих полную группу равна 1, т.е. Р(А1)+ Р(А2)+ … +Р(Аn)=1. Т..к. А и образуют полную группу, где А и - противоположные события, то сумма вероятностей противоположных событий равна 1, Р(А)+ Р( )=1. Есть стандартное обозначение вероятностей противоп-ых событий: Р(А)=р, Р( )= q, p+q=1.