- •1.Классификация событий. Классическое определение вероятности.
- •2. Элементы комбинаторики: перестановки, сочетания, размещения, правило умножения и сложения.
- •4. Частота события. Стат. Определение вероятности.
- •5. Условная вероятность. Теорема умножения вероятностей. Независимость событий.
- •6. Формула полной вероятности. Формулы Байеса.
- •7. Повторные независимые испытания. Ф-ла Бернулли.
- •3. Действия над событиями. Соотношения между событиями. З-н сложения вероятностей.
- •9. Понятие случайной величины и ее ф-ии распр-ния.
- •8. Формула Пуассона. Локальная и интегральная предельные теоремы Лапласа.
- •11. Биномиальное распределение.
- •12. Распределение Пуассона.
- •10.Дискретные случайные величины. Числовые характеристики случайных величин.
- •22. Точечные и интервальные оценки. Доверительная вероятность и доверительный интеграл.
- •23. Доверительный интервал для оценки мат. Ожидания нормального распределения.
- •19. Оценка параметров по выборке. Понятие несмещенности, состоятельности и эффективности оценки.
- •21.Связь между хар-ми генеральной и выборочной совокупностей. Точечное оценивание.
- •17. Теоремы Чебышева и Бернулли. Центральная предельная теорема.
- •46. Градиентные методы. Методы наиск-его подъёма.
- •33. Различные формы записи задач линейного программирования.
- •41. Способы построения исходного опорного плана транспортной задачи.
- •13.Непрерывные случайные величины. Плотность распределения. Числовые хар-ки
- •16. Нормальное распределение. Вероятность попадания в заданный интервал нормальной св. Правило трех сигм.
- •14. Равномерное распределение. Показательное распределение. Вероятность попадания св в заданный интервал.
- •16. Понятие о з-не больших чисел. Неравенства Маркова и Чебышева.
- •45. Выпуклые и вогнутые функции и их свойства.
- •44. Градиент функции и его свойства.
- •18. Выборочный метод. Основные понятия. Полигон и гистограмма. Эмпирическая ф-ия распределения.
- •40.Постановка транспортной задачи по критерию стоимости в матричной форме.
- •47.Общая постановка задачи динамического программирования. Принцип оптимальности р.Беллмана.
- •50.Парные матричные игры с нулевой суммой.
4. Частота события. Стат. Определение вероятности.
Относительной частотой называется отношение числа опытов, в которых появилось это событие к числу всех произведенных опытов и обозначается W(A). Т.о. W(A)=m:n, m – число опытов, в которых появилось событие А; n – число всех произведенных опытов. Наблюдения позволили установить, что относительная частота события обладает свойством статистической устойчивости, т.е. в различных сериях многочисленных испытаний она принимает значения достаточно близкие к некоторой постоянной. Эту постоянную, являющуюся объективной численной характеристикой явления называется вероятностью данного события. Статистической вероятностью события называется число, около которого группируются значения относительной частоты данного события в различных сериях большого числа испытаний. В случае статистического определения вероятность обладает следующими св-ми: 1. Вероятность достоверного события=1; 2. Вероятность невозможного события=0; 3. Вероятность суммы двух несовместных событий=сумме их вероятностей. Частота события также обладает указанными выше св-ми. Т.о. Р(А)≈ W(A)=m:n, т.е. при статистическом определении вероятности за вероятность события принимается его относительная частота. Достаточно малую вероятность, при которой можно считать наступление события практически невозможным называется уровнем значимости. На практике обычно за уровень значимости принимают 0,01 (1% уровень значимости) или 0,05 (5% уровень значимости).
5. Условная вероятность. Теорема умножения вероятностей. Независимость событий.
Вероятность события В при условии, что произошло событие А называется условной вероятностью события В и обозначается Р(В/A). Если Р(В/A)=Р(В), т.е. Р(В) не зависит от того произошло ли событие А, то событие В называется независимым от события А. Независимость событий является св-ом взаимным, т.е. если событие В не зависит от события А, то и событие А не зависит от события В. События А1, А2, …, Аn называются независимыми в совокупности если каждое из них и произведение любого числа остальных является независимыми. Например, если событие А,В,С независимы, то это означает, что независимы А и В, А и С, В и С, А и ВС, В и АС, С и АВ. Теорема 2 (теорема умножения вероятностей): вероятность произведения 2-ух событий равна произведению вероятности одного из них на условную вероятность другого, при условии, что первое событие произошло. Т.е. Р(АВ)=Р(А)*Р(В/A)=P(B)*P(A/B). P(ABC)=P((AB)*C)=P(A*B)*P(C/AB)=P(A)P(B/A)P(C/AB).
Если события А и В независимы, то: Р(АВ)=Р(А)Р(В). Т.е. вероятность произведения независимых событий равна произведению их вероятностей.
6. Формула полной вероятности. Формулы Байеса.
Пусть
Н1, Н2,…,Нn – попарно несовместные события,
вероятности которых ≠0, т.е. Р(Нi)≠0,
i=1,n‾, и событие А влечет Н1+Н2+…+Нn, при
чем известны условные вероятности
Р(А/Нi), i=1,n‾. Вероятность события
определяется формулой:
- формула полной вероятности. Док-во:
Заметим, что событие А можно представить
в виде А=Н1А+Н2А+…+НnА. Р(А)=Р(Н1А+
Н2А+…+НnА)=Р(Н1А)+Р(Н2А)+Р(НnА)=Р(Н1)Р(А/Н1)+Р(Н2)Р(А/Н2)+
… + Р(Нn)Р(А/Нn) =
что и требовалось док-ть. Событие Н1,
Н2,…,Нn иногда называют гипотезами. Т.о.
Р(А), которая происходит только вместе
с одним из попарно несовместных событий
Н1, Н2,…,Нn равна сумме произведений
вероятностей каждого из этих событий
на соответствующую условную вероятность
события А. Вероятности гипотез Н1, Н2,…,Нn
при условии, что событие А уже произошло
опр-ся ф-ми Байеса:
где
к=1,n‾, Р(А) вычисляется по ф-ле полной
вероятности. Формулы Байеса могут
служить основанием для принятия решения
после проведения эксперимента. Но для
того, чтобы выбор правдоподобной гипотезы
имел достаточно оснований необходимо,
чтобы в результате эксперимента ее
послеопытная вероятность была достаточно
близка к 1 или 0. С равномерным распределением
встречаются всякий раз, когда условия
опыта величина Х принимает значение
в конечном промежутке [α;β]. Все значения
из этого промежутка
