- •Предмет теории вероятности. Основные задачи.
- •Понятие события, классификация
- •Классическое определение вероятности
- •Статистическое определение вероятности
- •Элементы комбинаторного анализа
- •Действия над событиями.
- •Теорема сложения вероятностей несовместных событий
- •Условная вероятность. Теорема умножения вероятностей. Независимые события.
- •Теорема сложения вер-тей совместных событий
- •Формула полной вероятности. Формула Байеса
- •Повторные независимые испытания. Формула Бернулли
- •Приближенные вычисления вероятностей в схеме испытаний Бернулли
- •Случайные величины. Закон распределение дискретной случайной величины
- •Математические операции над дсв
- •Математическое ожидание дсв
- •Математическое ожидание числа появлений события в нез. Исп.
- •Дисперсия дсв
- •Дисперсия числа появлений события в независимых испытаниях
- •Основные законы распределения дсв
- •Распределение Пуассона
- •Гипергеометрическое распределение
- •Функция распределения вероятностей случайной величины
- •График функции распределения дсв
- •Непрерывные случайные величины. График.
- •Теорема о вер-ти отдельно взятого значения нсв
- •Вероятность попадания нсв в заданный интервал
- •Плотность вероятности нсв
- •Нахождение функций по плотности распределения
- •Числовые характеристики случайных величин
- •Равномерный закон распределения нсв
- •Показательный закон распределения нсв
- •Нормальный закон распределения нсв
- •Нормальная кривая. Влияние параметров на ее форму.
- •Свойства случайной величины, распределенной по нормальному закону.
- •Закон больших чисел
- •Основные задачи математической статики
- •Сплошное и выборочное наблюдения. Генеральная и выборочная совокупности. Типы выборок. Репрезентативность.
- •Статистическое распределение выборки. Эмпирическая функция распределения. Полигон и гистограмма.
- •Оценка параметров генеральной совокупности. Свойства оценок.
- •Основные методы нахождения оценок.
- •Точечные оценки параметров генеральной совокупности по собственно-случайной выборке.
- •Интервальное оценивание. Предельная ошибка выборки.
Классическое определение вероятности
Существует неск-ко определений понятия вероятности. Приведем классическое определение. Оно связано с понятием благоприятствующего исхода. Те элементарн. исходы, в кот. интересующее нас событие наступает назовем благоприятствующими этому событию. Опред.: Вероятностью события А назыв. отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарн. исходов, образующих полную группу. P(A) = m/n, где m – число элементарн. исходов, благоприятствующих событию А; n – число всех возможн. элементарн. исходов испытания. Из определения вероятности вытекают ее св-ва: 1) вероятность достоверного события равна 1. Т.к. событие достоверно, то все элементарн. исходы испытания благоприятствуют этому событию, т.е. m=n. P(A)=n/n = 1; 2) Вероятность невозможн. события равна 0. Т.к. событие невозможно, то нет ни одного элементарн. исхода, благоприятствующего этому событию, значит m=0. P(A) = 0/n = 0; 3) Вероятн. случайного события есть неотрицат. величина, заключенная между 0 и 1, т.е. 0<P(A)<1. Действительно, случ. событию благоприятствует часть элементарн. исходов из общего числа элементарн. исходов, т.е. 0<m<n, тогда 0<m/n<1. Из этого следует, что 0<P(A)<1. Для любого события 0≤P(A)≤1.
Статистическое определение вероятности
Классическое определение вероятности предполагает, что число элементарн. исходов испытания конечно. На практике часто встречаются испытания, число возможных исходов кот. бесконечно. В таких случаях классическое определение неприменимо. Наряду с классич. определением используют статистич. определение. В кач-ве статистич. вероятности события принимают относительн. частоту или число близкое к ней. Св-ва вероятности, вытекающие из классич. определения сохраняются и при статистич. определ. Если событие достоверно, то его относит. частота =1, т.е. статистич. вероятность также =1. Если событие невозможно, то относит. частота = 0, т.е. статист. вероятность тоже =0. Для любого события 0W(A) 1, следоват. статистич. вероятность заключена между 0 и 1. Для существования статист. вероятности требуется: 1) возможность хотя бы принципиально проводить неограничен. число испытаний, в каждом из кот. событие наступает или не наступает; 2) устойчивость относит. частоты появления события в различных сериях достаточно большого числа испытаний. Недостатком статистич. определения является неоднозначность статистич. вероятности. Напр., если в рез-те достаточно большого числа испытаний оказалось, что относит. частота весьма близка к 0,6, то это число можно принять за статистич. вероятность. Но в кач-ве вероятности события можно принять не только 0,6, но и 0,59 и 0,61.
Элементы комбинаторного анализа
Комбинаторика — это область математики, в кот. изучаются вопросы о том, сколько различных комбинаций подчиненных тем или иным условиям можно составить из заданных объектов. Существует 2 правила, кот. применяются при решении комбинаторных задач: 1) правило произведения. Если объект А можно выбрать из совокупности объектов m способами, и после каждого такого выбора объект В можно выбрать n способами, то выбор пары АВ можно осуществить mn способами; 2) правило суммы. Если некоторый объект А можно выбрать из совокупности объектов m способами, а другой объект В можно выбрать n способами, то выбрать либо А, либо В можно m+n способами.
Выделяют 3 типа выборок: размещения, перестановки и сочетания. Если одна выборка отличается от другой порядком следования эл-тов и составом эл-тов, то они называются размещениями. Их число находится по формуле: nm = n!/(n-m)!; размещение с повторениями: Ᾱnm=nm
Е сли одна выборка отличается от другой только порядком следования эл-тов, то такие выборки называются перестановками. Pn=n!; перестановки с повторением: =(k1+k2+…+kn)!/k1!k2!…kn!
Если одна выборка отличается от другой составом эл-тов, но не важен порядок следования эл-тов, то такие выборки называются сочетаниями. Cnm=n!/m!(n-m)!; сочетание с повторением: =(n+m-1)!/m!(n-1)!