- •Введение
- •Глава 1. Теория вероятностей
- •1.1. Испытания и события
- •1.2. Классическое определение вероятности события
- •Основные свойства вероятности
- •1.3. Статистическое определение вероятности события
- •1.4. Понятия суммы и произведения событий
- •1.5.Теорема сложения вероятностей
- •1.6.Теорема умножения вероятностей
- •1.7. Формула полной вероятности. Формула Байеса
- •1.8. Повторные независимые испытания
- •1.8.1. Формула Бернулли
- •1.8.2. Локальная теорема Лапласа
- •1.8.3. Интегральная теорема Лапласа
- •1.9. Случайные величины
- •1.9.1. Дискретная случайная величина
- •1.9.2. Непрерывная случайная величина
- •1.10. Законы распределения случайных величин
- •1.10.1. Биномиальный закон распределения
- •1.10.2. Закон распределения Пуассона
- •1.10.3. Нормальный закон распределения (закон Гаусса)
- •1.11. Элементы корреляционного и регрессионного анализа
- •Расчетная таблица
- •Глава 2. Линейное программирование
- •2.1 Введение
- •2.1.1. Элементы линейной алгебры
- •Матрицы и действия над ними
- •2.1.2. Основные понятия линейного программирования
- •2.2. Геометрическое решение задач линейного программирования
- •Основные шаги графического метода
- •2.3. Симплексный метод
- •2.3.1. Решение производственной задачи симплексным методом
- •2.4 Транспортная задача
- •2.4.1. Математическая модель и анализ транспортной задачи
- •2.4.2. Составление начального плана перевозок
- •2. Метод наименьших стоимостей.
- •2.4.3. Распределительный метод решения транспортной задачи
- •Алгоритм распределительного метода решения транспортной задачи
- •Решение транспортной задачи распределительным методом
- •2.4.4. Метод потенциалов
- •Алгоритм решения транспортной задачи методом потенциалов
- •Решение транспортной задачи методом потенциалов
- •2.4.5. Особенности решения транспортной задачи с невыполненным балансом
- •Литература
- •Значения функции Гаусса
- •Нормальный закон распределения
- •Оглавление
- •Глава 1. Теория вероятностей 4
- •Глава 2. Линейное программирование 29
1.2. Классическое определение вероятности события
Для количественного сравнения между собой событий по степени возможности их появления вводится определенная мера, которая называется вероятностью события.
Случай называют благоприятным или благоприятствующим некоторому событию, если появление этого случая влечет за собой появление данного события.
Вероятностью некоторого события А называется отношение числа благоприятствующих данному событию равновозможных испытаний m к общему числу n равновозможных испытаний:
, (
)
(1.1)
Это классическое определение вероятности.
Основные свойства вероятности
,
где А - случайное событие.Вероятность достоверного события равна единице, так как для того, чтобы событие обязательно произошло, все случаи в опыте должны ему благоприятствовать, то есть
,
тогда
.Вероятность невозможного события равна нулю, так как ни один случай в опыте не благоприятствует такому событию, то есть m=0, тогда
.
Наряду с классическим определением вероятности существует статистическое определение вероятности события.
Пример 1.1. Пусть в урне имеется 12 белых и 7 черных шаров. Какова вероятность извлечь белый шар?
Решение.
При выборе шара равновозможно извлечь любой из 19 шаров, следовательно n=19. Из этих 19 шаров белого цвета 12, т.е. m = 12. Таким образом, вероятность вынуть белый шар равна:
Аналогично,
вероятность извлечь черный шар
.
1.3. Статистическое определение вероятности события
Формулу (1.1) используют для непосредственного вычисления вероятностей событий только тогда, когда опыт сводится к схеме случаев.
На практике классическое определение вероятности часто неприменимо по двум причинам. Во-первых, классическое определение вероятности предполагает, что общее число случаев n должно быть конечно, на самом же деле оно зачастую неограниченно. Во-вторых, иногда невозможно представить исходы опыта в виде схемы случаев.
Было замечено, что частота появления событий, не сводящихся к схеме случаев, при многократно повторяющихся опытах имеет тенденцию стабилизироваться около какой-то постоянной величины. Это свидетельствует о том, что данные события также обладают определенной степенью объективной возможности появления в опыте, меру которой можно представить в виде относительной частоты (или частости).
Швейцарский ученый Яков Бернулли привел математическое доказательство того, что при большом числе испытаний частость стремится воспроизвести вероятность и в пределе при большом числе опытов должна практически совпадать с ней. Это положение носит название закона больших чисел. Многие ученые проводили специальные опыты для проверки закона Бернулли, вычисляя частость появления событий, сводящихся, к схеме случаев, и сравнивая ее с вероятностью, вычисленной по классическому определению.
Так, французский натуралист Бюффон и английский статистик Пирсон проводили опыты с бросанием монеты (подсчитывалось число случаев выпадения “герба”). Результаты их опытов приведены в табл.1.1.
Как следует из таблицы, уже 4040 испытаний достаточно для совпадения эмпирической частости и вероятности до сотого знака, а 24 000 испытаний дают практически полное совпадение частости и вероятности. Таким образом, можно считать эмпирически подтвержденным, что частость событий, сводящихся к схеме случаев, при большом числе произведенных опытов стремится к их вероятности. Это свойство случайных событий, известное под названием устойчивости частот, можно перенести и на другие типы случайных событий, не обладающих симметрией исходов и не составляющих полную группу. Правда, подсчет теоретической вероятности для таких событий представляет известные трудности.
Таблица 1.1
Опыты |
Вероятность |
Частость |
Число испытаний |
Опыт Бюффона |
0,5000 |
0,5069 |
4040 |
Первый опыт Пирсона |
0,5000 |
0,5016 |
12000 |
Второй опыт Пирсона |
0,5000 |
0,5005 |
24000 |
Так возникло понятие статистической вероятности события, под которой понимается число, к которому стремится относительная частота появления события А при большом числе испытаний.
Статистическая вероятность вычисляется на основании результатов опытов по формуле:
, (
)
(1.2)
где М — число появлений события А в N опытах.
