
- •Академия управления
- •Содержание
- •Часть I. Задачи по теории вероятностей 4
- •Глава 1. События и вероятности 4
- •Часть I. Задачи по теории вероятностей Глава 1. События и вероятности
- •1.1 Элементы комбинаторики
- •1.2 Пространство элементарных событий. Полная группа событий. Операции над событиями
- •Задачи.
- •1.3 Задачи на классическое определение вероятности и гипергеометрическое распределение
- •Гипергеометрическое распределение (урновая схема)
- •Задачи.
- •1.4 Геометрические вероятности
- •Задачи.
- •1.5 Формулы сложения и умножения вероятностей
- •Понятия:
- •Формулы умножения вероятностей.
- •Формулы сложения вероятностей.
- •Задачи.
- •1.6 Формула полной вероятности и формула Байеса
- •1. Формула полной вероятности
- •2. Формула Байеса
- •Задачи.
- •1.7 Схема Бернулли. Предельные теоремы для схемы Бернулли
- •5. Локальная теорема Муавра-Лапласа.
- •Задачи.
- •Глава 2. Случайные величины и законы их распределения
- •2.1 Законы и функции распределения случайных величин. Математическое ожидание и дисперсия
- •Задачи.
- •2.2 Важнейшие распределения: биномиальное, Пуассона, показательное, равномерное и геометрическое
- •Задачи.
- •2.3 Нормальное распределение и его свойства
- •Задачи.
- •2.4 Двумерные случайные величины. Совместная функция и плотность распределения случайных величин
- •5. Вероятность попадания в прямоугольную область:
- •Задачи.
- •Часть II. Математическая статистика Глава 3. Доверительные интервалы
- •3.1 Доверительные интервалы при известной и неизвестной дисперсии
- •Задачи.
- •Глава 4. Проверка статистических гипотез
- •4.1 Сравнение дисперсий
- •4.1.1 . Сравнение двух дисперсий нормальных генеральных совокупностей
- •Задачи.
- •4.1.2. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности
- •Задачи.
- •4.2 Сравнение средних генеральных совокупностей
- •4.2.1. Сравнение двух средних генеральных совокупностей, дисперсии которых известны (большие независимые выборки)
- •Задачи.
- •4.2.2. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки.
- •Задачи.
- •4.2.3. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности
- •Задачи.
- •Задачи.
- •Глава 5. Элементы теории корреляции
- •Задачи.
- •1. Найти коэффициент корреляции между величинами X и y, совместный закон распределения которых задан следующей таблицей:
- •Глава 6. Цепи Маркова
- •6.1 Цепи Маркова с дискретным временем
- •Задачи.
- •6.2 Цепи Маркова с непрерывным временем
- •Уравнение Колмогорова
- •Финальные вероятности состояний системы.
- •Задачи.
- •6.3. Задачи на использование схемы гибели и размножения
- •Задачи.
- •Глава 1.
- •1.1 Элементы комбинаторики.
- •1.3 Классическое определение вероятности и урновая схема.
- •1.4 Геометрические вероятности.
- •1.5 Формулы сложения и умножения вероятностей.
- •1.6 Формула полной вероятности и формула Байеса.
- •1.7 Схема Бернулли. Предельные теоремы для схемы Бернулли.
- •Глава 2.
- •2.1 Законы и функции распределения случайных величин.
- •2.2 Важнейшие распределения.
- •2.3 Нормальное распределение и его свойства.
- •2.4 Двумерные случайные величины.
- •Глава 3.
- •3.1 Доверительные интервалы при известной и неизвестной дисперсии
- •Глава 4.
- •4.1 Сравнение дисперсий.
- •4.2 Сравнение средних генеральных совокупностей.
- •Глава 5. Элементы теории корреляции.
- •Глава 6.
- •6.1 Дискретные цепи Маркова.
- •Непрерывные цепи Маркова.
- •Задачи на использование схемы гибели и размножения.
- •Приложения
Задачи.
1. Найти коэффициент корреляции между величинами X и y, совместный закон распределения которых задан следующей таблицей:
-
1
2
3
4
10
0,2
0,02
0,01
0
0,23
20
0,03
0,3
0,02
0
0,35
30
0,02
0,1
0,2
0,1
0,42
0,25
0,42
0,23
0,1
1
2. Двумерная случайная величина распределена по закону, приведенному в таблице:
-
Y
X
0
1
-1
0,1
0,2
0
0,2
0,3
1
0
0,2
Определить коэффициент корреляции величин X и Y.
3. Двумерная случайная величина равномерно распределена в области D, ограниченной прямыми X=0, Y=0 и X+Y=4. Определить коэффициент корреляции величин X и Y.
4. Число Х выбирается случайным образом из множества (1,2,3). Затем из того же множества выбирается наудачу число Y, равное или большее Х. Найти коэффициент корреляции.
Глава 6. Цепи Маркова
6.1 Цепи Маркова с дискретным временем
Краткие теоретические сведения.
1. Цепи Маркова
представляют собой частный вид случайных
процессов. Случайный процесс называется
марковским, если для любого момента
времени
вероятность
любого состояния системы в будущем
зависит только от ее состояния в настоящем
и не зависит от того, когда и каким
образом система пришла в это состояние.
Цепью Маркова с дискретным временем называют цепь, изменение состояний которой происходит в определенные фиксированные моменты времени.
Цепью Маркова с непрерывным временем называют цепь, изменение состояний которой происходит в любые случайные возможные моменты времени.
Переходной
вероятностью
называют
условную вероятность того, что из
состояния
в итоге следующего испытания система
перейдет в состояние
.
Матрицей перехода системы называют матрицу, которая содержит все переходные вероятности этой системы:
,
где - вероятности перехода за один шаг.
Основные свойства матрицы перехода:
Элементы каждой строки матрицы представляют собой вероятности всех возможных переходов за один шаг из выбранного состояния, в том числе и вероятность отсутствия перехода.
Элементы столбцов задают вероятности всех переходов системы за один шаг в заданное состояние.
В каждой строке матрицы вероятности перехода из состояния в любое возможное состояние образуют полную группу, поэтому
(сумма вероятностей строки = 1)
По главной диагонали матрицы перехода стоят вероятности
того, что система не выйдет из состояния, а останется в нем.
2. Часто требуется при известных переходных вероятностях , найти вероятность перехода из состояния в состояние за шагов.
Равенство Маркова
через промежуточные шаги).
Как следствие из
нее
3. Начальным
распределением Марковской цепи
называется распределение вероятностей
состояний в начале процесса
,
где
- вероятность нахождения системы в
начальный момент времени в состоянии
.
В частности, если начальное состояние
системы в точности известно, то начальная
вероятность
,
а все остальные равны нулю.
Если для однородной цепи Маркова заданы начальное распределение вероятностей и матрица перехода, то вероятности состояний системы на -ом шаге вычисляется
или
,
где (
)
задает вероятности пребывания системы
в состояниях
после
шагов, а
задает начальное распределение
вероятностей состояний системы,
-
матрица перехода.
4. Предельные вероятности состояний дискретной Марковской цепи определяются с помощью решения системы уравнений:
,
где
- вектор-строка, компонентами которого
являются предельные вероятности
состояний ,
-
матрица перехода,
-
единичная матрица, а второе соотношение
учитывает условие нормировки.