
- •Содержание
- •Предисловие
- •1) Теория вероятностей;
- •I. Теория вероятностей
- •1.1. Случайные события
- •1.1.1. Предмет теории вероятностей
- •1.1.2. Классификация событий
- •1.1.3. Вычисление вероятности
- •1.1.3.1. Классическая вероятность
- •1.1.3.2. Элементы комбинаторики
- •1.1.4. Геометрическая вероятность
- •1.1.5. Частота события. Статистическое определение вероятности
- •1.1.6. Основные теоремы теории вероятностей
- •1.1.6.1. Операции над событиями
- •1.1.6.2. Условная вероятность. Теорема умножения вероятностей
- •1.1.6.3. Независимые события. Теорема умножения для независимых событий
- •1.1.6.4. События, независимые в совокупности. Вероятность появления хотя бы одного события
- •1.1.6.5. Теорема сложения вероятностей совместных событий
- •1.1.7. Формула полной вероятности
- •1.1.8. Вероятности гипотез. Формула Байеса
- •1.1.9. Схема независимых последовательных испытаний
- •1.1.9.1. Схема Бернулли. Формула Бернулли
- •1.1.9.2. Локальная теорема Муавра-Лапласа
- •1.1.9.3. Интегральная теорема Лапласа
- •1.2. Случайные величины
- •1.2.1. Дискретная случайная величина и ее закон распределения
- •1.2.2. Биномиальное распределение
- •1.2.3. Распределение Пуассона (пуассоновское приближение биномиального распределения)
- •1.3. Математическое ожидание дискретной случайной величины
- •1.4. Дисперсия дискретной случайной величины
- •1.5. Математические ожидания и дисперсии некоторых случайных величин
- •1.6. Непрерывные случайные величины
- •1.6.1. Функция распределения случайной величины
- •1.6.2. Плотность распределения вероятностей непрерывной случайной величины
- •1.6.3. Математическое ожидание, дисперсия и среднеквадратическое отклонение непрерывной случайной величины
- •1.6.4. Наиболее распространенные распределения непрерывных случайных величин
- •1.7. Закон больших чисел. Теорема Ляпунова
- •1.7.1. Неравенство Чебышева
- •1.7.2. Теорема Чебышева
- •1.7.3. Теорема Бернулли
- •1.7.4. Понятие о центральной предельной теореме (о теореме Ляпунова)
- •1.8. Понятие о случайном векторе и законе распределения его координат
- •1.8.1. Примеры случайных векторов
- •1.8.2. Закон распределения и функция распределения двумерной случайной величины
- •1.8.3. Функция распределения двумерной случайной величины и ее свойства
- •1.8.4. Плотность распределения двумерной случайной величины и ее свойства
- •1.8.5. Корреляционный момент и коэффициент корреляции
- •1.8.6. Двумерное нормальное распределение
- •1.8.7. Линейная регрессия. Прямые линии среднеквадратической регрессии
- •1.9. Элементы теории массового обслуживания
- •II. Математическая статистика
- •Список литературы
1.8.7. Линейная регрессия. Прямые линии среднеквадратической регрессии
Две переменные и могут быть связаны жесткой зависимостью. Например, так связаны площадь круга и его диаметр, количество купленного товара и его стоимость и т.д. Когда речь идет о случайных величинах, то и связаны статистически. В общем случае это означает, что каждому значению одной переменной (например, ) соответствует некоторое распределение вероятностей другой ( ), причем с изменением это распределение также изменяется.
На практике встречается ситуация, когда изучаемые переменные связаны приблизительно линейной зависимостью. Так чаще всего связаны урожайность и количество внесенных удобрений, рост человека и его масса и т.д. Поскольку линейная зависимость самая простая, в первую очередь пытаются установить между двумя изучаемыми случайными величинами и именно такую связь, т.е. представляют в виде
.
Функцию
называют «наилучшим приближением»
в смысле наименьших квадратов, если
коэффициенты
и
найдены из условия минимума математического
ожидания
.
Такую функцию называют среднеквадратической
регрессией
на
.
Можно показать, что она имеет вид:
.
(1.8.4)
Здесь
– математические ожидания и
среднеквадратические отклонения двух
компонент случайной величины
,
а
–
их коэффициент корреляции. Коэффициент
называют коэффициентом регрессии
на
,
а прямую
(*)
называют прямой среднеквадратической регрессии на .
Мерой точности
приближения
является так называемая остаточная
дисперсия величины
относительно случайной величины
,
равная
.
При
эта
остаточная дисперсия равна нулю, т.е.
при крайних значениях коэффициента
корреляции не возникает ошибки при
представлении
в виде линейной функции от
:
и
связаны линейной
зависимостью
(см.
рис. а)). Если же
,
то линейная связь между
и
тем слабее, чем меньше
и при
эта связь исчезает (см. рис. б), в)).
Рис. а)
.
Рис. б)
.
Рис. в)
.
Аналогично можно найти прямую среднеквадратической регрессии на :
(**)
(
–
коэффициент регрессии
на
)
и остаточную дисперсию
величины
относительно
.
Если
,
то обе прямые регрессии, как видно из
(*) и (**), совпадают.
Из
уравнений (*) и (**) также видно, что обе
прямые регрессии проходят через точку
,
которую называют центром совместного
двумерного распределения величин
и
.
1.9. Элементы теории массового обслуживания
1.9.1 Предмет теории массового обслуживания
В начале 20 века в связи с нуждами телефонного дела, рациональной организации массового обслуживания (билетные кассы, магазины, автоматы и пр.) возникло понятие систем массового обслуживания. Возник также целый ряд математических задач и способов их решения, составляющих содержание теории массового обслуживания. На начальном этапе важную роль в развитии данного направления сыграли работы датского ученого А.К. Эрланга – многолетнего сотрудника Копенгагенской телефонной компании. Со временем выяснилось, что задачи типа телефонных возникают в самых разнообразных исследованиях: в естествознании, в технике, экономике, на транспорте, в военном деле, при организации производства.
Работа любой системы массового обслуживания состоит в выполнении поступающего на нее потока требований или заявок. Заявки поступают одна за другой в некоторые, вообще говоря, случайные моменты времени. Обслуживание поступившей заявки продолжается какое-то время, после чего канал освобождается и снова готов для приема следующей заявки.
Каждая система массового обслуживания, в зависимости от числа каналов и их производительности, обладает некоторой пропускной способностью, позволяющей ей более или менее справляться с потоком заявок. Предметом теории массового обслуживания является установление зависимости между характером потока заявок, производительностью одного канала, числом каналов и успешностью (эффективностью) обслуживания. В качестве характеристик эффективности системы могут применяться различные величины и функции, например: средний процент заявок, получающих отказ и покидающих систему необслуженными; среднее время «простоя» отдельных каналов и системы в целом; среднее время ожидания в очереди; закон распределения длины очереди и т.д.
Пропускная способность системы массового обслуживания в общем случае зависит не только от ее параметров, но и от характера потока заявок. Если бы заявки поступали регулярно и обслуживание одной заявки тоже имело фиксированную длительность, то расчет пропускной способности не представлял бы особой трудности. На практике обычно моменты поступления заявок случайны; по большей части случайна и длительность обслуживания заявки. В связи с этим процесс работы системы протекает нерегулярно: в потоке заявок образуются местные сгущения и разряжения. Сгущения могут привести либо к отказам в обслуживании, либо к образованию очередей. Разряжения могут привести к непроизводительным простоям отдельных каналов и системы в целом.
Таким образом, процесс функционирования системы массового обслуживания представляет собой случайный процесс. Чтобы дать рекомендации по рациональной организации системы, выяснить ее пропускную способность и предъявить к ней обоснованные требования, необходимо изучить случайный процесс, протекающий в системе, и описать его математически. Этим и занимается теория массового обслуживания.
1.9.2.Понятие о цепях Маркова
1.9.2.1. Цепь Маркова
Для
описания процесса функционирования
систем массового обслуживания широко
используется математический аппарат
цепей Маркова. Цепью Маркова называют
последовательность испытаний, в каждом
из которых появляется только одно из
несовместных событий
полной группы, причем условная вероятность
того, что в
-м
испытании наступит событие
,
при условии, что в
-м
испытании наступило событие
,
не зависит от результатов предыдущих
испытаний (т.е. от того, какие события
имели место на
шагах). Например, если последовательность
испытаний образует цепь Маркова и полная
группа состоит из четырех несовместных
событий
,
причем известно, что в шестом испытании
появилось событие
,
то условная вероятность того, что в
следующем, седьмом испытании наступит
событие
,
не зависит от того, какие события
появились в первом, втором,…, пятом
испытаниях (система без «памяти»).
Можно сразу отметить: привычная схема независимых испытаний (схема Бернулли) является частным случаем цепи Маркова. Цепь Маркова, таким образом, является обобщением понятия независимых испытаний.
Терминология
марковских цепей применяется к системам
массового обслуживания следующим
образом. Пусть система в каждый момент
времени находится в одном из
состояний: первом, втором, …,
-м.
В отдельные моменты времени в результате
испытания состояние системы изменяется,
т.е. происходит переход системы из
одного состояния, например
,
в другое, например
.
В частности, после испытания система
может остаться в том же состоянии
(перейти из состояния
в состояние
).
Таким образом, события называют
состояниями системы, а испытания –
изменениями ее состояний.
Цепью Маркова с дискретным временем называют цепь, изменение состояний которой происходит в определенные фиксированные моменты времени.
Цепью Маркова с непрерывным временем называют цепь, изменение состояний которой происходит в любые случайные моменты времени.
1.9.2.2. Однородная цепь Маркова. Переходные вероятности. Матрица перехода
Однородной
называют цепь Маркова, если условная
вероятность
(перехода из состояния
в состояние
)
не зависит от номера испытания. Поэтому
вместо
пишут просто
.
Пример.
Случайное блуждание. Пусть на прямой
в точке с целочисленной координатой
находится частица. В определенные
моменты времени
частица испытывает толчки. Под действием
толчка частица с вероятностью
смещается на единицу вправо и с
вероятностью
– на единицу влево. Ясно, что положение
(координата) частицы зависит от того,
где частица находилась непосредственно
после предыдущего толчка, и не зависит
от того, как она двигалась под действием
остальных предшествующих толчков.
Таким образом, случайное блуждание – пример однородной цепи Маркова с дискретным временем.
Далее ограничимся элементами теории конечных однородных цепей Маркова.
Переходной
вероятностью
называют
условную вероятность того, что из
состояния
(в котором система оказалась в результате
предыдущих испытаний) в итоге следующего
испытания система перейдет в состояние
.
Таким образом, первый индекс в переходной
вероятности указывает номер предшествующего,
а второй – номер последующего состояния.
Например,
–
вероятность «перехода» из первого
состояния в первое, а
–
вероятность перехода из второго состояния
в третье.
Пусть число состояний конечно и равно .
Матрицей перехода системы называют матрицу, которая содержит все переходные вероятности этой системы:
Так как в каждой строке матрицы расположены вероятности перехода из одного и того же состояния во все остальные, которые образуют полную группу, то сумма вероятностей, расположенных в одной строке, равна единице:
Например, матрица перехода системы, которая может находиться в трех состояниях, может иметь такой вид:
1.9.2.3. Равенство Маркова
Кроме переходных
вероятностей для систем массового
обслуживания представляют интерес и
другие вероятности. Обозначим через
вероятность того, что в результате
шагов (испытаний) система перейдет из
состояния
в состояние
.
Например,
– вероятность перехода за
шагов из состояния
в состояние
.
Следует иметь в виду, что при
получаем переходные вероятности:
Совершенно
очевидно, что переходные вероятности
позволяют однозначно определить любые
вероятности
.
В самом деле, введем в рассмотрение
некоторое промежуточное состояние
и будем считать, что из первоначального
состояния
система за
шагов переходит в состояние
с вероятностью
, а затем за
шагов из промежуточного состояния
она переходит в конечное состояние
с вероятностью
.
Тогда по формуле полной вероятности
.
(*)
Эта формула называется равенством Маркова.
Зная
все переходные вероятности
,
т.е. зная матрицу
перехода из состояний в состояния за
один шаг, можно найти все вероятности
перехода из состояния в состояние
за два шага, следовательно, и саму матрицу
перехода
;
по известной матрице
можно найти матрицу
перехода из состояний в состояния за 3
шага, и т.д.
Действительно,
полагая в (*)
,
получим
Из
этой записи очевидно, что
Аналогично, полагая в равенстве Маркова
,
можно убедиться, что
В общем случае
Пример. Шахтный вентилятор местного проветривания может находиться в двух состояниях: 1) в работе; 2) в ремонте. Матрица перехода имеет вид
Найти
Решение. Перемножая матрицы, получим