
- •Содержание
- •Предисловие
- •1) Теория вероятностей;
- •I. Теория вероятностей
- •1.1. Случайные события
- •1.1.1. Предмет теории вероятностей
- •1.1.2. Классификация событий
- •1.1.3. Вычисление вероятности
- •1.1.3.1. Классическая вероятность
- •1.1.3.2. Элементы комбинаторики
- •1.1.4. Геометрическая вероятность
- •1.1.5. Частота события. Статистическое определение вероятности
- •1.1.6. Основные теоремы теории вероятностей
- •1.1.6.1. Операции над событиями
- •1.1.6.2. Условная вероятность. Теорема умножения вероятностей
- •1.1.6.3. Независимые события. Теорема умножения для независимых событий
- •1.1.6.4. События, независимые в совокупности. Вероятность появления хотя бы одного события
- •1.1.6.5. Теорема сложения вероятностей совместных событий
- •1.1.7. Формула полной вероятности
- •1.1.8. Вероятности гипотез. Формула Байеса
- •1.1.9. Схема независимых последовательных испытаний
- •1.1.9.1. Схема Бернулли. Формула Бернулли
- •1.1.9.2. Локальная теорема Муавра-Лапласа
- •1.1.9.3. Интегральная теорема Лапласа
- •1.2. Случайные величины
- •1.2.1. Дискретная случайная величина и ее закон распределения
- •1.2.2. Биномиальное распределение
- •1.2.3. Распределение Пуассона (пуассоновское приближение биномиального распределения)
- •1.3. Математическое ожидание дискретной случайной величины
- •1.4. Дисперсия дискретной случайной величины
- •1.5. Математические ожидания и дисперсии некоторых случайных величин
- •1.6. Непрерывные случайные величины
- •1.6.1. Функция распределения случайной величины
- •1.6.2. Плотность распределения вероятностей непрерывной случайной величины
- •1.6.3. Математическое ожидание, дисперсия и среднеквадратическое отклонение непрерывной случайной величины
- •1.6.4. Наиболее распространенные распределения непрерывных случайных величин
- •1.7. Закон больших чисел. Теорема Ляпунова
- •1.7.1. Неравенство Чебышева
- •1.7.2. Теорема Чебышева
- •1.7.3. Теорема Бернулли
- •1.7.4. Понятие о центральной предельной теореме (о теореме Ляпунова)
- •1.8. Понятие о случайном векторе и законе распределения его координат
- •1.8.1. Примеры случайных векторов
- •1.8.2. Закон распределения и функция распределения двумерной случайной величины
- •1.8.3. Функция распределения двумерной случайной величины и ее свойства
- •1.8.4. Плотность распределения двумерной случайной величины и ее свойства
- •1.8.5. Корреляционный момент и коэффициент корреляции
- •1.8.6. Двумерное нормальное распределение
- •1.8.7. Линейная регрессия. Прямые линии среднеквадратической регрессии
- •1.9. Элементы теории массового обслуживания
- •II. Математическая статистика
- •Список литературы
II. Математическая статистика
Математическая статистика – наука, занимающаяся разработкой методов получения, описания и обработки опытных данных с целью изучения закономерностей случайных массовых явлений. Массовые явления – это многократно повторяющийся опыт с одинаковыми условиями (например, массовое производство одинаковых изделий).
Задачи математической статистики:
1) Указать способы сбора и группировки статистических сведений, полученных в результате наблюдений или в специально поставленных экспериментах;
2) Разработать методы анализа статистических данных:
а) оценка неизвестной вероятности;
б) оценка параметров распределения, вид которого известен;
в) проверка статистических гипотез о виде неизвестного распределения;
г) оценка зависимости случайной величины от одной или нескольких других случайных
величин.
2.1. Общая терминология: генеральная совокупность, выборка
Пусть
требуется исследовать какой-либо
признак, свойственный большой группе
однотипных изделий: размер деталей, вес
изделий и т.д. Совокупность значений
всех
изделий данного типа называется
генеральной совокупностью. При этом
предполагается, что число
в генеральной совокупности весьма
велико. В некоторых случаях можно
полагать количество значений, образующих
генеральную совокупность, бесконечным.
Например, дальность до цели при
артиллерийской стрельбе может при
оценивании (измерении) принимать сколь
угодно много значений.
На практике сплошное обследование (всех возможных значений признака, всех изделий многочисленной партии) применяется редко, поскольку это обычно связано с материальными затратами. Поэтому обычно случайно отбирают из всей совокупности ограниченное число объектов (изделий) и подвергают их изучению, т.е. применяют так называемый выборочный метод.
Выборочной совокупностью, или просто выборкой называется совокупность случайно отобранных объектов.
Таким
образом, выборочный метод состоит в
том, что из генеральной выборки берется
выборка из
образцов
и определяются характеристики выборки,
которые принимаются в качестве
приближенных значений соответствующих
характеристик генеральной совокупности.
Объем
совокупности – число ее объектов.
Это относится как к объему генеральной
совокупности
,
так и к объему обычной выборки
.
При составлении выборки можно поступать двумя способами: извлеченный объект может быть возвращен или не возвращен в генеральную совокупность. В соответствии с этим выборки подразделяют на повторные и бесповторные.
Повторная выборка – выборка, при которой отобранный объект перед отбором следующего возвращается в генеральную совокупность.
Бесповторная выборка – выборка, при которой отобранный объект в генеральную совокупность не возвращается.
Для того, чтобы по данным выборки можно было достаточно уверенно судить об интересующем нас признаке генеральной совокупности, необходимо, чтобы объекты выборки правильно его представляли. Это требование коротко формулируют так: выборка должна быть репрезентативной (представительной).
Вопрос о
представительности выборки весьма
непрост. Если объем
генеральной выборки конечен, то
осуществлять бесповторную выборку,
вообще говоря, нельзя, т.к. испытания
становятся зависимыми: если на первом
шаге отобран какой-либо объект и он не
возвращается в генеральную совокупность,
при последующих отборах вероятность
извлечь объект с такой же характеристикой
уменьшается. В то же время, при очень
большом объеме генеральной совокупности
это различие может оказаться несущественным
и бесповторную выборку все же применяют.
В дальнейшем, если не оговорено противное, будем предполагать, что при отборе осуществляется равновозможный выбор из всех элементов генеральной совокупности с возвращением отобранных объектов.
2.2. Эмпирическая функция распределения, полигон и гистограмма
Пусть
из генеральной совокупности извлечена
выборка объема
,
причем значение
наблюдалось
раз,
–
раз,…,
–
раз. Тогда
.
Каждое наблюдаемое значение
называется вариантой, последовательность
вариант обычно располагают в возрастающем
порядке, и тогда эта последовательность
называется вариационным рядом.
Числа наблюдений
называются частотами, а их отношения
к объему выборки
– относительными частотами. На
практике по выборочным значениям строят
аналог закона распределения, который
называется статистическим распределением
выборки или выборочным распределением.
Под этим понимается перечень вариант
и соответствующих им частот или
относительных частот.
Пример
1. Задано распределение частот выборки
объема
:
-
2
6
12
3
10
7
Как выглядит распределение относительных частот?
Решение.
Относительные частоты:
Распределение относительных частот имеет вид:
-
2
6
12
0,15
0,50
0,35
Контроль:
Предположим, что
в результате опыта получена выборка
объема
и построено статистическое распределение
частот некоторого признака
.
Введем обозначение: пусть
– число наблюдений, при которых
наблюдались значения признака, меньшие
.
Относительная частота события
,
очевидно, равна
.
Если изменять
,
то и
меняется, т.е.
есть функция
.
Т.к. эта зависимость находится эмпирическим
путем (из опыта), то ее называют
эмпирической.
Эмпирической функцией распределения (выборочной функцией распределения) называют функцию
.
Здесь – объем выборки, – число вариант, меньших .
В
отличие от
рассматривают также теоретическую
функцию распределения
для генеральной совокупности. Таким
образом, функция
описывает вероятность события
,
а функция
определяет относительную частоту этого
же события в конкретной выборке.
Из теоремы Бернулли следует, что
Отсюда следует целесообразность использования эмпирической функции распределения для приближенной оценки по опытным данным.
Функция обладает всеми свойствами :
1)
Значения функции
принадлежат отрезку
.
2) – неубывающая функция;
3)
Если
– наименьшая варианта, то
при
.
4)
Если
– наибольшая варианта, то
при
.
Пример 1. Построить эмпирическую функцию распределения по выборочному распределению
-
Варианты
2
6
10
Частоты
12
18
30
Решение. Объем
выборки равен
.
Наименьшая варианта равна
,
значит
при
.
Значения
,
а именно
наблюдались
раз, следовательно при
.
Значения
,
а именно
и
,
наблюдались
раз, поэтому при
.
Наконец, т.к.
– наибольшая варианта,
при
.
Таким образом
График функции имеет вид:
Полигон и гистограмма – это графики выборочного статистического распределения.
Полигон
частот – ломаная, отрезки которой
соединяют точки
Полигон
относительных частот – ломаная,
отрезки которой соединяют точки
где
– объем выборки.
В
случае непрерывной случайной величины
целесообразно строить не полигон, а
гистограмму. Для этого интервал, в
котором заключены все наблюдаемые
значения
,
разбивают на несколько частичных
интервалов равной протяженности
и находят для каждого
-го
частичного интервала величину
– сумму частот вариант, попавших в этот
интервал. Гистограммой частот называют
ступенчатую фигуру, состоящую из
прямоугольников, основаниями которых
служат частичные интервалы длины
,
а высоты равны отношениям
(плотности частот). Таким образом, площадь
-го
частичного прямоугольника равна
– сумме частот вариант
-го
интервала. Следовательно, площадь
гистограммы частот равна сумме всех
частот, т.е. объему выборки
.
Пример.
Результаты наблюдения выборки объема
разбиты на 7 частичных интервалов и
представлены в таблице
Частичный
интервал,
|
Сумма частот |
Плотности частот
|
5—10 |
4 |
0,8 |
10—15 |
6 |
1,2 |
15—20 |
16 |
3,2 |
20—25 |
36 |
7,2 |
25—30 |
24 |
4,8 |
30—35 |
10 |
2,0 |
35—40 |
4 |
0,8 |
Добавим в таблицу еще один столбец, чтобы построить гистограмму частот. Вычислим , где – длина частичного интервала. Гистограмма приведена на рисунке
Если
отнормировать полученную гистограмму
частот, т.е. значение каждой ординаты
выбрать равным
,
то фигура называется гистограммой
относительных частот. Площадь
гистограммы относительных частот,
таким образом, равна единице.
2.3. Статистические оценки параметров распределения
На
практике часто возникает такая задача:
из некоторых соображений известно, что
изучаемая случайная величина имеет
вполне определенный закон распределения
(нормальный, равномерный, экспоненциальный
и др.). Неизвестными, однако, оказываются
параметры распределения. Для нормального
закона это могут быть математическое
ожидание
,
или среднеквадратическое отклонение
,
либо и то и другое. Для экспоненциального
закона возникает задача оценки
единственного параметра этого
распределения
.
Для
нахождения оценок такого рода исследователь
располагает лишь выборкой
,
полученной в результате
наблюдений. Только через эти данные он
и должен выразить оцениваемый параметр.
В общем случае оценка любого параметра
является некоторой функцией всех
наблюдаемых данных. Другими словами,
статистической оценкой неизвестного
параметра теоретического распределения
называют некоторую функцию от
наблюдаемых случайных величин. Одной
из задач математической статистики и
является выработка рекомендаций по
построению оценок неизвестных параметров.
2.3.1. Несмещенные, эффективные и состоятельные оценки
Существует целый раздел математической статистики, который занимается общим подходом к построению оценок измеряемых параметров.
Одним из требований обычно является так называемая несмещенность оценки.
Обозначим оцениваемый
параметр теоретического распределения
через
,
а его статистическую оценку –
.
Допустим, что по выборке объема
найдена оценка
.
Повторим этот опыт многократно: каждый
раз извлекая из генеральной совокупности
выборки объема
(
раз), получим
значений оценки
.
Мы теперь можем считать, что величина
случайна, а
– ее возможные значения. Предположим,
что
не совпадает с истинным значением
,
скажем
.
Это означало бы, что в среднем мы завышаем
оценку истинного значения параметра.
Если
,
то в среднем оценка оказывается
заниженной. И то и другое приводит к
систематическим (одного знака) ошибкам.
По этой причине естественно потребовать,
чтобы
,
т.е. математическое ожидание оценки
должно совпадать с истинным значением
оцениваемого параметра. Такая оценка
называется несмещенной. Несмещенная
оценка не содержит систематических
ошибок.
Смещенной
называется оценка, для которой
.
Не следует, однако думать, что добившись несмещенности, мы наилучшим образом решили задачу оценки неизвестного параметра. Если возможные значения сильно рассеяны вокруг своего среднего значения (истинного значения ), то оценка может оказаться весьма далекой от истинного значения. Разумеется, хотелось бы, чтобы дисперсия оценки была как можно меньше.
Эффективной называют статистическую оценку, которая при заданном объеме выборки имеет наименьшую возможную дисперсию.
С
теорией оценок связан еще один термин
– состоятельность оценки. Состоятельной
называют оценку, которая при
стремится по вероятности к оцениваемому
параметру. Например, если оценка
несмещенная и при
ее дисперсия стремится к нулю, то такая
оценка оказывается состоятельной.
2.3.2. Статистическая (выборочная) оценка математического ожидания
Рассмотрим следующую
задачу. Имеется случайная величина
с математическим ожиданием
и дисперсией
;
оба параметра нам неизвестны. Требуется
на основании опыта, т.е. на основании
выборки объема
независимых значений случайной величины
,
определить параметр
.
Покажем, что для этой цели наилучшей в
некотором смысле оценкой является
среднее арифметическое значение
наблюдаемых величин:
.
Сначала убедимся в несмещенности такой оценки:
Оценка не смещена, т.к. ее математическое ожидание равно истинному значению оцениваемого параметра, т.е математическому ожиданию генеральной совокупности.
Теперь вспомним, что в соответствии с законом больших чисел
Но
это означает, что оценка
по вероятности при
сходится к
,
т.е. является состоятельной оценкой.
Таким образом, мы доказали, что среднее арифметическое значение наблюдаемых данных
является несмещенной и состоятельной оценкой математического ожидания.
При этом указанные свойства оценки никак не связаны с видом самого закона распределения.
2.3.3. Статистическая (выборочная) оценка дисперсии
Рассмотрим другую
задачу: имеется случайная величина
с математическим ожиданием
и дисперсией
.
Параметры
неизвестны. По выборке независимых
случайных величин
объема
необходимо построить оценку неизвестной
дисперсии
.
Можно действовать по аналогии с предыдущим случаем, т.е. в качестве оценки выбрать
,
(*)
где
– статистическая оценка математического
ожидания. Можно, однако, показать
(убедиться в этом самостоятельно!), что
оценка (*) является смещенной оценкой:
ее математическое ожидание равно
,
т.е. она немного занижена по сравнению
с
. Поэтому на практике пользуются так называемой исправленной оценкой дисперсии
,
(**)
которая является как несмещенной, так и состоятельной.
2.3.4. Интервальные оценки для математического ожидания. Доверительный
интервал, доверительная вероятность
До сих пор мы занимались точечными оценками. Точечная оценка – это одно значение (одно число на числовой оси), которое, как мы считаем, представляет собой значение оцениваемого параметра. Обычно при выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра и гораздо правильнее указывать некоторый диапазон значений параметра, которому мы в той или иной мере (с той или иной вероятностью) можем доверять. Таким образом, на сцену выходят два новых термина: доверительный интервал и доверительная вероятность.
Пусть
для параметра
найдена оценка
.
Ясно, что чем меньше
,
тем лучше оценка
.
Если задать неравенство
,
то в силу статистической природы вопроса
мы не можем утверждать, что такое
неравенство выполняется категорически;
мы можем лишь утверждать, что оно
выполняется с некоторой вероятностью
:
.
Геометрически
это неравенство следует трактовать
так: если на числовой оси находится
истинное значение
,
то оно накрывается интервалом
с вероятностью
(см. рис.):
При этом интервал называется доверительным интервалом, а величина
–
доверительной
вероятностью. Концы интервала
в силу случайности
случайные – это доверительные границы.
Они меняются от выборки к выборке.
Уровень доверительной вероятности
обычно выбирают достаточно высоким и
задают заранее: 0,9; 0,95; 0,99. Таким
образом,
– вероятность того, что доверительный
интервал накрывает истинное значение
,
т.е.
находится в случайном доверительном
интервале. Интуитивно должно быть ясно,
что чем большие значения
требуются, тем более широким получается
доверительный интервал.
2.3.5 Доверительный интервал для оценки математического ожидания
нормального распределения при известном
Пусть – выборка объема из нормальной генеральной совокупности, при этом среднеквадратическое отклонение будем считать известным. Как известно, величина
является
несмещенной и состоятельной оценкой
математического ожидания
генеральной совокупности. Эта оценка
позволяет легко отыскать доверительный
интервал. Действительно:
а)
как сумма нормальных величин
также является нормальной случайной
величиной, при этом
б)
,
где
– функция Лапласа.
Обозначим
и запишем
или
.
Поскольку
– доверительная вероятность, то
.
Таким
образом, доверительной вероятности
соответствует доверительный интервал
.
В практических ситуациях для нахождения доверительных интервалов требуется умение работать с таблицами.
Пример. По
независимой выборке объема
найти доверительные интервалы для
оценки математического ожидания, если
,
а доверительная вероятность
.
Решение. Сначала
находим
.
Т.к.
;
по таблицам (например, табл. II
в [2]) находим
.
Теперь находим точность (полуинтервал)
оценки
:
.
Доверительный
интервал:
.
Этот интервал
соответствует доверительной вероятности
.
2.4. Оценка параметров распределений с помощью метода
максимального правдоподобия
До сих пор мы научились оценивать:
а) закон распределения по выборке (гистограмма);
б) математическое ожидание и дисперсию распределения.
Существует общий подход к оценке любых других параметров распределения – метод максимального правдоподобия.
Пусть плотность
распределения наблюдаемой случайной
величины
зависит от некоторого параметра
.
Обозначим через
наблюдаемые независимые значения
случайной величины в
экспериментах (выборка).
Функцией правдоподобия называется функция
.
Оценкой максимального правдоподобия называется значение, при котором функция правдоподобия достигает максимума . Методы отыскания этой оценки основаны на стандартных методах математического анализа. В частности, приходится решать уравнение
,
(*)
которое называется уравнением правдоподобия.
Наряду с функцией правдоподобия рассматривают также логарифмическую функцию правдоподобия
.
В этом случае оценку находят из решения уравнения
,
(**)
которое часто также называют уравнением правдоподобия.
Пример. Найти методом максимального правдоподобия оценку параметра распределения Пуассона
где
– выборка независимых наблюдаемых
значений пуассоновской случайной
величины. (Параметр
,
как известно, является математическим
ожиданием пуассоновской случайной
величины).
Решение. Составим
функцию правдоподобия (в нашем случае
):
Найдем производную
Уравнение правдоподобия имеет вид:
Разрешив это уравнение относительно , получим
Остается выяснить, что мы нашли максимум, а не минимум. Проще всего это сделать по второй производной
Т.к.
все значения пуассоновской случайной
величины
,
то
,
так что вторая производная отрицательна
и мы отыскали максимум, т.е.
– оценка максимального правдоподобия.
Замечание. Отметим довольно знаменательный факт: оценка является средним арифметическим выборочных значений . Мы уже знаем, что такая оценка является несмещенной и состоятельной оценкой математического ожидания. Метод максимального правдоподобия дал этому еще одно подтверждение.
2.5 Статистическая проверка гипотез
Прежде, чем формулировать постановку задачи в общем виде, рассмотрим такой пример.
Пример. Имеется
склад готовой продукции. Известно, что
изделия (например, транзисторы одного
типа) поступают на склад партиями с
двух заводов, выпускающих продукцию
разного качества, и такими же партиями
отпускаются потребителю. Качество
продукции завода характеризуется
вероятностью
того,
что наугад выбранное изделие является
бракованным. Для одного завода
,
для другого
(
).
Потребитель наугад выбирает одну партию
изделий. Нужно на основании контроля
решить, на каком заводе изготовлена
партия изделий.
Как решать такую задачу? Она явно отличается от задач оценки параметров распределений, обсуждаемых ранее. Фактически потребитель имеет два предположения (две гипотезы): контролируемая партия выпущена первым заводом (т.е. содержит повышенный процент брака) или вторым (процент брака более низкий). Располагая конкретной выборкой, он должен проверить, какая же из гипотез верна.
Предположим, что
из партии для контроля отобраны
изделий, а
из них оказались бракованными. Ясно,
что величина
является случайной величиной с
возможными значениями
.
Под решением поставленной задачи
понимается выработка некоторого
решающего правила, которое каждому
из возможных значений
сопоставляет одну из гипотез
или
.
Общая
постановка задачи. Имеются две
противоположные гипотезы
и
и некоторая связанная с ними случайная
величина
.
Пусть
– числовое значение
,
полученное в результате испытания, а
–
множество всех возможных значений
случайной величины
.
Требуется на основании наблюдений
произвести проверку нулевой гипотезы
относительно альтернативной гипотезы
.
В
теории проверки статистических гипотез
принято разбивать все множество
возможных значений
на два подмножества
и
.
Если
,
принимается нулевая гипотеза
,
если же
,
то принимается альтернативная гипотеза.
В приведенном выше примере наблюдаемая величина (количество бракованных транзисторов в контрольной партии) – дискретная случайная величина. Множества , и содержат конечное число элементов. Это не является принципиальным: задача проверки статистических гипотез может быть сформулирована и применительно к случайной величине, принимающей бесконечное количество непрерывных значений.
Главный вопрос теории – каким образом множество разбить на подмножества и ? Ответ на этот вопрос зависит от наличия вероятностных данных в задаче.
2.5.1. Метод минимума среднего риска. Оптимальное решающее правило.
Ошибки первого и второго рода
Этот метод можно
использовать только в том случае, когда
известны следующие два условных
распределения:
– закон распределения случайной
величины
при условии, что справедлива гипотеза
,
и
– аналогичный закон распределения
при условии, что справедлива гипотеза
.
В
нашем примере вероятность того, что
наугад выбранное изделие является
бракованным, не зависит от результатов
проверки других изделий и при условии
истинности гипотезы
равна
.
Величина
,
очевидно в этом случае подчинена
биномиальному закону распределения и
по формуле Бернулли
(*)
Аналогично, при условии истинности гипотезы
(**)
Для построения
решающего правила нам понадобится еще
одна величина: априорная (доопытная)
вероятность
того, что гипотеза
имеет место. Иногда такая вероятность
известна, иногда нет. В нашем случае эта
вероятность, очевидно, определяется
соотношением величин поставок транзисторов
с двух заводов. Выберем для определенности
.
Теперь рассмотрим следующие случайные события:
– верна гипотеза ;
– верна гипотеза
;
– при выбранном способе разбиения результат эксперимента попал в область ;
– результат
эксперимента
попал в область
.
Тогда в результате принятия решения возможен один из следующих четырех случаев:
– верна гипотеза
и принято решение о ее истинности;
– верна гипотеза
,
принято решение об истинности
;
– верна гипотеза
,
принято решение об истинности
;
– верна гипотеза
и принято решение о ее истинности.
Очевидно, исходы и связаны с ошибочными решениями. В теории статистических гипотез все термины как бы «привязываются » к нулевой (основной) гипотезе. Так, ошибка, соответствующая исходу , предполагает, что верна основная гипотеза , а принята альтернативная гипотеза . Такую ошибку называют ошибкой первого рода. Ошибку, соответствующую исходу , называют ошибкой второго рода.
Следует заметить, что последствия этих ошибок в конкретных ситуациях могут оказаться различными. Например, система предупреждения о ядерном ракетном нападении на нашу страну выдает решение о том, что нападение имеет место, когда в действительности его нет («ложная тревога»). Понятно, что приводятся в действие механизмы оповещения населения, обеспечивается готовность специальных служб и т.д. и т.п. Эта ошибка (второго рода) приводит к некоторым материальным потерям. Гораздо серьезнее ошибка первого рода, когда нападение имеет место, а принимается решение о его отсутствии («пропуск цели»). Эта ошибка может привести к многочисленным человеческим жертвам.
Разумеется, можно привести примеры, когда более тяжелыми являются последствия ошибки второго рода. К тому же, не следует забывать и о том, что имеется известный произвол в выборе основной и альтернативной гипотез. Если их поменять местами, то поменяются местами и ошибки первого и второго рода.
Для ответа на вопрос, какое решающее правило (способ разбиения на и ) является наилучшим, введем еще два понятия: функции потерь и среднего риска.
При
правильных решениях потери будем считать
нулевыми. Потери, связанные с ошибками
первого и второго рода, обозначим
соответственно
и
.
Будем считать, что
.
Это потери, выраженные в некоторых
единицах. Не останавливаясь пока на
том, как выбрать
и
,
будем считать их заданными (попутно
отметим, что выбор
и
на практике носит субъективный характер
и часто производится на основании
экспертных оценок).
Перейдем к понятию
среднего риска. Пусть
и
– соответственно вероятности правильного
решения, ошибок первого и второго рода.
Определение этих значений будет проведено
ниже. Величина потерь
,
к которым приведет однократное применение
решающего правила, является случайной
величиной (случайный риск), которая
принимает значения
с вероятностями
и
.
Математическое ожидание
случайного риска называется средним
риском и обозначается
:
.
(***)
Понятие среднего риска приводит к естественному способу сравнения решающих правил: из двух правил лучшим считается то, которое приводит к меньшему среднему риску.
Оптимальным решающим правилом называется правило, приводящее к наименьшему возможному в данной задаче риску.
Итак,
мы должны найти оптимальное решающее
правило (будем обозначать его греческой
буквой
),
которое соответствует заданным условным
распределениям
и
,
априорной вероятности
и функции потерь
.
В нашем примере и задаются формулами (*), (**). Найдем вероятность ошибки первого рода:
Здесь суммирование ведется по всем возможным значениям случайной величины , попавшим в область . Аналогично вероятность ошибки второго рода равна
Найдем вероятности и :
В соответствии с (***) средний риск равен
Теперь учтем, что в соответствии со свойствами вероятности
.
Средний риск можно представить в виде
Первое слагаемое положительно, а под знак суммы во втором слагаемом входит величина
,
которая может оказаться как положительной, так и отрицательной. Если в область включить все значения , при которых выражение в квадратных скобках отрицательно, то, очевидно, средний риск принимает наименьшее значение.
Мы
получили решающее правило
:
если наблюдаемое в опыте значение
таково, что выполняется условие
или
,
то принимается основная гипотеза , в случае неравенства противоположного знака – альтернативная или конкурирующая гипотеза .
Величину
в теории проверки гипотез называют отношением правдоподобия, а величину
–
порогом, с которым отношение правдоподобия необходимо сравнивать.
Смысл
решающего правила очевиден: величина
равна отношению вероятностей того, что
наблюдаемое значение
принадлежит партии с повышенным и
пониженным процентом брака. Порог же
зависит как от априорной информации
(вероятности
),
так и от потерь
,
связанных с возможными ошибками принятия
решения.
Для задачи с партиями транзисторов можно детализировать решающее правило. С учетом (*) и (**) получаем:
.
(****)
Поскольку
по условию
,
то
и
.
Поэтому, логарифмируя неравенство (****) и разрешая относительно , получим
(!)
Итак, если число бракованных изделий среди наблюдаемых изделий контрольной партии удовлетворяет неравенству (!), то принимается решение о плохом качестве партии (принимается гипотеза ); в противном случае принимается гипотеза (качество партии хорошее). Это правило вполне согласуется со здравым смыслом.
Если проверяется гипотеза относительно непрерывной случайной величины , то решающее правило по-прежнему предписывает формировать отношение правдоподобия, только роль вероятностей и играют соответствующие плотности распределения вероятностей.
Отметим еще одно обстоятельство. С понятием функция правдоподобия мы уже сталкивались, когда обсуждали проблему оценки параметров распределения. Оценки максимального правдоподобия находились путем максимизации этой функции (по оцениваемому параметру ). В теории проверки статистических гипотез мы фактически оперируем с отношением функций правдоподобия, соответствующих двум гипотезам. Резюмируя, можно утверждать, что в статистических задачах (будь то оценивание параметров или проверка гипотез) ключевую роль играет функция правдоподобия.
2.5.2. Эмпирические критерии проверки статистических гипотез. Критерий Пирсона
(критерий ). Критерий Фишера-Снедекора
Мы с вами обсудили метод проверки статистических гипотез, основанный на минимизации среднего риска. Для его реализации требуется полное статистическое описание ситуации: априорная информация о вероятностях гипотез, вид распределения для наблюдаемых данных; должны быть также конкретизированы потери, связанные с возможными ошибками при принятии решения. На практике такая полная информация либо частично, либо полностью может отсутствовать. Как же в таких случаях осуществлять проверку гипотез?
Существует целый ряд так называемых эмпирических методов (критериев согласия), которые были предложены различными исследователями: это критерии Пирсона, Колмогорова, Фишера (F –критерий) и др.
Рассмотрим две задачи проверки статистических гипотез, для решения которых использованы эмпирические критерии.
Рассмотрим задачу проверки гипотезы о виде распределения генеральной совокупности и применим критерий Пирсона (критерий ).
Пусть
в результате эксперимента получена
выборка
объема
.
Имеется некоторое теоретическое
распределение
,
и мы хотим проверить, удовлетворяют ли
наши экспериментальные данные этому
распределению. Таким образом, мы
собираемся проверить гипотезу
:
выборка
принадлежит распределению
.
Разумеется, что гипотеза может быть
либо принята, либо отвергнута.
Разобьем всю
числовую ось на интервалы
и вычислим теоретические частоты
и опытные частоты
попадания в указанные интервалы разбиения
(всего
интервалов). Очевидно,
,
где
–
объем наблюдаемой выборки. В критерии
Пирсона (критерии
)
за меру расхождения опытного и
теоретического рядов частот принимают
величину
.
(*)
Она равна нулю лишь при совпадении всех соответствующих эмпирических и теоретических частот, а в остальных случаях положительна и тем больше, чем больше расхождение между распределениями.
Величина является случайной. В некоторых случаях (далеко не всегда!) ее закон распределения известен. К примеру, если распределение – нормальное, то эта величина распределена по так называемому – распределению с степенями свободы. Плотность этого распределения имеет вид
,
где
– гамма-функция Эйлера; в частности для
целых
.
Это распределение определяется одним
параметром – числом степеней свободы.
В литературе по теории вероятностей и
математической статистики обычно
приводятся критические точки
распределения
т.е. значения
,
удовлетворяющие равенству
(например, таблица
VII в [2]).
Величина
называется уровнем значимости. Если
величина
выбрана достаточно малой ( 0,01 или
0,05) и наблюдаемая в эксперименте величина
(вычисленная по формуле (*)) удовлетворяет
неравенству
, то это означает, что вероятность больших
отклонений экспериментальных данных
от теоретических мала и нет оснований
отвергать гипотезу
.
В случае
большие отклонения имеют заметную
вероятность; скорее всего, это связано
с тем, что выдвинута неверная гипотеза
о виде распределения, поэтому она должна
быть отвергнута.
Таким образом, при применении критерия согласия Пирсона используют следующую схему вычислений.
1)
по формуле (*) находят величину
2) определяют число степеней , равное количеству частичных интервалов. При этом надо следить за тем, чтобы не оказалось очень малых частот (в областях малых частот следует укрупнять интервалы).
3) Задаются уровнем значимости ( 0,01 или 0,05). Пользуясь упомянутыми выше таблицами, определяют, какое из неравенств или выполняется. В первом случае гипотеза принимается, а во втором отвергается с уровнем значимости .
Заметим, что критерий Пирсона имеет достаточно универсальный характер и используется на практике для проверки гипотез при различных законах распределения наблюдаемых данных.
Примерно по такой же схеме применяют и другие критерии согласия. Для каждого критерия выбирается своя мера отклонения экспериментального и теоретического распределений и критические точки соответствующих законов распределения (распределения Стьюдента, Фишера-Снедекора и др.).
Теперь рассмотрим задачу сравнения дисперсий двух распределений. На практике такая задача возникает, если требуется сравнить точность различных приборов или методов измерений. Очевидно, предпочтительнее тот прибор, инструмент или метод, который обеспечивает наименьшее рассеивание результатов измерений, т.е. наименьшую дисперсию.
Пусть
генеральные совокупности
и
распределены нормально. По независимым
выборкам с объемами
и
,
извлеченным из этих совокупностей,
найдены исправленные выборочные
дисперсии
и
.
Требуется по исправленным дисперсиям
при заданном уровне значимости
проверить нулевую гипотезу, состоящую
в том, что генеральные дисперсии равны
между собой:
.
Учитывая, что исправленные дисперсии являются несмещенными оценками генеральных дисперсий, т.е.
нулевую гипотезу запишем так:
.
Таким образом, требуется проверить, что математические ожидания исправленных выборочных дисперсий равны между собой. Мы пытаемся ответить на вопрос: значимо (существенно) или незначимо различаются исправленные дисперсии?
Если окажется, что нулевая гипотеза справедлива, т.е. генеральные дисперсии одинаковы, то различие выборочных дисперсий объясняется случайными причинами (например, случайным отбором объектов выборки). Если же нулевая гипотеза отвергнута, т.е. генеральные дисперсии неодинаковы, то различие выборочных дисперсий обусловлено не случайными причинами, а является следствием того, что сами генеральные дисперсии различны.
В качестве критерия проверки нулевой гипотезы естественно выбрать отношение большей выборочной дисперсии к меньшей, т.е. случайную величину
.
Величина
,
равная отношению выборочных дисперсий
двух нормальных распределений,
распределена по так называемому
распределению Фишера-Снедекора со
степенями свободы
и
,
где
– объем выборки, по которой определена
большая дисперсия, а
– объем выборки, по которой найдена
меньшая дисперсия. Плотность этого
распределения
где
Распределение Фишера-Снедекора зависит от двух параметров: чисел степеней свободы.
Если
мы знаем закон распределения величины
,
то схема дальнейших действий такая же,
как и для критерия Пирсона. Для этого
надо воспользоваться таблицами
критических точек распределения
Фишера-Снедекора, приведенными, например,
в [1]
(приложение 7), т.е. при выбранном значении
уровня значимости
определить
.
Если выполняется неравенство
,
то нулевая гипотеза принимается, если
же выполняется неравенство
,
то гипотеза отвергается с уровнем
значимости
.
2.6. Элементы корреляционного и регрессионного анализа
2.6.1. Выборочное уравнение прямой линии регрессии.
Выборочный коэффициент корреляции
В п. 1.8.7 обсуждались уравнения прямых линий среднеквадратической регрессии: если имеется система двух коррелированных случайных величин , то уравнение регрессии на имеет вид:
, (*)
где
– математические ожидания и
среднеквадратические отклонения двух
компонент случайной величины
,
а
–
их коэффициент корреляции. Коэффициент
называется коэффициентом регрессии
на
.
Аналогично можно записать и уравнение
прямой линии регрессии
на
.
Если система величин наблюдается экспериментально, то возникает естественный вопрос: как отыскать параметры прямой линии регрессии по наблюдаемой выборке?
Рассмотрим
простейшую постановку задачи. Имеется
несгруппированная выборка значений,
т.е.
пар чисел
,
для которых различные значения
и соответствующие значения
наблюдались по одному разу. Будем искать
уравнение прямой регрессии в виде
,
(**)
где
– выборочный коэффициент регрессии
на
.
Коэффициенты и найдем, как и в п. 1.8.7, с помощью метода наименьших квадратов, минимизируя функцию
по
параметрам
и
.
Приравнивая нулю частные производные
и
,
получим систему двух линейных уравнений
относительно неизвестных
и
:
(***)
Суммирование
во всех выражениях ведется по индексу
от
до
,
например,
и т.д.
Решив эту систему, найдем:
(****)
Аналогично можно найти выборочное уравнение прямой линии регрессии на .
Пример. Найти
выборочное уравнение прямой линии
регрессии
на
по данным
наблюдений:
-
1,00
1,50
3,00
4,50
5,00
1,25
1,40
1,50
1,75
2,25
Решение. Составим расчетную таблицу.
-
1,00
1,50
3,00
4,50
5,00
1,25
1,40
1,50
1,75
2,25
1,00
2,25
9,00
20,25
25,00
1,250
2,100
4,500
7,875
11,250
Вычисленные по таблице суммы подставим в формулы (****) и найдем искомые параметры:
Искомое уравнение регрессии имеет вид:
Если
количество наблюдаемых данных
велико (на практике для удовлетворительных
оценок обычно используют объем выборки
не менее 50), то, как правило, среди
наблюдаемых данных имеются повторяющиеся:
одно и то же значение
может встретиться
раз, одно и то же значение
–
раз, одна и та же пара чисел
–
раз. Поэтому данные наблюдений группируют,
т.е. подсчитывают частоты
и записывают все данные в виде
корреляционной таблицы. Приведем
пример такой таблицы.
|
|
||||
10 |
20 |
30 |
40 |
|
|
0,4 0,6 0,8 |
5 – 3 |
– 2 19 |
7 6 – |
14 4 – |
26 12 22 |
|
8 |
21 |
13 |
18 |
|
В первой строке таблицы указаны наблюдаемые значения (10;20;30;40) величины , а в первом столбце – наблюдаемые значения (0,4;0,6;0,8) величины . На пересечении строк и столбцов приведены частоты наблюдаемых пар. Например, частота 5 указывает, что пара чисел (10;0,4) наблюдалась 5 раз. Все частоты помещены в прямоугольнике, стороны которого изображены жирными линиями. Прочерк означает, что соответствующая пара чисел, например (20;0,4), не наблюдалась.
В
последнем столбце приведены суммы
частот строк. Например, сумма частот
первой строки «жирного» прямоугольника
равна
;
это число показывает, что значение
в сочетании с различными значениями
наблюдалось 26 раз.
В
последней строке записаны суммы частот
столбцов. Например, число 8 указывает,
что значение
в сочетании с различными значениями
наблюдалось 8 раз.
В
правом нижнем углу приводится сумма
всех частот (объем выборки
).
Для проверки следует иметь в виду, что
.
В нашем случае
и
.
Если данные сгруппированы в виде корреляционной таблицы, то все суммы, входящие в (***), можно записать так:
где
обозначено
.
С учетом этих соотношений система (***) принимает вид:
(!!)
Можно решить эту систему, т.е. найти и , подставить найденные значения в (**) и записать уравнение прямой регрессии. Но обычно это уравнение выписывают в другой форме, для чего предварительно выражают через :
;
тогда уравнение прямой регрессии принимает вид:
.
Таким
образом, прямая линейной регрессии
на
проходит через точку
,
а ее угловой коэффициент
.
Значение находим из системы (!!):
,
(!!!)
где
– выборочная дисперсия случайной
величины
.
По
аналогии с п. 1.8.7 можно найти выборочный
коэффициент корреляции
:
,
где
– выборочные с.к.о. (
).
Таким образом, выборочный коэффициент
корреляции случайных величин
и
вычисляется по формуле
.
Замечание. Выборочное уравнение прямой линии регрессии на имеет вид:
где
.
2.7. Элементы дисперсионного анализа
2.7.1. Понятие о дисперсионном анализе
Во многих экономических задачах требуется оценить влияние различных факторов на изучаемую величину . Например, разные формы организации производства могут оказать существенное или несущественное влияние на прибыль предприятия. Другим примером может служить задача оценки эффективности различных видов удобрений.
Данный фактор Ф можно разделить на ряд уровней, в качестве которых могут выступать, например, разные формы организации производства или разные виды удобрений.
Суть метода заключается в том, что дисперсия величины , являющаяся мерой разброса относительно ее математического ожидания, разделяется на две составляющие: одна часть – факторная дисперсия вызвана действием фактора Ф, вторая – остаточная дисперсия обусловлена некоторыми случайными причинами. Если выясняется, что факторная дисперсия невелика по сравнению с остаточной, то фактор не оказывает существенного влияния на .
Если рассматривается только один фактор, дисперсионный анализ называется однофакторным, если более одного – многофакторным.
2.7.2.Однофакторный дисперсионный анализ. Факторная и остаточная дисперсии
Рассмотрим схему однофакторного дисперсионного анализа.
Пусть
на рассматриваемую случайную величину
влияет фактор Ф, который имеет
уровней. На каждом уровне, т.е. для каждого
из видов фактора Ф, проводятся
измерения (наблюдения) величины
.
Число таких измерений для всех уровней
одинаково и равно
.
Составим таблицу полученных измерений. В последней строке помещены средние значения измерений для каждого уровня.
-
Номер
измерения
Уровни фактора
…
2
…
q
…
…
…
…
…
…
…
Групповая
средняя
…
Вычисляем общую среднюю по всем измерениям:
.
Общей суммой квадратов отклонений наблюдаемых значений от общей средней называется выражение
Факторной суммой квадратов отклонений групповых средних от общей средней называется выражение (эта величина характеризует рассеяние «между группами»)
Остаточной суммой квадратов отклонений наблюдаемых значений группы от своей групповой средней является сумма (она характеризует рассеяние «внутри групп»)
Эти суммы позволяют найти несмещенные оценки факторной и остаточной дисперсий:
Знаменатели
этих формул записаны из следующих
соображений: факторная дисперсия зависит
от
составляющих
,
а остаточная – от
составляющих
;
при этом в каждой группе число степеней
свободы надо уменьшить на единицу.
Пример. Проведены
измерения для каждого из трех уровней
некоторого фактора Ф. В качестве
уровня значимости принимается величина
.
Проверить нулевую гипотезу о незначительном
влиянии фактора Ф.
Исходные данные помещены в таблицу 1.
Табл. 1
-
Номер
Измерения
Уровни фактора
1
2
3
4
38
36
35
31
20
24
26
30
21
22
31
34
35
25
27
Решение . Находим
общую среднюю
.
Вычисляем разности
и квадраты этих разностей (табл. 2).
Табл. 2
-
Номер
измерения
Уровни фактора
1
2
3
4
9
7
6
2
81
49
36
4
–9
–5
–3
1
81
25
9
1
–8
–7
2
5
64
49
4
25
–
170
–
116
–
142
Затем находим общую и факторную суммы:
Остаточная сумма
Определяем факторную и остаточную дисперсии:
Отношение дисперсий
равно
Оказалось, что факторная дисперсия почти в 5 раз превысила остаточную. Здравый смысл говорит о том, что изучаемый фактор очень существенно влияет на разброс наблюдений. Попробуем, тем не менее, перейти на язык проверки статистических гипотез.
В
рассматриваемой задаче естественно
воспользоваться критерием Фишера-Снедекора,
т.к. отношение двух выборочных дисперсий
(нормальных распределений) распределено
по закону Фишера-Снедекора (см. п. 2.5.2).
По таблицам критических точек этого
распределения (Приложение 7 в [1])
при
и числам степеней свободы
находим
Так как
,
то заключаем, что фактор влияет значимо
(существенно) и нулевую гипотезу
отвергаем.
2.8. Основы метода Монте-Карло (метода статистических испытаний)
2.8.1. Общее представление о методе
Метод Монте-Карло – это численный метод решения математических задач при помощи моделирования случайных величин.
Датой рождения метода Монте-Карло принято считать 1949 год, когда появилась статья американских ученых Н. Метрополиса и С. Улама «Метод Монте-Карло», в которой этот метод систематически изложен. Название метода связано с городом Монте-Карло в княжестве Монако, где в казино играют в рулетку – одно из простейших устройств для получения случайных чисел.
Пример.
Предположим, что нам нужно вычислить
площадь плоской фигуры
.
Это может быть совсем произвольная
фигура с криволинейной границей, заданной
графически или аналитически, состоящая
из одного или нескольких фрагментов.
Пусть это фигура, изображенная на рис.
1, и предположим, что она вся расположена
внутри единичного квадрата.
Рис. 1
Выберем случайным
образом внутри квадрата
точек. Эту фразу следует понимать так:
каждая точка может с равными возможностями
оказаться в любом месте квадрата, а
вероятность попадания в любую область
равна ее площади. Если теперь обозначить
через
число точек, попавших внутрь
,
то эта площадь приблизительно равна
.
Чем больше будет
,
тем точнее будет оценка площади.
Методу Монте-Карло присущи две особенности. Первая: структура алгоритма весьма проста. Как правило, составляется программа для осуществления одного случайного испытания (в рассмотренном примере надо выбрать случайную точку в квадрате и проверить, принадлежит ли она ). Затем это испытание повторяется раз, причем каждый опыт не зависит от всех остальных, и результаты всех опытов усредняются.
Поэтому иногда метод Монте-Карло называют методом статистических испытаний.
Вторая особенность
метода: ошибка вычислений обычно
пропорциональна величине
,
где
– некоторая константа, а
– число испытаний. Из этой формулы
видно, что для того, чтобы уменьшить
ошибку в 10 раз (иначе говоря, чтобы
получить в ответе еще один верный
десятичный знак), нужно увеличить
(т.е. объем работы) в 100 раз.
Поэтому ясно, что высокой точности на этом пути достичь невозможно: обычно говорят, что метод эффективен при решении тех задач, в которых результат нужен с небольшой точностью (5-10%). Существуют, однако, разновидности метода, позволяющие существенно уменьшить константу , и тем самым заметно улучшить точность расчета.
2.8.2. Задачи, решаемые методом Монте-Карло
Во-первых, метод Монте-Карло позволяет моделировать любой процесс, на протекание которого влияют случайные факторы. Во-вторых, для многих математических задач, не связанных с какими-либо случайностями, можно искусственно придумать вероятностную модель (порою даже не одну), позволяющую решать эту задачу. Именно это и было сделано в приведенном выше примере.
Таким образом, можно говорить о методе Монте-Карло как об универсальном методе решения математических задач.
2.8.3. Разыгрывание дискретной случайной величины
Метод Монте-Карло
основан на применении случайных чисел.
Как правило, речь идет о независимых
значениях непрерывной случайной величины
,
равномерно распределенной в интервале
.
Все остальные случайные числа получают
из равномерно распределенных независимых
величин.
Заметим, однако,
что величина
,
вообще говоря, имеет бесконечное
количество десятичных знаков. В
действительности же пользуются не такой
случайной величиной, а некоторой
псевдослучайной величиной
,
которая имеет конечное число десятичных
знаков. Тем не менее, качество таких
псевдослучайных чисел, генерируемых с
помощью современной вычислительной
техники, достаточно высокое, и они с
успехом используются в многочисленных
приложениях. В дальнейшем мы не будем
останавливаться на этом нюансе.
Пусть
требуется разыграть дискретную случайную
величину
,
т.е. получить последовательность ее
возможных значений
,
зная закон распределения
:
Рассмотрим интервал
и разобьем его на
частичных интервалов, длины которых
равны
.
Координатами точек деления, очевидно,
будут точки
.
Теперь каждый раз,
когда нам надо будет «поставить опыт»
и разыграть значение случайной величины
,
мы будем с помощью датчика случайных
чисел выбирать значение
и если эта точка попадает в
-й
частичный интервал, будем считать, что
.
Поскольку согласно определению
геометрической вероятности равномерно
распределенная на отрезке
величина
попадает в
-й
частичный интервал с вероятностью,
равной его длине (т.е.
),
то законность такого алгоритма очевидна.
2.8.4. Разыгрывание противоположных событий
Пусть
требуется разыграть испытания, в каждом
из которых событие А
появляется с известной вероятностью
и, следовательно, не появляется с
вероятностью
.
Введем в рассмотрение дискретную
случайную величину
с двумя возможными значениями (для
определенности примем
и соответствующими им вероятностями
Условимся считать, что если в испытании
величина
приняла возможное значение
,
то событие А наступило; если же
,
то событие А не наступило, т.е.
наступило противоположное событие
.
Таким образом, разыгрывание противоположных событий А и сводится к разыгрыванию дискретной случайной величины с законом распределения:
Далее действуем
в соответствии с п.2.8.3: интервал
разбиваем на два частичных интервала:
и
.
Затем генерируется случайное число
.
Если это число попало в
,
то
(наступило
событие А); если
попало в
,
то
(появилось противоположное событие
).
2.8.5. Разыгрывание полной группы событий
По
аналогии с предыдущими рассуждениями
разыгрывание полной группы
несовместных событий
,
вероятности которых
известны, можно свести к разыгрыванию
дискретной случайной величины
со следующим законом распределения
Тогда
достаточно сказать, что если в испытании
величина
приняла значение
,
то наступило событие
.
2.8.6. Разыгрывание непрерывной случайной величины. Метод обратной функции
Пусть требуется
разыграть непрерывную случайную величину
,
т.е. получить последовательность ее
значений
,
зная функцию распределения
.
Легко показать, что если
– случайное число, равномерно
распределенное в интервале
,
то значение
является
корнем уравнения
.
(*)
Поскольку – дифференцируемая монотонно возрастающая функция, уравнение (*) имеет единственное решение
(**)
где
– обратная функция к функции
.
Замечание. Если
обратная функция находится аналитически,
проблема генерирования непрерывной
случайной величины решается легко: надо
подставить в (**) значение
и вычислить соответствующее значение
Если
в явном виде не находится, уравнение
(*) приходится решать численно.
Пример 1. Найти
способ разыгрывания непрерывной
случайной величины, равномерно
распределенной на интервале
.
Решение. Плотность распределения имеет вид:
а функция распределения задается выражением
Таким
образом, для значений
,
удовлетворяющих неравенству
,
уравнение (*) принимает вид
и легко разрешается относительно :
По этой формуле и следует разыгрывать равномерно распределенную случайную величину.
Пример 2. Непрерывная случайная величина распределена по показательному (экспоненциальному) закону
.
Требуется найти явную формулу для разыгрывания возможных значений .
Решение. Уравнение (*) в данном случае имеет вид:
Решим его относительно :
Можно
еще заметить, что если число
равномерно распределено в интервале
,
то и число
также равномерно распределено в этом
интервале. Поэтому для нахождения
можно пользоваться более простой
формулой
2.8.7. Разыгрывание нормальной случайной величины
Напомним предварительно, что если случайная величина распределена равномерно в интервале , то ее математическое ожидание и дисперсия равны:
Составим
сумму
независимых, распределенных равномерно
в интервале
случайных величин
:
Для нормирования этой суммы найдем предварительно ее математическое ожидание и дисперсию. Воспользуемся тем, что при суммировании независимых случайных величин их математические ожидание и дисперсия также суммируются. Тогда
Отсюда с.к.о. суммы
Пронормируем сумму
,
для чего вычтем из нее математическое
ожидание и разделим результат на
:
В
силу центральной теоремы при
распределение
этой нормированной случайной величины
стремится к нормальному с параметрами
.
При конечном
распределение приближенно нормальное.
На практике обычно выбирают
При этом в качестве нормальной случайной
величины используют выражение:
2.8.8. Пример применения метода Монте-Карло. Моделирование системы
массового обслуживания
Рассмотрим одну
из самых простых систем массового
обслуживания. Система эта состоит из
линий (или каналов, пунктов обслуживания),
каждый из которых «обслуживает
потребителей». В систему поступают
заявки, причем моменты их поступления
случайные. Каждая заявка поступает на
линию номер 1. Если в момент поступления
-й
заявки (назовем его
)
эта линия свободна, то она приступает
к обслуживанию заявки, что продолжается
минут (
– время занятости линии). Если в момент
линия номер 1 занята, то заявка мгновенно
передается на линию номер 2. И так далее…
Наконец, если все линии в момент заняты, то система выдает отказ.
Требуется определить,
сколько (в среднем) заявок обслужит
система за время
и сколько отказов она даст?
Ясно, что задачи такого типа встречаются при исследовании организации работы любых предприятий, а не только предприятий бытового обслуживания. В некоторых очень частных случаях удается найти аналитические решения. Однако в сложных случаях метод Монте-Карло оказывается единственным методом расчета.
Первый вопрос, возникающий при рассмотрении такой системы: что представляет собой поток заявок? Этот вопрос решается опытом, путем достаточно длительного наблюдения за заявками. Накопленный в этой области опыт позволяет выделить некоторые достаточно часто встречающиеся случаи.
Простейшим
потоком (или пуассоновским потоком)
называется такой поток заявок,
когда промежуток времени
между двумя последовательными заявками
есть случайная величина, распределенная
по экспоненциальному закону с
функцией распределения (см. п. 1.6.4.3; см.
также пример 2 из предыдущего пункта):
Математическое ожидание такой случайной величины
Параметр называется плотностью потока заявок.
Формула для разыгрывания пуассоновской случайной величины на -м шаге получена в уже упомянутом примере 2:
(!)
где – случайная величина, распределенная равномерно на интервале .
Теперь обсудим вопрос: какова схема расчета в данной задаче?
Каждой линии
поставим в соответствие ячейку памяти
(компьютера, программируемого
калькулятора). В эту ячейку будем
записывать момент времени, когда эта
линия освобождается. Обозначим момент
освобождения
-й
линии через
.
За начальный момент расчета выберем
момент появления первой заявки
.
В этот момент все линии свободны, поэтому
все
.
Время окончания расчета
.
Первая заявка
поступает на линию 1. Значит, в течение
времени
эта линия будет занята. Поэтому надо
заменить
на новое значение
,
прибавить единицу к счетчику выполненных
заявок (в начале расчета этот счетчик
должен быть обнулен) и перейти к
рассмотрению второй заявки.
Предположим, что
заявок уже рассмотрены. Тогда надо
разыграть момент
появления
-й
заявки. Для этого по формуле (!) разыгрываем
очередное значение
и полагаем
.
Свободна ли в этот момент первая линия? Надо проверить условие
(!!)
Если
это условие выполнено, то к моменту
линия уже освободилась и может обслужить
эту заявку. Тогда мы должны заменить
на
,
добавить единицу к счетчику выполненных
заявок и перейти к следующей заявке.
Если условие (!!) не выполнено, то линия 1 в момент занята. Тогда проверяем, свободна ли линия 2:
(!!!)
Если
условие (!!!) выполнено, то заменяем
на
,
добавляем единицу к счетчику выполненных
заявок и переходим к следующей заявке.
Если же условие (!!!) не выполнено, переходим к проверке условия занятости третьей линии
и
т.д. Может оказаться, что при всех
от
до
.
Тогда все линии в момент
заняты, надо добавить единицу в счетчик
отказов и потом перейти к рассмотрению
следующей заявки.
Каждый раз, вычислив , надо проверять еще условие окончания опыта
.
Когда
это условие выполнено, опыт заканчивается.
В счетчике выполненных заявок и в
счетчике отказов будут находиться
и
.
Такой опыт повторяется раз (с использованием разных ) и результаты всех опытов усредняются:
где
и
– значения
и
,
полученные в
-м
опыте.
На
рис. 2 приведена блок-схема программы,
осуществляющей такой расчет. В блоке
«Ввод данных» выбираются начальные
данные: число линий (каналов) системы
,
время занятости линии
,
плотность потока заявок
,
время работы системы
,
число повторений опыта
,
и т.д. Здесь же осуществляется обнуление
счетчиков.
В случае необходимости можно в блоке «Конец опыта» получить значения и для отдельных испытаний; можно и сразу формировать усредненные за опытов результаты.
Рис. 2

Основываясь на схеме рис. 2 и на описании ее работы, можно существенным образом изменить задачу и рассмотреть более сложные системы массового обслуживания. Например, величина может быть не постоянной, а случайной и различной для различных линий (что соответствует различному оборудованию или различной квалификации обслуживающего персонала). Схема расчета остается такой же, но значения придется каждый раз разыгрывать, и формула разыгрывания для каждой линии (группы линий) будет своя.
Можно
рассматривать системы с ожиданием,
в которых отказ выдается не сразу: заявка
хранится в системе в течение некоторого
времени
(время пребывания заявки в системе),
и если за это время какая-нибудь линия
освободится, то она обслужит эту заявку.
Можно рассматривать системы, в которых очередную заявку принимает та линия, которая раньше всех освободилась. Можно учесть случайный выход из строя отдельных линий и случайное время ремонта каждой из них. Можно ввести изменение плотности заявок во времени. И многое, многое другое…
Надо, конечно, понимать: чтобы получить результаты, имеющие практическую ценность, надо выбрать хорошую математическую модель системы. Для этого приходится тщательно изучать потоки заявок, проводить хронометраж работы отдельных узлов и т.п.
Вообще надо знать вероятностные законы функционирования отдельных частей системы. Тогда метод Монте-Карло позволит вычислить вероятностные законы работы всей системы, как бы сложна она ни была.
Такие расчеты чрезвычайно полезны при планировании предприятий: вместо дорогостоящего (а иногда просто невозможного) эксперимента в натуре мы можем экспериментировать на компьютере.