
1.3Нормальное распределение
Нормальное распределение используется в ситуациях, связанных с измерением веса или объема товаров, роста людей, срока работы электроламп и т.п. Нормальное вероятностное распределение – это распределение, симметричное относительно среднего значения случайной величины. Теоретически значения случайной величины находятся в интервале от минус до плюс бесконечности, то есть непрерывная случайная величина может принимать любу значения, как положительные, так и отрицательные. Однако на практике нормальное распределение обычно используется для случайной величины, значения которой расположены в ограниченном интервале.
Характерные свойства нормального распределения:
1. Площадь, образуемая кривой нормального распределения, представляет собой вероятность того, что непрерывная случайная величина примет значения из заданного интервала.
2. Общая площадь под кривой нормального распределения равна полной вероятности, то есть 1.
3. Вероятность того, что непрерывная случайная величина принимает в точности какое-то конкретное значение, равна нулю.
Функция плотности вероятности, зависящая от среднего значения случайной величины a и ее дисперсии 2, для нормального (гауссового) распределения имеет вид
(1.7)
Нормальный закон распределения случайной величины с параметрами a = 0 и = 1, т.е. N(0;1) называется стандартным или нормированным.
График функции плотности вероятности для стандартного нормального распределения – на рис. 1.1.
Рисунок 1.1 - График функции плотности вероятности для стандартного нормального распределения
Можно показать, что функция распределения случайной величины X, распределенной по нормальному закону с параметрами a и , выражается через функцию Лапласа следующим образом
(1.8)
где
интеграл Лапласа
.
Нормальное распределение занимает особое место в теории вероятностей, а нормально распределенные величины широко применяются на практике. Это связано со следующим положением, вытекающим из центральной предельной теоремы А.М. Ляпунова.
Если случайная величина х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то х распределена по закону, близкому к нормальному.
Такое положение имеется, например, при измерении физических величин, технологических параметров производственных процессов, определении объемов сбыта продукции и т.п. Так как на результат измерения влияет большое количество различных независимых факторов, то можно полагать, что ошибка измерения имеет нормальное распределение.
1.4Проверка гипотез о законе распределения
Одной из важнейших задач математической статистики является установление теоретического закона распределения случайной величины. Для решения этой задачи необходимо определить вид и параметры закона распределения.
Предположение о виде закона распределения может быть выдвинуто исходя из теоретических предпосылок (например, выполнение условий центральной предельной теоремы может свидетельствовать о нормальном распределении случайной величины).
Параметры распределения, как правило, неизвестны, поэтому их заменяют наилучшими оценками по выборке.
Как бы хорошо ни был подобран теоретический закон распределения, между эмпирическим и теоретическим распределениями неизбежны расхождения. Естественно возникает вопрос: объясняются ли эти расхождения только случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что теоретический закон распределения подобран неудачно. Для ответа на этот вопрос и служат критерии согласия.
Пусть необходимо проверить нулевую гипотезу Н0 о том, что исследуемая случайная величина X подчиняется определенному закону распределения. Для проверки гипотезы Н0 выбирают некоторую случайную величину U, характеризующую степень расхождения теоретического и эмпирического распределений. Закон распределения случайной величины U при достаточно больших п известен и практически не зависит от закона распределения случайной величины X.
Зная закон распределения U, можно найти вероятность того, что U приняла значение не меньше, чем фактически наблюдаемое в опыте и, т.е. U и. Если P(U и) = мала, то это означает в соответствии с принципом практической уверенности, что такие, как в опыте, и большие отклонения практически невозможны. В этом случае гипотезу Н0 отвергают. Если же вероятность P(U и)= не мала, расхождение между эмпирическим и теоретическим распределениями несущественно и гипотезу Н0 можно считать правдоподобной или по крайней мере не противоречащей опытным данным.
2- критерий Пирсона. В наиболее часто используемом на практике критерии 2-Пирсона в качестве меры расхождения U берется величина 2, равная сумме квадратов отклонений частостей (статистических вероятностей) wi от гипотетических pi, рассчитанных по предполагаемому распределению, взятых с некоторыми весами сi:
Веса
сi
вводятся таким образом, чтобы при одних
и тех же отклонениях (wi
- pi)
больший вес имели отклонения, при
которых pi
мала,
и меньший вес – при которых pi
велика. Очевидно, этого удается
достичь, если взять сi
обратно пропорциональными вероятностям
pi.
Взяв в качестве весов
,
можно доказать, что при п
статистика
или
(1.9)
имеет 2 -распределение с k = m‑r‑1 степенями свободы, где т – число интервалов эмпирического распределения (вариационного ряда); r – число параметров теоретического распределения, вычисленных по экспериментальным данным.
Числа пi = nwi и npi называются соответственно эмпирическими и теоретическими частотами.
Схема применения критерия 2 сводится к следующему:
1. Определяется мера расхождения эмпирических и теоретических частот 2.
2.
Для выбранного уровня значимости
по таблице 2-распределения
находят критическое значение
при числе степеней свободы k=m–r
–
1.
3.
Если фактически наблюдаемое значение
2
больше критического, т.е. 2
>
,
то гипотеза Н0
отвергается, если 2
гипотеза Н0
не противоречит опытным данным.
Замечание. Как уже отмечено, статистика
имеет 2-распределение лишь при п , поэтому необходимо, чтобы в каждом интервале было достаточное количество наблюдений, по крайней мере 5. Если в каком-нибудь интервале число наблюдений пi < 5, имеет смысл объединить соседние интервалы, чтобы в объединенных интервалах пi было не меньше 5 (поэтому при вычислении числа степеней свободы в качестве величины m берется соответственно уменьшенное число интервалов).