Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
matematika.docx
Скачиваний:
143
Добавлен:
18.03.2015
Размер:
3.16 Mб
Скачать

3.1. Закон распределения дискретной случайной величины

Чтобы дать полную характеристику дискретной случайной величины необходимо указать все ее возможные значения и их вероятности.

Соответствие между возможными значениями дискретной случайной величины и их вероятностями называется законом распределения этой величины.

Обозначим возможные значения случайной величины Х через хi, а соответствующие им вероятности через рi* . Тогда закон распределения дискретной случайной величины можно задать тремя способами: в виде таблицы, графика или формулы.

1. В таблице, которая называется рядом распределения, перечисляются все возможные значения дискретной случайной величины Х и соответствующие этим значениям вероятности Р(Х):

Таблица 3.1.

Х

х 1

х2

..

xi

..

xn

P(X)

p1

p2

..

pi

..

pn

При этом сумма всех вероятностей рi должна быть равна единице (условие нормировки):

рi = p1 + p2 +...+pn= 1. (3.1)

2. Графически – в виде ломаной линии, которую принято называть многоугольником распределения (рис.3.1). Здесь по горизонтальной оси откладывают все возможные значения случайной величины Хi,, а по вертикальной оси – соответствующие им вероятности рi.

3. Аналитически - в виде формулы: Например, если вероятность попадания в цель при одном выстреле равна р, то вероятность промаха при одном выстреле q = 1 – р, а .вероятность поражения цели 1 раз при n выстрелах дается формулой: Р(n) = qn-1p,

3.2. Закон распределения непрерывной случайной величины. Плотность распределения вероятности.

Для непрерывных случайных величин невозможно применить закон распределения в формах, приведенных выше, т.к. непрерывная величина имеет бесчисленное («несчетное») множество возможных значений, сплошь заполняющих некоторый интервал. Поэтому составить таблицу, в которой были бы перечислены все ее возможные значения, или построить многоугольник распределения нельзя. Кроме того, вероятность какого-либо ее конкретного значения очень мала (близка к 0). Вместе с тем, различные области (интервалы) возможных значений непрерывной случайной величины обычно не являются одинаково вероятными. Таким образом, и здесь есть некий закон распределения, хотя и не в прежнем смысле.

Рассмотрим непрерывную случайную величину Х, возможные значения которой сплошь заполняют некоторый интервал (а, b).Законраспределения вероятностей такой величины должен позволить найти вероятность попадания ее значения в любой заданный интервал (х1, х2), лежащий внутри (а,b*) (рис.3.2.)

Эту вероятность обозначают Р(х1<Х< х2), или Р(х1Хх2).

Рассмотрим сначала очень малый интервалзначений от х до (х +х) (см. рис.3.2.) Малая вероятностьdР того, что случайная величина Х примет какое-то значение из этого малого интервала (х, х +х), будет пропорциональной величине этого интервалах:dРх, или, вводя коэффициент пропорциональностиf, который сам может зависеть от х, получаем:dР =f(х)х. (3.2)

Введенная нами здесь функция f(х)называется плотностью распределения вероятностейслучайной величины Х или, короче, плотностью вероятности (плотностью распределения). Уравнение (3.2) можно рассматривать как дифференциальное уравнение и тогда вероятность попадания вели.чины Х в интервал (х1, х2) равна:

Р (х1< Х < х2) =f(х)dх.(3.3)

Графически эта вероятность Р (х1< Х < х2) равна площади криволинейной трапеции, ограниченной осью абсцисс, кривойf(х)и прямыми Х = х1и Х = х2(см. Рис.3.3), что следует из геометрического смысла определенного интеграла (3.3). Криваяf(х)при этом называетсякривой распределения.

Из (3.3) видно, что если известна функция f(х),то изменяя пределы интегрирования, можно найти вероятность для любых интересующих интервалов. Поэтому именнозадание функцииf(х) полностью определяет закон распределения для непрерывных случайных величин Х.

Для плотности распределения вероятности f(х) должно выполнятьсяусловие нормировки в виде:

f(х) dх= 1, (3.4)

если известно, что все значения Х лежат в интервале (а, b), или в виде:

f(х)dх = 1, (3.5) если границы интервала для значений Х точно неизвестны. Условия нормировки плотности вероятности (3.4) или (3.5) являются следствием того, что значения случайной величины Хдостовернолежат в пределах (а,b) или (-, +). Из (3.4) и (3.5) следует, чтоплощадь фигуры, ограниченной кривой распределения и осью абсцисс, всегда равна 1.

3.3. Числовые характеристики случайных величин.

Рис.3

Результаты, изложенные в параграфах 3.1 и 3.2, показывают, что полную характеристику о дискретной или непрерывной случайных величинах дают законы их распределения.Однако во многих практически значимых ситуациях пользуются так называемыми числовыми характеристиками случайных величин, главное назначение которых – выразить в сжатой форме наиболее существенные особенности их распределения. Важно, что эти параметры представляют собой конкретные (постоянные) значения, которые можно оценивать с помощью полученных в опытах данных. Этими оценками занимается так называемая «Описательная статистика».В теории вероятностей и математической статистике используется достаточно много различных характеристик, здесь мы рассматриваем наиболее часто употребляемые. Лишь для части из них приведены формулы, по которым рассчитываются их значения, в остальных случаях вычисления оставим компьютеру.

3.3.1.Характеристики положения: математическое ожидание, мода, медиана.

Именно они характеризуют положение случайной величины на числовой оси, т.е. указывают некоторые важные ее значения, которые характеризуют распределение остальных значений. Среди них важнейшую роль играет математическое ожидание М(Х).

а). Математическое ожидание М(Х) случайной величины Х является вероятностным аналогом ее среднего арифметического .

Для дискретной случайной величины оно вычисляется по формуле: М(Х) = х1р1 + х2р2 + … + хnрn = =, (3.6) а в случае непрерывной случайной величины М(Х) определяются формулами: М(Х) =или М(Х) =(3.7) гдеf(x) – плотность вероятности, dP= f(x)dx – элемент вероятности ( аналог pi) для малого интервала x (dx).

Пример. Вычислите среднее значение непрерывной случайной величины, имеющей на отрезке (a, b) равномерное распределение.

Решение: При равномерном распределении плотность вероятности на интервале (a, b) постоянна, т.е. f(х) = fo = const, а вне (a, b) равна нулю, и из условия нормировки (4.3) найдем значение f0: = f0= f0  x  = (b-a)f0 , откуда

Поэтому M(X) = = =(a + b).

Таким образом, математическое ожидание М(Х) совпадает с серединой интервала (a, b), определяющей , т.е.=M(X) = .

б). Модой Мо(Х) дискретной случайной величины называют ее наиболее вероятное значение (рис.3.4, а), а непрерывной – значение Х, при котором плотность вероятности максимальна (рис.3.4,б).

в). Еще одна характеристика положения – медиана (Ме) распределения случайной величины.

Медианой Ме(Х) случайной величины называют такое ее значение Х, которое делит все распределение на две равновероятные части. Другими словами для случайной величины одинаково вероятно принять значения меньше Ме (Х) или больше Ме(Х): Р(Х < Ме) = Р(Х > Ме) = .

а)

в)

Поэтому медиану можно вычислить из уравнения:

(3.8)

Графически медиана – это значение случайной величины, ордината которой делит площадь, ограниченную кривой распределения, пополам (S1 = S2) (рис.3.4,в). Этой характеристикой обычно пользуются только для непрерывных случайных величин, хотя формально ее можно определить и для дискретных Х. Если М(Х), Мо(Х) и Ме(Х) совпадают, то распределение случайной величины называют симметричным, в противном случае – асимметричным. Характеристики рассеяния – дисперсия и стандартное отклонение (среднее квадратичное отклонение). Дисперсия D (X) случайной величины Х определяется как математическое ожидание квадрата отклонения случайной Х от ее математического ожидания М(Х): D (X) = M [X – M(X)]2 , (3.9)

или D (X) = M (X2) – [M(X)]2 . (3.9а)

Поэтому для дискретной случайной величины диперсия вычисляется по формулам: D(X) = i – М(Х)]2 рi , или D(X) = хi2 рi – [M(X)] 2 . (3.10)

а для непрерывной величины, распределенной в интервале (a,b): D (X) =[x – M(X)] 2 f(x)dx , или D (X) =х2 f(x)dx – [M(X)]2 . (3.11)

a для интервала (-∞,∞): D (X) =[x – M(X)] 2 f(x)dx , или D (X) =х2 f(x)dx – [M(X)] 2 . (3.12)

Дисперсия характеризует среднее рассеяние, разбросанность значений случайной величины Х относительно ее математического ожидания. Само слово «дисперсия» означает «рассеяние». Но дисперсия D(Х) имеет размерность квадрата случайной величины, что весьма неудобно при оценке разброса в физических, биологических, медицинских и др. приложениях. Поэтому обычно пользуются другим параметром, размерность которого совпадает с размерностью Х. Это среднее квадратичное отклонение случайной величины Х, которое обозначают (Х) : (Х) = (3.13) Итак, математическое ожидание, мода, медиана, дисперсия и среднее квадратичное отклонение являются наиболее употребляемыми числовыми характеристиками распределений случайных величин, каждая из которых, как было показано, выражает какое-нибудь характерное свойство этого распределения.

3.4Нормальный закон распределения случайных величин Нормальный закон распределения (закон Гаусса) играет исключительно важную роль в теории вероятностей. Во-первых, это наиболее часто встречающийся на практике закон распределения непрерывных случайных величин. Во-вторых, он является предельным законом, в том смысле, что к нему при определенных условиях приближаются другие законы распределения. Нормальный закон распределения характеризуется следующей формулой для плотности вероятности:

, (3.13)

Здесь х - текущие значения случайной величины X, а М(X) и - ее математическое ожидание и стандартное отклонение, которые полностью определяют функцию f(x). Таким образом, если случайная величина распределена по нормальному закону , то достаточно знать только два числовых параметра: М(Х) и , чтобы полностью знать закон ее распределения (3.13). График функции (3.13) называется нормальной кривой распределения (кривой Гаусса). Он имеет симметричный вид относительно ординаты х = М(Х). Максимальная плотность вероятности, равная , соответствует математическому ожиданиюХ=М(Х), и по мере удаления от нее плотность вероятности f(х) симметрично спадает, постепенно приближась к нулю (рис. 3.5 ). Изменение значения М(Х) в (3.13) не меняет форму нормальной кривой, а приводит лишь к ее сдвигу вдоль оси абсцисс. Величина М(Х) называется также центром рассеяния, а среднеквадратичное отклонение характеризует ширину кривой распределения (см. Рис.3.6) .

С возрастанием максимальная ордината кривой убывает, а сама кривая становится более пологой, растягиваясь вдоль оси абсцисс, тогда как при уменьшении кривая вытягивается вверх, одновременно сжимаясь с боков (рис. 6).

Естественно, что при любых значениях М(Х) и площадь, ограниченная нормальной кривой и осью Х, остается равной 1 (условие нормировки):

f(х)dх = 1, илиf(х)dх = 1. (3.14)

Нормальное распределение симметрично, поэтому М(Х) = Мо(Х) = Ме(Х).

Вероятность попадания значений случайной величины Х в интервал (x1,x2), т.е. Р (x1< Х<x2) равна

Р (x1< Х <x2) =. (3.15)

На практике часто встречается задача нахождения вероятности попадания значений нормально распределенной случайной величины в интервал, симметричный относительно М(Х). В частности, рассмотрим следующую, важную в прикладном отношении задачу. Отложим от М(Х) вправо и влево отрезки равные , 2 и 3 (рис. 7) и рассмотрим результат вычисления вероятности попадания Х в соответствующие интервалы:

Р (М(Х) - < Х < М(Х) + ) = 0,6827 = 68,27%. (3.16)

Р (М(Х) - 2 < Х < М(Х) + 2) = 0,9545 = 95,45 %. (3.17)

Р (М(Х) - 3 < Х < М(Х) + 3) = 0,9973 = 99,73 %. (3.18)

Из (3.18) следует, что значения нормально распределенной случайной величины Х с параметрами М(Х) и  с вероятностью Р = 99,73% лежат в интервале М(Х) ± 3, иначе в этот интервал попадают практически все возможные значения данной случайной величины. Такой способ оценки диапазона возможных значений случайной величины известен как «правило трех сигм».

Пример. Известно, что для человека рН крови является нормально распределенной величиной со средним значением (математическим ожиданием) 7,4 и стандартным отклонением 0,2. Определите диапазон возможных значений этого параметра.

Решение: Для ответа на этот вопрос воспользуемся “правилом трех сигм”. С вероятностью равной 99,73% можно утверждать, что диапазон значений рН для человека составляет 7,4 ± 3·0,2, т.е 6,8÷8.

Математическое ожидание (Expected Value, EV) является основным понятием в теории вероятностей, которое служит для усредненной оценки некоторого случайного значения. Математическое ожидание похоже на центр тяжести, если считать вероятности значений массами точек.

Допустим, в результате игры возможны n различных вариантов исходов, вероятность каждого случая равна pi. Тогда математическое ожидание величины x, которая принимает значения xi для каждого случая вычисляется по формуле:

E(x) = x1p1 + x2p2 + ... + xnpn ,

В случае, когда вероятности исходов одинаковы ( p1=p2=...=pn=1/n ) формула принимает вид среднего арифметического :

E(x) = x1/n+ x2/n + ... + xn/n = (x1 + x2 + ... + xn) / n

Почему понятие математического ожидания является самым важным в теории вероятностей? Оказывается, с его помощью можно прогнозировать оценку значения некоторого случайного признака при достаточно долгом периоде испытаний.

Используя приведенную выше аналогию с центром тяжести, можно сказать, что любое физическое тело, находясь в неопределенном состоянии, будет стремиться принять состояние равновесия (опоры на свой центр тяжести), точно также и среднее значение любой случайной величины при достачно большом количестве испытаний будет стремиться к своему матожиданию. Этот факт строго доказывается в курсе теории вероятностей.

Числовые характеристики случайных величин (СВ). Основные свойства математического ожидания и дисперсии СВ.

Полной, исчерпывающей характеристикой СВ является закон распределения. Универсальным законом распределения является функция распределения: F(x)=p{X<x}

В приложениях удобно использовать числовые характеристики, которые дают суммарное представление о СВ.

Математическое ожидание

Мат. ожидание является характеристикой центра распределения (группирования значений) СВ.

Мат. Ожидание дискретной СВ Х, заданной законом распределения называется величина численно равная сумме произведений значений СВ на соответствующие значения вероятностей:

M(x) называется средним значением СВ.

М(х) равняется среднему арифметическому значению всех наблюдений при неограниченном увеличении числа наблюдений.

Если х – непрерывная СВ, заданная плотностью распределения f(x), то мат. ожидание:

В качестве меры центральных тенденций могут быть использованы другие величины.

Модой СВ Х (М0 Х) называется её наиболее вероятное значение (для дискретной СВ), для непрерывной – это точка максимума плотности распределения.

Медианой СВ Х (Ме Х) называют такое значение, что р{x<Me(x)}=p{x>Me(x)}= .

В случае симметричных распределений характеристики М(х), Ме(х), М0(х) совпадают.

Дисперсия

Рассмотрим величину х-М(х) – это отклонение СВ от её математического ожидания (М(х)).

Построим ряд распределения:

х-М(х) x1-M(1) x2-M(2) … xn-M(n)

р р1 р2 … рn

M(x-M(x))=

=

Следовательно М(х) является единственной точкой, относительно которой сумма всех отклонений равна 0.

ОПР. Дисперсией СВ Х называется математическое ожидание квадрата её отклонения от М(х): D(x)=M(x-M(x))2.

В случае дискретной СВ: D(x)=

Для непрерывной СВ: D(x)=

Для вычисления дисперсии удобно пользоваться формулой: D(x)=M(x2)-M(x)2

Доказательство: D(x)= =M(x2)-M(x)2.

Среднеквадратичное отклонение: σ(х)=

Простейшие свойства мат. ожидания и дисперсии:

1. Если С-константа, то М(С)=С, D(C)=0;

2. M(x+C)=M(x)+C, D(x+C)=D(x)

Доказательство:

M(x+C)=

3. M(Cx)=C*M(x), Доказательство: Для дискретной СВ: М(Сх)= .

Для непрерывной СВ: М(Сх)= .

D(Cx)=M(Cx-M(Cx))2=M(Cx-CM(x))2=M(C2(x-M(x)2))=C2M(x-M(x))2=C2D(x)

4. M(x+y)=M(x)+M(y)

Если x и y независимые СВ, то D(x+y)=D(x)+D(y).

  1. Дисперсия СВХ и среднее квадратическое отклонение. Вычисление дисперсии на примере с игральной костью.

Дисперсия случайной величины

Математическое ожидание показывает, вокруг какой точки группируются значения случайной величины. Необходимо также уметь измерить изменчивость случайной величины относительно математического ожидания. Выше показано, что M[(X-a)2] достигает минимума по а при а = М(Х). Поэтому за показатель изменчивости случайной величины естественно взять именно M[(X-М(Х))2].

Определение 5. Дисперсией случайной величины Х называется число

Установим ряд свойств дисперсии случайной величины, постоянно используемых в вероятностно-статистических методах принятия решений.

Утверждение 8. Пусть Х – случайная величина, а и b – некоторые числа, Y = aX + b. Тогда D(Y) = a2D(X).

Как следует из утверждений 3 и 5, M(Y) = aM(X) + b. Следовательно, D(Y) =M[(Y - M(Y))2] = M[(aX + b - aM(X) - b)2] = M[a2(X - M(X))2]. Поскольку постоянный множитель можно выносить за знак суммы, то M[a2(X - M(X))2] = a2 M[(X - M(X))2] = a2 D(Х).

Утверждение 8 показывает, в частности, как меняется дисперсия результата наблюдений при изменении начала отсчета и единицы измерения. Оно дает правило преобразования расчетных формул при переходе к другим значениям параметров сдвига и масштаба.

Утверждение 9. Если случайные величины Х и У независимы, то дисперсия их суммы Х+У равна сумме дисперсий: D(X+Y) = D(X) + D(Y).

Для доказательства воспользуемся тождеством (Х + У – (М(Х)+М(У))2 = (Х–М(Х))2 + 2(Х–М(Х))(У–М(У)) + (У–М(У))2,

которое вытекает из известной формулы элементарной алгебры (a+b)2 = a2 + 2ab + b2 при подстановке a = X-M(X) и b = Y-M(Y). Из утверждений 3 и 5 и определения дисперсии следует, что D(X+Y) = D(X) + D(Y) + 2M{(Х–М(Х))(У–М(У))}.

Согласно утверждению 6 из независимости Х и У вытекает независимость Х-М(Х) и У-М(У). Из утверждения 7 следует, что M{(Х–М(Х))(У–М(У))}= M(Х–М(Х))М(У–М(У)).

Поскольку M(Х–М(Х)) = 0 (см. утверждение 3), то правая часть последнего равенства равна 0, откуда с учетом двух предыдущих равенств и следует заключение утверждения 9.

Утверждение 10. Пусть X1, X2,…, Xk – попарно независимые случайные величины (т.е. Xi и Xj независимы, если). Пусть Yk – их сумма, Yk = X1+ X2+…+ Xk. Тогда математическое ожидание суммы равно сумме математических ожиданий слагаемых, М(Yk) = М(X1)+ М(X2)+…+М(Xk), дисперсия суммы равна сумме дисперсий слагаемых, D(Yk) = D(X1)+D(X2)+…+D(Xk).

Соотношения, сформулированные в утверждении 10, являются основными при изучении выборочных характеристик, поскольку результаты наблюдений или измерений, включенные в выборку, обычно рассматриваются в математической статистике, теории принятия решений и эконометрике как реализации независимых случайных величин.

Для любого набора числовых случайных величин (не только независимых) математическое ожидание их суммы равно сумме их математических ожиданий. Это утверждение является обобщением утверждения 5. Строгое доказательство легко проводится методом математической индукции.

При выводе формулы для дисперсии D(Yk) воспользуемся следующим свойством символа суммирования:

Положим ai = Xi – M(Xi), получим

Воспользуемся теперь тем, что математическое ожидание суммы равно сумме математических ожиданий:

Как показано при доказательстве утверждения 9, из попарной независимости рассматриваемых случайных величин следует, что

при. Следовательно, в сумме (8) остаются только члены с i=j, а они равны как раз D(Xi).

Полученные в утверждениях 8-10 фундаментальные свойства таких характеристик случайных величин, как математическое ожидание и дисперсия, постоянно используются практически во всех вероятностно-статистических моделях реальных явлений и процессов.

Среднее квадратичное отклонение определяется как обобщающая характеристика размеров вариации признака в совокупности. Оно равно квадратному корню из среднего квадрата отклонений отдельных значений признака от средней арифметической, т.е. корень из дисперсии и может быть найдена так:

  1. Для первичного ряда:

  2. Для вариационного ряда:

Преобразование формулы среднего квадратичного отклонени приводит ее к виду, более удобному для практических расчетов:

Среднее квадратичное отклонение определяет на сколько в среднем отклоняются конкретные варианты от их среднего значения, и к тому же является абсолютной мерой колеблемости признака и выражается в тех же единицах, что и варианты, и поэтому хорошо интерпретируется.

Примеры нахождения cреднего квадратического отклонения: Пример 1, Пример 2 Для альтернативных признаков формула среднего квадратичного отклонения выглядит так:

где р — доля единиц в совокупности, обладающих определенным признаком; q — доля единиц, не обладающих этим признаком.

  1. Закон распределения дискретной СВХ. Многоугольник распределения СВХ – выпадение очков при бросании игральной кости. Математическое ожидание для этого случая.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]