Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
terver.docx
Скачиваний:
1
Добавлен:
24.04.2019
Размер:
1.23 Mб
Скачать

21. Функції одного випадкового аргументу

Функцією випадкового аргументу Х називають таку випадкову величину Y, яка набуває значення Y = у = (х) щоразу, коли Х = х, де є невипадковою функцією. Якщо Х є дискретною випадковою величиною, то і функція випадкового аргументу Y =  (х) буде дискретною.

Коли Х є неперервною випадковою величиною, то і Y = (х) буде неперервною.

1.1. Функції дискретного випадкового аргументу

Нехай закон дискретної випадкової величини Х задано таблицею:

Х = хi

x1

x2

x3

............

xk

P(X = xi) = pi

p1

p2

p3

.............

pk

Тоді закон розподілу випадкової величини Y = (х) матиме такий вигляд:

Y = α (хi)

α (х1)

α (х2)

α (х3)

..................

α (хk)

P(Y = α (хi) = рi

p1

p2

p3

...............

pk

де кожне можливе значення Y дістають, виконуючи ті операції, які вказані в невипадковій функції, умовно позначеній α. При цьому, якщо в законі розподілу випадкової величини Y є повторення значень, то кожне з цих значень записують один раз, додаючи їх імовірності.

Приклад 1.

Закон розподілу дискретної випадкової величини Х задано таблицею:

Х = хi

– 4

–2

–1

1

2

4

Р(X = хi) = рi

0,1

0,2

0,1

0,1

0,2

0,3

Побудувати закон розподілу ймовірностей для Y = 3х2.

Розв’язання. Iз функціональної залежності Y = 3х2 маємо:

Y = 3хi2

16

4

1

1

4

16

Р(у = 3хi2) = рi

0,1

0,2

0,1

0,1

0,2

0,3

Ураховуючи повтори можливих значень Y, дістаємо:

Р (у = 16) = 0,1 + 0,3 = 0,4; Р (у = 4) = 0,2 + 0,2 = 0,4; Р (у = 1) = 0,1 + 0,1 = 0,2.

Отже, закон розподілу дискретної випадкової величини Y набирає такого вигляду:

Y = уj

1

4

16

Р (у = уj) = рj

0,2

0,4

0,4

22. Випадкові величини, можливі значення яких визначають-ся двома, трьома, ... n числами називаються відповідно двомірними, трьохмірними, ... n-мірними. Двомірна випад-кова величина (X, Y) визначається двома складовими або компонентами Х і Y, що утворюють систему двох випадкових величин. Геометрична інтерпретація двомірної величини – випад-кова точка М(Х; Y) на площині ХОY або як випадковий вектор ОМ . Якщо складові Х і Y – дискретні, то двомірна величина є дискретною, якщо складові неперервні, то – неперервною. Законом розподілу імовірностей двомірної дискретної ви-падкової величини називають відповідність пар чисел ( xi ,yj ) і їх імовірностей p(xi , y j ) (і = 1, 2, ...., n; j = 1, 2, ..., m). Закон розподілу задають у вигляді: а) аналітично; б) таблиці з по-двійним входом.

23. Нехай є неперервна випадкова величина з неперервною та диференційованою функцією розподілу .

Густиною ймовірності називається похідна від функції розподілу випадкової величини.

Функція характеризує щільність, з якою розподіляються значення випадкової величини в даній точці. Інколи називають диференціальною функцією розподілу, або диференціальним законом розподілу.

Терміни “щільність розподілу” або “щільність ймовірності” особливо показові при вживанні механічної інтерпретації розподілу. Тобто, буквально характеризує щільність розподілу маси по , так звану лінійну щільність. Крива, що відображає щільність розподілу випадкової величини, називається кривою розподілу.

Розглянемо закони розподілу і щільність їх ймовірностей, що найбільш часто зустрічаються:

1) Нормальний закон (закон Гаусса)

Щільність імовірності випадкових величин задається формулою:

,

де — математичне сподівання

— середнє квадратичне відхилення.

2) Рівномірний розподіл

3) Показниковий закон

,

де

.

4) Якщо неперервна випадкова величина приймає тільки додатні значення, а щільність ймовірності визначається

,

де >0

то закон розподілу називається законом Максвела.

5) Закон Ст’юдента

,

де к – параметр розподілу – значення гама функції, яка визначається:

, при

– збігається, так як

6) Закон розподілу визначається щільністю ймовірності

де k – параметр розподілу.

7) Гама-розподіл має щільність ймовірностей

,

В теорії та на практиці зустрічаються випадкові величини, розподілені і по інших законах.

Властивості щільності розподілу.

Щільність розподілу — невід’ємна функція, тобто геометрично значить, що всі криві вище

24. В математиці та статистиці, розпо́діл імові́рностей (який має математично описуватися функцією розподілу ймовірностей), ставить у відповідність кожному інтервалу ймовірність таким чином, що аксіоми ймовірностей виконуються. Математичною мовою, функція розподілу ймовірностей є ймовірнісною мірою, визначеною на борелівській алгебрі інтервалів.

Розподіл імовірностей є окремим випадком більш загального означення ймовірнісної міри, яка є функцією, що ставить у відповідність вимірним множинам з вимірного простору ймовірності за аксіомами Колмогорова.

Згідно з означенням П. Лапласа, мірою ймовірності є дріб, чисельником якого є число сприятливих подій, а знаменником — число всіх можливих випадків. [1]

Також, деякі вчені означають розподіл як ймовірнісну міру, індуковану випадковою величиною X на деякому інтервалі — ймовірність множини B є P(X − 1(B)).

26,27.Рассмотрим две дискретные СВ(Х,У).Возможные значения СВ Х:х1,х2,х3…хn. Возможные значения СВ У:у1,у2,у3…уm.Пусть СВ У примет значение у1,при этом СВ Х примет одно из своих возможных значений х1,х2,х3…хn.Обозначим условную вероятность того, что СВ Х примет значение х1 при условии, что У= у1,через р(х1/ у1).Эта вероятность не будет равна безусловной вероятности р(х1).Условные вероятности будет обозначать р(хi/ уj),i=1,n,j=1,m. Условным распределением СВ Х при У= уj называют совокупность условных вероятностей р(хi/ уj),i=1,n,j=1,m ,вычисленных в предположении, что событие У= уj уже наступило. Аналогично для СВ У. Зная з-н распределения 2 дискретных СВ, можно вычислить их условные з-ны распределения. Например, р(хi/ у1) = р(хi/ у1)/ р(у1) , i=1,n. В общем случае : р(хi/ уj) = р(хi/ уj)/ р(уj) Аналогично для У. Сумма вероятностей условного распред. = 1.

28. Умовне математичне сподівання в теорії ймовірностей — середнє значення випадкової величини відносно умовного розподілу.

29. Лінія регресії X і Y - це функція, яка зв'язує середні значення оз­наки X зі значенням ознаки Y. Лінія регресії може бути представле­ною таблично, графічно й аналітично. В кореляційно-регресійному аналізі оцінка лінії здійснюється не в окремих точках, а в кожній точці інтервалу зміни фактичної ознаки X.

30. Строго регрессионную зависимость можно определить следующим образом. Пусть Y, X1,X2,...,Xp — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений X1 = x1,X2 = x2,...,Xp = xp определено условное математическое ожидание

y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде),

то функция y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а её график — линией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.

Для опису двохвимірної випадкової величини крім мате­матичного сподівання, дисперсії та середніх квадратичних відхилень використовують також

інші характеристики, а саме - кореляційний момент(або коваріація)

cov (X, Y) = KXY = M ((X – mx) (Y – my)).

Для неперервних величин X та У

KXY = (x - mx) (Y – my) f (x, y) dx dy.

Коефіцієнт кореляціїy

r XY = KXY/ x y

Коефіцієнт кореляції є кількісна характеристика залеж­ності випадкових величин X та У і часто використовується в статистиці.

Две случайные величины X и Y называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляции) отличен от нуля; X и Y называют некоррелированными величинами, если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заключить, что μxy = 0, а это противоречит условию, так как для коррелированных величин μxy не равняется 0. Обратное предположение не всегда имеет место, т.е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равняться нулю. Для нормально распределенных составляющих двумерной случайной величины понятия независимости и некоррелированности равносильны.

Зв’язок між корел-тю(некорел-тю) та залежністю:

якщо Х, Y некорельовані μ xy=0, то залежність невідома.

якщо Х, Y корельовані , то вони залежні

якщо X, Y незалежні , то вони некорельовані X, Y =0

якщо X, Y залежні, то вони можуть бути як корельованими так і некорельованими

μ xy – індикатор залежності і незалежності X, Y

Різниця: із незалежності 2 величин слідує їх некорельованість , але із некорельваності неможна зробити висновок о незалежності цих величин

Коефіцієнт кореляціїy

r XY = KXY/ x y

Коефіцієнт кореляції є кількісна характеристика залеж­ності випадкових величин X та У і часто використовується в статистиці.

Величина коэф. корреляции не зависит от выбора единицы измерения случайных величин. В этом состоит преимущество коэф. корреляции перед корреляционным моментом. КК независимых сл. величин равен нулю (так как μxy = 0)

Абсолютная величина коэф. кореляции не превышает единицы

Властивості коефіцієнта кореляції:

1) | rxy| <=1; 2) Якщо Х та Y незалежні, то rxy=0; 3) Якщо між Х та Y є лінійна залежність Y=a*X+b, де a та b – сталі, то | rxy|=1

Корельованими наз.2 в.в., якщо їх μ xy відрізняється від 0.

Некорельваними наз. 2 в.в., якщо їх μ xy=0

Теорема Бернуллі: Нехай імовірність появи події А в кожному із n незалежних повторних випробувань дорівнює р,m – число появ подій А (частота події) в n випробуваннях. Тоді

.

Теорема Чебишова:

Нехай Х1,Х2,…, Хn – попарно незалежних випадкових величин, які задовольняють умовам

1)М(Хі)= аі, 2) D(Хі)≤с

Для усіх і= 1,2, …, n.

Тоді

Центральна гранична теорема.:

Нехай задана послідовність незалежних однаково розподілених випадкових величин Х1,Х2,…, Хn, М(Хі)=0, D(Хі)=b,і=1,2,… .

Розглянемо випадкову величину Yn= . Тоді

М(Yn)= ,

При функція розподілу

,

Тобто сума Yn буде розподілена за нормальним законом з математичним сподіванням 0 та дисперсією

Теорема Лапласа. Если вероятность p наступления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k1,k2) того, что событие А появится в n испытаниях от k1 до k2 раз, приближенно равна определенному интегралу

При решении задач, требующих применения интегральной теоремы Лапласа. Пользуются специальными таблицами, так как неопределенный интеграл null<integ>null->(e^((-z^2)/2)*dz) не выражается через элементарные функции. Таблица для интеграла fi(x)=(1/sqrt(2*pi))*(0<integ>x->((e^((-z^2)/2))*dz)) приведена в приложении 2(ст. 462). В таблице даны значения функции fi(x) для положительных значений x и для x =0; для x<0 пользуются то же таблицей [функция fi(x) нечетна, т.е. fi(-x)=-fi(x)]. В таблице приведены значения интеграла лишь до x=5, так как для x>5 можно принять fi(x)=0,5. Функцию fi(x) часто называют функцией Лапласа

34. Випадкова функція- функція невипадк.аргументу яка в результаті вип.експерименту може приймати певний конкретний вигляд.

Одерж.в результаті к-го експерименту конкретний вигляд в функції наз.к-ою реалізацією в функції.

X(t)= {x(t1),x(t2)…}

Математичне сподівання в.в. Х характеризує середнє значення Х із врахуванням ймовірностей його можливих значень. В практичній діяльності під математичним сподівання розуміють центр розподілу в.в.

Основні властивості математичного сподівання

Математичне сподівання постійної величини дорівнює самій постійній М(С) = С.

Постійний множник можна виносити за знак математичного сподівання М(СХ)=С*М(Х).

Математичне сподівання добутку декількох взаємно незалежних дискретних випадкових величин дорівнює добутку їх математичних сподівань, тобто М(Х1*Х2*…*Хn) = М(Х1)*М(Х2)*…*М(Хn).

Математичне сподівання суми випадкових величин дорівнює сумі їх математичних сподівань, тобто М(Х1+Х2+…+Хn ) = М(Х1)+М(Х2)+…+М(Хn)

36. Дисперсія Х — це число, яке дорівнює математичному сподіванню квадрата відхилення в.в. від її математичного сподівання.

— дисперсія величини Х.

Обчислення дисперсії для ДВВ:

Обчислення дисперсії для НВВ:

Кореляційна функція – невипадкова ф-я двох аргументів t1 та t2 значення якої при конкретних значень t1 та t2 дорівнює кореляційному моменту відповідних моментів. Kx(t1, t2)=M[(x(t1)-m­x(t1))(x(t2)-m­x(t2))]

Властивості:

1)Kx(t1, t2)= Kx(t2,t1)

2)Y(t)=X(t)+φ(t) Ky(t1, t2)= Ky(t2,t1)

3)Y(t)=X(t)*φ(t) Ky(t1, t2)= φ(t1)(t2)* Kx(t2,t1)

4)t1= t2, Kx(t2,t1)= Kx(t1,t1)=Dx(t1)

5)| Kx(t1,t1)|<

38. Потоком подій називається послідовність подій, які відбуваються одна за одною у випадкові моменти часу. Наприклад, потік заявок, що надходить до підприємства побутового обслуговування, потік викликів до телефонної станції, потік відказів (збоїв) під час роботи на ПЕОМ тощо. Середня кількість подій, які відбуваються за одиницю часу, називається інтенсивністю потоку.

Потік називається найпростішим, якщо він має такі властивості:

стаціонарність — імовірність того, що за деякий проміжок часу t відбудеться та чи інша кількість подій, залежить лише від довжини проміжку і не залежить від початку його відліку, тобто інтенсивність потоку стала;

відсутність післядії — імовірність настання деякої кількості подій на довільному проміжку часу не залежить від того, яка кількість подій відбулась до початку цього проміжку;

ординарність — імовірність настання двох і більше подій за малий проміжок часу t істотно менша за ймовірність того, що відбудеться одна подія.

Якщо потік подій найпростіший, то ймовірність того, що за проміжок часу t подія А настане m раз, визначається формулою: де — інтенсивність потоку. Ця формула відбиває всі властивостінайпростішого потоку, а отже, є його математичною моделлю.

Предмет МС є розробка методів, збору і обробки інформації, аналізу результатів обробки з метою одержання науково-обгрунтованих висновків і вироблення практичних рекомендацій.

Основні задачі:

розробка методів збору статистичних даних та їх групування

оцінка невідомих параметрів сукупності за даними вибору

розробка методів виявлення наявності , виду, щильності, взаємозв’язків між ознаками

перевірка статистичних гіпотез

Генеральна – сукупність об’єктів , з яких зроблено вибірку.Вибіркова – сукупність випадково взятих об’єктів .Об’ємом сукупності наз. кількість об’єктів цієї сукупності.Повторною наз. Вибірку, при якій відібраний об’єкт повертається до генеральної сукупності перед відбором іншого об’єкту.

Вибірку наз. безповторною, якщо взятий об’єкт до генеральної сукупності не повертається. Найчастіше використовують без повторні вибірки.

Репрезентативна – вибірка, яка здійснюється випадково. Це вибірка яку можна ефективно використовувати для вивчення відповідної ознаки генеральної сукупності.

41)

Статистичний розподіл

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]