Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Teoria_veroyatnosti_STATISTIKA.doc
Скачиваний:
2
Добавлен:
01.03.2025
Размер:
2.78 Mб
Скачать

18.Функции случайных величин. Вычисление мат ожиданий. Нахождение закона распределения для функции одной случайной величины, в случае дискретной и непрерывной случайной величин

Сиреневый учебник по кот ДЗ делали стр119

Функции дискретных случайных величин

Если каждому возможному значению случайной величины Х соответствует одно возможное значение случайной величины Y, то Y называют функцией случайногвеличины Х

y=φ(x)

X

x1

x2

xn

P

p1

p2

pn

y=φ(x)

Пример:

x

-2

-1

0

1

2

P

0.1

0.15

0.3

0.05

0.4

y=x3

y

-8

-1

0

1

8

P

0.1

0.15

0.3

0.05

0.4

x→y

y

0

1

4

P

0.3

0.2

0.5

y=x2

Функции непрерывных случайных величинаний. M{}

y=φ(x) – непрерывная дифференцируемая монотонная ф-ция

1.Монотонно возрастает (Лекции 13 рисунок)

{y<Y}равносильно{x<X}

{x<X}: Fx(x)=P(x<X)= - ф-ция распределения

P(y<Y)=Gy(y)-ф-ция распределения

g(y)=

2.Монотонно убывает

X>x

P(y>Y)=Gy(y)

g(y)=

Функция плотности вероятности для функции случайной величины

y=φ(x)

g(y)=

Математическое ожидание

y=φ(x)

1. Пусть X- дискрет случ. вел, тогда yn= φ(xn)

2.Пусть X –непрер. Случ. вел

Для вычисления числовых характеристик неслучайной ф-ции случайной величины не надо знать закона распределения зависящей от X случайной величины Y, а достаточно знать закон распределения случайного аргумента X.

19. Функции нескольких случайных величин. Вычисление мат ожиданий и дисперсий для суммы случайных величин.

  1. Математическое ожидание

  1. Дисперсия

Св-ва мат. ожидания и дисперсии:

  1. M[X+Y] = M[X] + M[Y]

  2. M[X*Y] = M[X] * M[Y]

  3. D[X+Y] = D[X] + D[Y]

  1. Коэффициент ковариации

Св-ва мат. ожидания и дисперсии:

  1. Если X и Y независимы, то Cov(X,Y) = 0 (обратное неверно!)

  1. Cov(aX,bY) = ab*Cov(X,Y), где a и b – константы

  2. Cov(X,Y)

  1. Коэффициент корреляции

Св-ва мат. ожидания и дисперсии:

  1. |ρ(X,Y)| ≤ 1, этот результат следует из свойства 3 для ковариации случайных величин X и Y.

  2. Если Х и Y – независимые случайные величины, то ρ(X,Y) = 0 (по свойству 1 для ковариации)

  3. Если X и Y связаны линейной функциональной зависимостью: Y=aX + b, где a и b – константы, а ≠ 0, то |ρ(X,Y)| = 1

20. Центральная предельная теорема. Теорема Муавра-Лапласа. Асимптотическое распределение среднего арифметического случайных величин.

Центральная предельная теорема. Одна из формулировок: Пусть X1…Xn… - независимые и одинаково распределенные случайные величины с мат.ожиданием m и дисперсией σ2. Рассмотрим величину X=X1+…+Xn, при n->∞ функция распределения случайной величины

имеет нормальное распределение N(0,1) и равномерно по х сходится к функции распределения стандартного нормального закона Φ(х), где

Формулировка Ляпунова Пусть X1…Xn… - независимые и одинаково распределенные случайные величины с мат.ожиданием m и дисперсией σ2.

Следствия ЦПТ.

Распределение среднего арифметического случайных величин.

Пусть X1…Xn… - независимые и одинаково распределенные случайные величины с мат.ожиданием и дисперсией . Среднее арифметическое их:

]=nm/n=n

.

При n->∞ -> 0. Среднее арифметическое можно представить: , т.е. можно рассмотреть как сумму случайных величин. Тогда

– в силу центральной предельной теоремы

Теорема Муавра-Лапласа.

Пусть Х – случайная величина, имеющая биномиальное распределение. (q=1-p; n испытаний)

Х – число успехов в n испытаниях по схеме Бернулли

Х=0…n

Введем величину

Причем M[Xi]=1*p+0*q=p

D[Xi]=M[Xi2]-p2=p-p2=p(1-p)=pq

X = X1 + … + Xn (они все независимы и имеют одинаковое распределение)

M[X] = M[X1 + … + Xn] = M[X1] + … + M[Xn] = np

D[X] = D[X1 + … + Xn] = D[X1] + … + D[Xn] = npq

Следовательно: X

Теорема Муавра-Лапласа позволяет количественно оценить разброс события А в некотором эксперименте, который может повторятся n раз в неизменных условиях. Приблизительное значение p равно значению наблюдаемой относительной частоты появления события А в n экспериментах, причем, чем больше n тем выше относительная точность этого результата.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]