Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
тервер.doc
Скачиваний:
22
Добавлен:
18.09.2019
Размер:
456.7 Кб
Скачать
  1. Зависимые и независимые случайные величины.

С. в. Х и Y – независимые, если их совместная функция распределения в интервале F(X,Y)=F1(X)*F2(Y). F1(X) и F2(Y) – функции распределения X и Y как одномерн. величин. В другом случае Х и Y – зависимы.

Определение: Зависимость между двумя с. в. называется вероятностной (стохастической, статистической), если каждому значению из них соответствует определенное условное распределение другой.

В случае вероятностной зависимости нельзя точно определить значение другой, зная значение другой, а можно лишь указать распределения вероятности. Если с. в. независимы, то их линии регрессии X по Y и Y по Х параллельны осям.

Совместная плотность распределения независимых дискретных случайных величин:

Две непрерывные случайные величины называются независимыми, если плотность совместного распределения системы этих величин равна произведению плотностей распределения составляющих.

Ковариация независимых дискретных случайных величин:

Ковариацией (или корреляционным моментом) μxy случайных величин X и Y называют математическое ожидание произведения отклонений этих величин. Ковариация двух независимых случайных величин X и Y равна нулю: μxy =M{[X-M(X)]*[Y-M(Y)]}=M[X-M(X)]*M[Y-M(Y)]=0.

  1. Линейная зависимость между случайными величинами и значение коэффициента корреляции:

Линейная зависимость случайных величин является частным случаем их функциональной зависимости.

Для того чтобы иметь количественный показатель того, насколько сильно зависят друг от друга случайные величины, часто используют коэффициент корреляции.

Коэффициент корреляции - мера линейной зависимости между случайными величинами.

Если |ρ|=1, то случайные величины линейно зависимы.

35. Центральная предельная теорема – теорема Ляпунова

Центральная предельная теорема – группа теорем, посвященных определению условий, при которых возникает нормальный закон распределения.

Теорема: X1, X2, …Xn – независимые с.в. с M(Xi)=ai, D(Xi)=σi2, абсолютным центральным магнитом третьего порядка M( | Xi-ai |3 )=mi и limn→∞ (i=1nmi) / (i=1nσi2)3/2 =0, то закон распределения Yn=X1+X2+…Xn при n→∞ приближается к нормальному с математическим ожиданием i=1nai и дисперсией i=1nσi2.

Смысл limn→∞ (i=1nmi) / (i=1nσi2)3/2 =0 состоит в том, чтобы в сумме Yn=i=1nxi не было слагаемых, влияние которых на рассеяние Yn велико по сравнению с суммарным влиянием др.

  1. Локальная теорема Лапласа:

При большом числе испытаний n→∞ : Pn(m)=(1/√[npq]* √[2π])*e-1/2([m-np]/ √[npq])^2

Интегральная теорема Лапласа:

При большом количестве испытаний вероятность того, что число появлений события А находится в пределах от М1 до М2.

Pn(m1≤x1≤m2)=Φ ([m2-np]/ √[npq])*Φ([m1-np]/ √[npq]).

33. Закон больших чисел.

Под законом больших чисел в широком смысле понимают общий принцип, согласно которому совокупное действие большого числа случайных факторов приводит к результату почти не зависящему от случая. В узком смысле – ряд математических теорем, в каждой из которых для тех или иных условий устанавливается факт приближения средних характеристик большого числа испытаний к некоторым определенным постоянным.

Закон больших чисел состоит в теоретическом обосновании методов матстатистики. Он устанавливает факт приближения средней величины больш. числа с.в. к постоянной величине, но это не ограничив. закономерность возникновения в результате суммарного действия с.в.

При некоторых условиях совокупное действие случайных величин приводит к нормальному закону распределения.

Неравентсво Маркова (лемма Чебышева):

Теорема: если с.в. Х принимает только неотрицательные значения (≥0) и имеет конечное математическое ожидание M(X)<∞, то

для любого (A>0) 1-p(x≤A)*P(X>A) ≤M(X)/A

(P(x≤A)≥1-M(X)/A)= 1-p(x≤A)*P(X>A) ≤M(X)/A

Неравенство Чебышева:

Для любой с.в. х P(|x-M(x)| ≥ε) ≤D(x)/ε2 (ε>0)

В другой форме P(|x-M(x)| ≤ε) ≥1- D(x)/ε2

Частные случаи:

  1. С.в. X=m имеет биномиальное распределение.

С математическим ожиданием M(x)=np и дисперсией D(X)=np, тогда P(|m-np|≤ ε) ≥1- (npq)/ε2

  1. Для частоты m/n события в n независимых испытаниях, в каждом из которых событие может произойти с одной и той же вероятностью p и дисперсией (pq)/n, P(|m/n-p|≤ ε) ≥1- (pq)/(nε2 ).

Теорема Чебышева:

Теорема: если дисперсии n независимых с. в. ограничены одной и той же постоянной |D(x)|<C, то при неограниченном увеличении числа n (n→∞), среднее арифметическое значение с.в. «сходится по вероятности» к среднему арифметическому их математических ожиданий.

Т.е. limn→∞ P ( | [(x1+x2+…xn)/n – [M(X1)+M(X2)+…+M(Xn)]/n] ≤ε| )

Замечание: «Сходимость по вероятности» означает, что (∑xi)/n к (∑M(xi))/n нужно понимать не как категорическое утверждение, а как утверждение, справедливость которого гарантируется с вероятностью сколь угодно близкой к 1 при n→∞.

Смысл т. Чебышева: при большом числе n с.в. X1, X2, Xn практически достоверно то, что их средняя величина случайная X=(∑xi)/n как угодно мало отличается от X=(∑M(xi))/n, т.е. становится неслучайной.

Следствие: Если с.в. X1, X2, Xn имеют одинаковые математические ожидания, равные а, т.е. M(x1)=M(x2)=…=a и их дисперсия ограничена одной и той же величиной С, то средняя арифметическая P( | (x1+x2+…xn)/n -a| ≤ε) ≥1-C/n ε2. limn→∞Р( | (x1+x2+…xn)/n -a| ≤ε )=1.