Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
teor_ver_shpory.docx
Скачиваний:
23
Добавлен:
20.05.2015
Размер:
621.78 Кб
Скачать

40. Теорема Чебышева.

Эта теорема устанавливает связь между средним арифметическим наблюденных значений СВ и ее мат. ожиданием.

Теор.: При достаточно большом числе независимых опытов среднее арифметическое наблюденных значений СВ сходится по вероятности к ее мат. ожиданию. Запишем теорему Чебышева в виде формулы. Для этого напомним смысл термина «сходится по вероятности». Говорят, что СВ Хn сходится по вероятности к величине а, если при увеличении n вероятность того, что Хn и а будут сколь угодно близки, неограниченно приближается к единице, а это значит, что при достаточно большом n P(|Хn – a|<ε)>1 – δ, где ε, δ – произвольно малые положительные числа. Запишем в аналогичной форме теорему Чебышева. Она утверждает, что при увеличении n среднее арифметическое сходится по вероятности кmx, т.е. P(|-mx|<ε)> 1 – δ. Докажем это нер-во. Величина Y = имеет числовые хар-киmy = mx; Dy = Dx/n. Применим к СВ Y нер-во Чебышева, полагая , что α = ε: P(|Y - my| ≥ε) ≤ Dy2 = Dx/n ε2. Как бы мало ни было число ε, можно взять n таким большим, чтобы выполнялось нер-во Dx/n ε2<δ, где δ – сколь угодно малое число. Тогда P(|-mx|≥ε) <δ, откуда, переходя к противоположному событию, имеем: P(|-mx|<ε)> 1 – δ,

45. Эмпирическая ф-ция распределения и ее св-ва.

Опр.: эмпирической ф-цией распр. называется относ. частота события {X<x} в данной выборке знач. СВ Х, т.е. (x) = P(X<x) = mx/n, где mx – число xi, меньших х; n – объем выборки. Вел-на n(x) равна числу элементов выборки, которые меньше х. Из т. Бернулли следует, что эмпирическая ф-ция(x) при увеличении n (n→∞) сходится по вероятности к подлинной ф-ции распр. F(x). Поэтому(x) используется для оценки ф-ции распр. F(x).Св-ва эмпирической ф-ции распр.: 1) Знач. эмпирич. ф-ции распр. принадлежат отрезку [0;1]; 2) Эмпирич. ф-ция распр. (x) – неубывающая ф-ция; 3) Если x< x1, где x1 – наименьшее наблюденное значение, то (x) = 0; при x> xn, где xn – наибольшее наблюденное значение, (x) = 1. Эти св-ва следуют из определения эмпирической ф-ции распр..

46. Числовые хар-ки выборочного распр.: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.

В этом вопр вмето S надо сигма  ???

Пусть случ. эксперимент описывается СВ Х.

Повторяя случ. эксперимент n раз, получим посл-сть наблюденных знач. x1, x2, …, xn СВ Х, называемых выборкой из ген. сов-сти Ωx, описываемой ф-цией распр. F(x). Опр.: Выборочным средним наблюденных знач. выборки назыв. вел-на, определяемая по формуле , где xi – наблюденное значение с частотой mi, n – число наблюдений,. Частоты mi могут быть равны 1, i =, тогда k=n.Опр.: Стат. дисперсией выборочного распр. назыв. среднее арифметическое квадратов отклонений знач. наблюдений от средней арифметической, т.е., где xi – наблюденное значение с частотой mi',, n – число наблюдений. В кач-ве числовой хар-ки выборки так же применяется медиана. Чтобы вычислить ее все наблюдения располагают в порядке возрастания или убывания. При этом, если число вариант нечетно, т.е. 2m+1, то медианой является m+1 варианта (); если же число вариант четное, то медиана равна среднему арифметическому двух средних знач.:= (xm+xm+1)/2. Хар-ка ассиметрии выборочного распр. вычисляется по формуле, а эксцесс выборочного распр. определяется характеристикой. Обобщающими хар-ками выборочных распр. являются стат. моменты распр.. Начальные стат. моменты k-того порядка:. Тогда: при k =0 M0 =(mi/n) = 1; при k =1 M1 =( mi/n) =; при k =2 M2 =( mi/n) =2; при k =3 M3 =( mi/n) =3; при k =4 M4 =( mi/n) =4 и т.д. Практически используются моменты первых четырех порядков. Центр. стат. моменты k-того порядка:. Тогда: при k =0=1; при k =1=0; при k =2- стат. дисперсия; при k =3; при k =4и т.д. Отметим, что центр. стат. момент 3-его порядка служит мерой ассиметрии распр. выборки. Если распр. симметрично, то. На практике моменты порядка выше четвертого почти не применяются, т.к. обладают очень высокой дисперсией и их сколько-нибудь надежное опр. потребовало бы выборок большого объема.

47. Понятие оценки параметра. Св-ва оценок: состоятельность, несмещенность, эффективность.

Пусть требуется подобрать распр. для исследуемой СВ Х по выборке x1, x2, …, xn , извлеченной из ген. сов-сти Ωx с неизвестной ф-цией распр. F(x). Выбрав распр., исходя из анализа выборки, мы по данным выборки должны оценить параметры соотв. распр.. Например, для нормального распр. можно опр. параметры m и σ; для распр. Пуассона — параметр λ и т.д. Решение вопросов о «наилучшей» оценке неизвестного параметра и составляет теорию стат. оценивания. Выборочная числовая хар-ка, применяемая для получения оценки неизвестного параметра ген. сово-сти, называется оценкой параметра. Например, Х – среднее арифм. может служить оценкой мат. ожидания M(X) ген. сов-сти Ωx. В принципе для неизвестного параметра a может существовать много числовых хар-ик выборки, которые вполне подходящи для того, чтобы служить оценками. Например, среднее арифметическое, медиана, мода могут показаться вполне приемлемыми для оценивания мат. ожидания M(X) сово-сти. Чтобы решить, какая из статистик в данном мн-ве наилучшая, необходимо определить некоторые желаемые св-ва таких оценок, т.е. указать условия, которым должны удовлетворять оценки. Опр.: Если M() =a, тоназывается несмещенной оценкой а. В других случаях говорят, что оценка смещена. Если существует больше одной несмещенной оценки, то выбирают более эффективную оценку, т.е. ту, для которой вел-на второго момента M(- а)2 меньше. Опр.: Оценка 1 называется более эффективной, чем оценка 2, если M(1 - а)2 <M(2 - а)2 . При использовании той или иной оценки желательно, чтобы точность оценивания увеличилась с возрастанием объема производимой выборки. Предельная точность будет достигнута в том случае, когда численное знач. оценки совпадает со знач. параметра при неограниченном увеличении объема выборки. Такие оценки будем называть состоятельными. Опр.: Оценка называется состоятельной оценкой а, если при n→∞ она сходится по вероятности к а.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]