
- •1.Понятие испытания. Простр-во элементарных событий.
- •3.Классическое определение вероятности.
- •4. Относительная частота. Устойчивость относительной частоты.
- •5.Статистическая вероятность.
- •6.Геометрическая вер.
- •7.Вычисление вер. С использованием комбинаторных схем
- •8.Понятие об алгебре событий
- •9.Аксиомы Колмогорова
- •10.Понятие вероятностного пространства
- •13.Условная вер.. Теорема умножения вер..
- •14.Независимые события. Теорема умножения для независимых событий.
- •15.Вер. Появления хотя бы одного события
- •16.Формула полной вероятности
- •17.Формула Байеса
- •18.Формула Бернулли
- •19.Наивероятнейшее число появления событий в последовательности независимых испытаний
- •20.Формула Пуассона
- •21.Функция Лапласа.
- •22.Понятие случайной вел-ны. Дискретные и непрерывные случ. Вел-ны.
- •23.Ряд распр. Дискретной случайной вел-ны
- •24.Функция распр. Св и ее свойства
- •25. Плотность распр. Вер. Непрерывной св и ее св-ва.
- •26. Вер. Попадания св в заданный интервал.
- •27. Мат. Ожидание дсв и нсв. Св-ва мат. Ожидания.
- •32. Гипергеометрическое распр.
- •30.Начальные и центральные моменты случ. Величин.
- •31. Биномиальный закон распределения.
- •33. Закон Пуассона
- •37. Показательное распределение.
- •39. Закон распределения линейной ф-ции от аргумента, подчиненного нормальному закону.
- •38. Закон распределения монотонной ф-ции одного случайного аргумента.
- •40. Закон распределения ф-ции двух св.
- •41. Понятие закона больших чисел.
- •42. Неравенство Чебышева.
- •44. Понятие центральной предельной теоремы.
- •45. Понятие о теореме Ляпунова.
- •46. Генеральная совокупность и выборка. Выборочное распределение.
- •43. Теорема Чебышева.
- •47. Вариационный ряд, его хар-ки. Гистограмма. Полигон.
- •48. Эмпирическая ф-ция распределения и ее св-ва.
- •49. Числовые хар-ки выборочного распр.: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.
- •51. Интервальные оценки параметров распр.. Доверительный интервал.
- •53. Описание гипотез. Простые и сложные гипотезы. Нулевая и конкурирующая гипотезы.
- •54. Критерии проверки статистических гипотез.
- •55. Уровень значимости и мощность критерия. Ошибки первого и второго рода.
47. Вариационный ряд, его хар-ки. Гистограмма. Полигон.
Интервальный стат. ряд распр., представленный графически, назыв. гистограммой(Г), которая строится след. образом. По оси абсцисс откладываются интервалы [xi;xi+1[, и на каждом из них строится прямоугольник площадью Wi , т.е. высота hi= Wi /(xi+1 - xi). Из способа построения Г следует, что ее площадь равна 1. В т. вер. Г соответствует график плотности распр. вер.. Если экспериментальный материал описывает реализации дискретной СВ Х, то знач. наблюдений xi располагают в возрастающем порядке. При этом xi называют вариантами, а посл-сть вариант, записанных в возраст. порядке, — вариационным рядом. Число появлений наблюдения xi называют абс. частотой mi. Знач. наблюдений и соотв. абс. частоты можно записать в виде таблицы, кот. называется стат. рядом распр. или частотной таблицей. Если на плоскости нанести точки (xi, mi) и соединить их отрезками прямых линий, то получим полигон частот, который называют еще частотным многоугольником. Если на плоскости нанести точки (xi, mi/n) и соединить их отрезками прямых линий, получим полигон относит. частот. Г. и полигон частот выборочного распр. можно использовать для подбора модели распр. изучаемой случайной вел-ны Х.
48. Эмпирическая ф-ция распределения и ее св-ва.
Опр.:
эмпирической ф-цией распр. называется
относ. частота события {X<x} в данной
выборке знач. СВ Х, т.е.
(x)
= P(X<x) = mx/n,
где mx
– число xi,
меньших х; n – объем выборки. Вел-на n
(x) равна числу элементов выборки, которые
меньше х. Из т. Бернулли следует, что
эмпирическая ф-ция
(x) при увеличении n (n→∞) сходится по
вероятности к подлинной ф-ции распр.
F(x). Поэтому
(x) используется для оценки ф-ции распр.
F(x). Св-ва
эмпирической ф-ции распр.:
1) Знач. эмпирич. ф-ции распр. принадлежат
отрезку [0;1]; 2) Эмпирич. ф-ция распр.
(x) – неубывающая ф-ция; 3) Если x< x1,
где x1
– наименьшее наблюденное значение, то
(x) = 0; при x> xn,
где xn
– наибольшее наблюденное значение,
(x) = 1. Эти св-ва следуют из определения
эмпирической ф-ции распр..
49. Числовые хар-ки выборочного распр.: выборочное среднее, выборочная дисперсия, медиана, ассиметрия, эксцесс, выборочные моменты.
В этом вопр вмето S надо сигма ???
Пусть случ. эксперимент описывается СВ Х.
Повторяя
случ. эксперимент n раз, получим посл-сть
наблюденных знач. x1, x2, …, xn СВ Х, называемых
выборкой из ген. сов-сти Ωx, описываемой
ф-цией распр. F(x). Опр.:
Выборочным средним наблюденных знач.
выборки назыв. вел-на, определяемая по
формуле
,
где xi – наблюденное значение с частотой
mi, n – число наблюдений,
.
Частоты mi могут быть равны 1, i =
,
тогда k=n. Опр.:
Стат. дисперсией
выборочного распр. назыв. среднее
арифметическое квадратов отклонений
знач. наблюдений от средней арифметической
,
т.е.
,
где xi – наблюденное значение с частотой
mi',
,
n – число наблюдений. В кач-ве числовой
хар-ки выборки так же применяется
медиана. Чтобы вычислить ее все наблюдения
располагают в порядке возрастания или
убывания. При этом, если число вариант
нечетно, т.е. 2m+1, то медианой является
m+1 варианта (
);
если же число вариант четное, то медиана
равна среднему арифметическому двух
средних знач.:
=
(xm+xm+1)/2. Хар-ка ассиметрии выборочного
распр. вычисляется по формуле
,
а эксцесс выборочного распр. определяется
характеристикой
.
Обобщающими хар-ками выборочных распр.
являются стат. моменты распр.. Начальные
стат. моменты k-того порядка:
.
Тогда: при k =0 M0 =
(mi/n)
= 1; при k =1 M1 =
(
mi/n) =
;
при k =2 M2 =
(
mi/n) =
2;
при k =3 M3 =
(
mi/n) =
3;
при k =4 M4 =
(
mi/n) =
4
и т.д. Практически используются моменты
первых четырех порядков. Центр. стат.
моменты k-того порядка:
.
Тогда: при k =0
=1;
при k =1
=0; при k =2
- стат. дисперсия; при k =3
;
при k =4
и т.д. Отметим, что центр. стат. момент
3-его порядка служит мерой ассиметрии
распр. выборки. Если распр. симметрично,
то
.
На практике моменты порядка выше
четвертого почти не применяются, т.к.
обладают очень высокой дисперсией и их
сколько-нибудь надежное опр. потребовало
бы выборок большого объема.
50. Понятие оценки параметра. Св-ва оценок: состоятельность, несмещенность, эффективность.
Пусть
требуется подобрать распр. для исследуемой
СВ Х по выборке x1,
x2,
…, xn
, извлеченной из ген. сов-сти Ωx
с неизвестной ф-цией распр. F(x). Выбрав
распр., исходя из анализа выборки, мы по
данным выборки должны оценить параметры
соотв. распр.. Например, для нормального
распр. можно опр. параметры m и σ;
для
распр. Пуассона — параметр λ
и
т.д. Решение вопросов о «наилучшей»
оценке неизвестного параметра и
составляет теорию стат. оценивания.
Выборочная числовая хар-ка, применяемая
для получения оценки неизвестного
параметра ген. сово-сти, называется
оценкой параметра. Например, Х – среднее
арифм. может служить оценкой мат. ожидания
M(X) ген. сов-сти Ωx.
В принципе для неизвестного параметра
a может существовать много числовых
хар-ик выборки, которые вполне подходящи
для того, чтобы служить оценками.
Например, среднее арифметическое,
медиана, мода могут показаться вполне
приемлемыми для оценивания мат. ожидания
M(X) сово-сти. Чтобы решить, какая из
статистик в данном мн-ве наилучшая,
необходимо определить некоторые желаемые
св-ва таких оценок, т.е. указать условия,
которым должны удовлетворять оценки.
Опр.:
Если M()
=a, то
называется несмещенной оценкой а. В
других случаях говорят, что оценка
смещена. Если существует больше одной
несмещенной оценки, то выбирают более
эффективную оценку, т.е. ту, для которой
вел-на второго момента M(
- а)2
меньше. Опр.:
Оценка
1
называется более эффективной, чем оценка
2,
если M(
1
- а)2
<M(
2
- а)2
. При использовании той или иной оценки
желательно, чтобы точность оценивания
увеличилась с возрастанием объема
производимой выборки. Предельная
точность будет достигнута в том случае,
когда численное знач. оценки совпадает
со знач. параметра при неограниченном
увеличении объема выборки. Такие оценки
будем называть состоятельными. Опр.:
Оценка
называется состоятельной оценкой а,
если при n→∞ она сходится по вероятности
к а.