- •1. Случайные события и действия над ними.
- •2. Алгебра событий.
- •3. Вероятность события. Свойства вероятности.
- •4. Теорема сложения вероятностей.
- •5. Условная вероятность.
- •6. Теорема умножения вероятностей. Независимые события.
- •7. Формула полной вероятности. Теорема Байеса.
- •8. Случайная величина. Определение. Пример.
- •9. Функция распределения случайной величины.
- •10. Свойства функции распределения.
- •11. Случайные величины дискретного типа.
- •12. Математическое ожидание дискретной случайной величины. Свойства математического ожидания.
- •13. Дисперсия дискретной случайной величины. Свойство дисперсии.
- •14. Производящая функция дискретной случайной величины.
- •15. Формулы для математического ожидания и дисперсии дискретной случайной величины через производящую функцию.
- •16. Схемы испытаний Бернулли.
- •17. Биномиальное распределение.
- •18. Математическое ожидание, дисперсия и производящая функция биномиальной случайной величины.
- •19. Мода биномиального распределения.
- •20. Распределение Пуассона.
- •21. Предельная теорема Пуассона.
- •22. Локальная предельная теорема Муавра-Лапласа.
- •23. Интегральная предельная теорема Муавра-Лапласа.
- •24. Дифференциальная и интегральная функции Гаусса.
- •25. Закон больших чисел в схеме Бернулли.
- •26. Непрерывные случайные величины. Свойство плотности распределении.
- •27. Равномерное распределение.
- •28. Нормальное распределение.
- •29. Показательное распределение.
- •31. Мода непрерывной случайной величины.
- •32. Медиана непрерывной случайной величины.
- •33. Математическое ожидание непрерывной случайной величины. Свойства математического ожидания.
- •39. Двумерные непрерывные случайные величины.
- •40. Числовые характеристики системы двух случайных величин.
- •41. Коэффициент ковариации и его свойства.
- •42. Коэффициент корреляции и его свойства.
- •43. Виды сходимости последовательности случайных величин.
- •44. Неравенство Чебышева.
- •45. Закон больших чисел для сумм независимых случайных величин.
- •46. Центральная предельная теорема теории вероятности.
- •47. Метод наименьших квадратов
- •48. Линейная среднеквадратическая регрессия
- •49. Генеральная совокупность. Случайная выборка. Вариационный ряд.
- •50. Эмпирическая функция распределения. Теорема Гливенко.
- •51. Выборочное среднее значение и выборочная дисперсия. Сходимость к теоретическим значениям.
- •52. Выборочный коэффициент ковариации.
- •53. Выборочный коэффициент корреляции.
- •54. Доверительные интервалы для неизвестного математического ожидания нормального распределения.
- •55. Критерий x2.
- •5 6. Понятие случайного процесса. Определение и примеры
- •57. Марковские процессы. Переходные вероятности
- •58. Теорема Колмогорова-Чепмена для переходных вероятностей
- •59. Дифференциальные уравнения Колмогорова для переходных вероятностей
- •60. Уравнения Колмогорова в стационарных режимах
52. Выборочный коэффициент ковариации.
(X,Y)
– двумерная совокупность, {(x1,y1),
(x2,y2),…,(xn,yn)}
– n-мерная
выборка из двумерной совокуп-ти {X,Y},
(x1,y1)
– 1 наблюдение и т.д. F(x,y)=p{X<x;
Y<y};
EX=mx;
EY=my;
x2=E(x-mx)2;
y2=E(x-my)2;
cov(x,y)=E(x-mx)(y-my);
rXY=cov(X,Y)/(xy).
Выборочным
коэффициентом ковариации
Cn(X,Y)
назыв. величина, кот. определяется по
ф-ле: Cn(X,Y)=(1/n)j=1n(xj-
)(yj-
);
=(1/n)(x1+x2+…+xn);
=(1/n)(y1+y2+…+yn).
З-н больших чисел для Cn(X,Y):
p{|cov(X,Y)-Cn(X,Y)|>}0,
>0,
n.
53. Выборочный коэффициент корреляции.
(X,Y)
– двумерная совокупность, {(x1,y1),
(x2,y2),…,(xn,yn)}
– n-мерная
выборка из двумерной совокуп-ти {X,Y},
(x1,y1)
– 1 наблюдение и т.д. F(x,y)=p{X<x;
Y<y};
EX=mx;
EY=my;
x2=E(x-mx)2;
y2=E(x-my)2;
cov(x,y)=E(x-mx)(y-my);
rXY=cov(X,Y)/(xy).
Выборочным
коэффициентом корреляции
,
назыв. величина, кот. определ. по следующей
ф-ле:
=Cn(X,Y)/SXSY.
SX2=(1/n)j=1n(xj-
)2;
SY2=(1/n)j=1n(yj-
)2.
rXY
(используется
для оценки), где rXY
– теоретич. коэффициент корреляции.
54. Доверительные интервалы для неизвестного математического ожидания нормального распределения.
Метод
доверительных интервалов:
X,
Fx(x)=Fx(x,),
где
- неизвестн., x1,x2,…,xn
– выборка объема n.
Как по выборке оценить пар-р ?
Если сущ. 2 статистики: T1=T1(x1,x2,…,x3),
T2=T2(x1,x2,…,xn),
такие, что T1<T2,
и при любом :
0<=<=1
выполняется условие: p{T1<=<=T2}>=,
то мы говорим, что неизвестный пар-р
[T1,T2]
с коэффициентом доверия .
На практике =0,95.
Если оказыв., что с вер-тью =0,95
[T1,T2],
то говорят, что этому интервалу можно
доверять с вер-тью 0,95. Интервальная
оценка. Пример: Fx(x,)=(1/(2))-+e
dt;
=(m,).
Строим доверит. интервал для m
в обоих случаях: 1. m-неизвестн.,
- известн.; 2. m
– неизвестн.,
- неизвестн. 1)
0<<1;
=0,95,
Ф()=,
где
вычисляется по табл., Ф(x)
– ф-ция распределения стандартн.
нормального з-на, тогда p{
-
(/n)<=m<=
+
(/n)}=.
Доверительный интервал: [
-
(/n)(лев.
граница интервала),
+
(/n)(правая
граница)] => Теорема доверит. интерв.
для неизвестного среднего значения m
нормального з-на при известной дисперсии
.
2)
доверит. интерв. для неизвестного m
в случае неизвестн. дисперсии .
Задаем :
0<<1,
на практике =(<)0,95.
Находим по табл. квантиль нормального
з-на f(x)
(квантилью порядка p
непрерыв. с.в. x
с ф-цией распределения Fx(x),
назыв. число xp,
кот. удовлетворяет ур-ю Fx(xp)=p,
кот. назыв. квантильным ур-ем.): Ф()=,
тогда утверждается, что вер-ть:
p{
-(
/n)<=m<=
+(
/n)}=.
[
-(
/n),
+(
/n)]
– доверит. интервал, где
=((1/(n-1))j=1n(xj-
)2);
E
2=2.
55. Критерий x2.
A1, ..., Am - m возможных исходов некоторого опыта; p1, ..., pm - вероятности cooтветствующих исходов, i=1mpi=1; n - число независимых повторений опыта;
1, ..., m - число появлений соответствующих исходов в n опытах, i=1mvi=n; p10, ..., pm0 - гипотетические значения вероятностей, pi0 0, i=1mpi0=1. Требуется по наблюдениям 1,...,m проверить гипотезу Н о том , что вероятности p1, ..., pm имеют значения p10, ..., pm0, т.е.
Н:
pi=
pi0
, i=1,
...,m. Оценками
для p1,
..., pm
являются
=
1
/n,
...,
=
m/n.
Мерой расхождения между гипотетическими
и эмпирическими вероятностями принимается
величина
,
к
оторая
с точностью до множителя n
есть усредненное с весами pi0
значение квадрата относительного
отклонения значений
от pi0.
Статистика X2
называется статистикой хи-квадрат
Пирсона. Для ее вычисления используются
две формулы (1):
Условно статистику можно записать так:
Н - наблюдаемые частоты i, Т - теоретические (ожидаемые) частоты npi0. Поскольку по закону больших чисел pi при n , то
(1.1)
Последняя величина равна 0, если верна Н; если же Н не верна, то X2 . Процедура проверки гипотезы состоит в том, что если величина X2 приняла “слишком большое” значение, т.е. если X2 h (2), то гипотеза Н отклоняется; если это не так, будем говорить, что наблюдения не противоречат гипотезе.
Пусть X1, X2, Xn- независимые случайные величины, каждый из кот. имеет стандартное нормальное распределение P{xi<x}=Ф(x); X2n= X21+ X22+ X2n. Функция распределения с.в. F X2n(x)=P{xi<x}. Плотность: f Xn2 (x)=F’ Xn2(r), тогда f Xn2 (x)- назыв. Xn2 функцией. Г(x)=0e-ttx-1dt - известная гамма функция.
f Xn2 (x)= (1/(2((n/2)-1)Г(n/2)))e-(x/2)x((n/2)-1), число n называется степенью свободы.
С
хема
применения критерия: 1.Определяется
мера расхождения
X2
по формуле 1.1
2.Определяется
число степеней свободы. как число
разрядов I
минус s-число
наложенных связей. 3.по n
и . X2
определяется
вероятность того, что величина, имеющая
распределение X2
с n
степенями свободы, превзойдет данное
значение X2.Если
эта вероятность весьма мала, гипотеза
отбрасывается как неправдоподобная.
Если вероятность велика, гипотезу можно
признать не противоречащей опытным
данным.
