- •1. Случайные события и действия над ними.
- •2. Алгебра событий.
- •3. Вероятность события. Свойства вероятности.
- •4. Теорема сложения вероятностей.
- •5. Условная вероятность.
- •6. Теорема умножения вероятностей. Независимые события.
- •7. Формула полной вероятности. Теорема Байеса.
- •8. Случайная величина. Определение. Пример.
- •9. Функция распределения случайной величины.
- •10. Свойства функции распределения.
- •11. Случайные величины дискретного типа.
- •12. Математическое ожидание дискретной случайной величины. Свойства математического ожидания.
- •13. Дисперсия дискретной случайной величины. Свойство дисперсии.
- •14. Производящая функция дискретной случайной величины.
- •15. Формулы для математического ожидания и дисперсии дискретной случайной величины через производящую функцию.
- •16. Схемы испытаний Бернулли.
- •17. Биномиальное распределение.
- •18. Математическое ожидание, дисперсия и производящая функция биномиальной случайной величины.
- •19. Мода биномиального распределения.
- •20. Распределение Пуассона.
- •21. Предельная теорема Пуассона.
- •22. Локальная предельная теорема Муавра-Лапласа.
- •23. Интегральная предельная теорема Муавра-Лапласа.
- •24. Дифференциальная и интегральная функции Гаусса.
- •25. Закон больших чисел в схеме Бернулли.
- •26. Непрерывные случайные величины. Свойство плотности распределении.
- •27. Равномерное распределение.
- •28. Нормальное распределение.
- •29. Показательное распределение.
- •31. Мода непрерывной случайной величины.
- •32. Медиана непрерывной случайной величины.
- •33. Математическое ожидание непрерывной случайной величины. Свойства математического ожидания.
- •39. Двумерные непрерывные случайные величины.
- •40. Числовые характеристики системы двух случайных величин.
- •41. Коэффициент ковариации и его свойства.
- •42. Коэффициент корреляции и его свойства.
- •43. Виды сходимости последовательности случайных величин.
- •44. Неравенство Чебышева.
- •45. Закон больших чисел для сумм независимых случайных величин.
- •46. Центральная предельная теорема теории вероятности.
- •47. Метод наименьших квадратов
- •48. Линейная среднеквадратическая регрессия
- •49. Генеральная совокупность. Случайная выборка. Вариационный ряд.
- •50. Эмпирическая функция распределения. Теорема Гливенко.
- •51. Выборочное среднее значение и выборочная дисперсия. Сходимость к теоретическим значениям.
- •52. Выборочный коэффициент ковариации.
- •53. Выборочный коэффициент корреляции.
- •54. Доверительные интервалы для неизвестного математического ожидания нормального распределения.
- •55. Критерий x2.
- •5 6. Понятие случайного процесса. Определение и примеры
- •57. Марковские процессы. Переходные вероятности
- •58. Теорема Колмогорова-Чепмена для переходных вероятностей
- •59. Дифференциальные уравнения Колмогорова для переходных вероятностей
- •60. Уравнения Колмогорова в стационарных режимах
52. Выборочный коэффициент ковариации.
(X,Y) – двумерная совокупность, {(x1,y1), (x2,y2),…,(xn,yn)} – n-мерная выборка из двумерной совокуп-ти {X,Y}, (x1,y1) – 1 наблюдение и т.д. F(x,y)=p{X<x; Y<y}; EX=mx; EY=my; x2=E(x-mx)2; y2=E(x-my)2; cov(x,y)=E(x-mx)(y-my); rXY=cov(X,Y)/(xy). Выборочным коэффициентом ковариации Cn(X,Y) назыв. величина, кот. определяется по ф-ле: Cn(X,Y)=(1/n)j=1n(xj- )(yj- ); =(1/n)(x1+x2+…+xn); =(1/n)(y1+y2+…+yn). З-н больших чисел для Cn(X,Y): p{|cov(X,Y)-Cn(X,Y)|>}0, >0, n.
53. Выборочный коэффициент корреляции.
(X,Y) – двумерная совокупность, {(x1,y1), (x2,y2),…,(xn,yn)} – n-мерная выборка из двумерной совокуп-ти {X,Y}, (x1,y1) – 1 наблюдение и т.д. F(x,y)=p{X<x; Y<y}; EX=mx; EY=my; x2=E(x-mx)2; y2=E(x-my)2; cov(x,y)=E(x-mx)(y-my); rXY=cov(X,Y)/(xy). Выборочным коэффициентом корреляции , назыв. величина, кот. определ. по следующей ф-ле: =Cn(X,Y)/SXSY. SX2=(1/n)j=1n(xj- )2; SY2=(1/n)j=1n(yj- )2. rXY (используется для оценки), где rXY – теоретич. коэффициент корреляции.
54. Доверительные интервалы для неизвестного математического ожидания нормального распределения.
Метод доверительных интервалов: X, Fx(x)=Fx(x,), где - неизвестн., x1,x2,…,xn – выборка объема n. Как по выборке оценить пар-р ? Если сущ. 2 статистики: T1=T1(x1,x2,…,x3), T2=T2(x1,x2,…,xn), такие, что T1<T2, и при любом : 0<=<=1 выполняется условие: p{T1<=<=T2}>=, то мы говорим, что неизвестный пар-р [T1,T2] с коэффициентом доверия . На практике =0,95. Если оказыв., что с вер-тью =0,95 [T1,T2], то говорят, что этому интервалу можно доверять с вер-тью 0,95. Интервальная оценка. Пример: Fx(x,)=(1/(2))-+e dt; =(m,). Строим доверит. интервал для m в обоих случаях: 1. m-неизвестн., - известн.; 2. m – неизвестн., - неизвестн. 1) 0<<1; =0,95, Ф()=, где вычисляется по табл., Ф(x) – ф-ция распределения стандартн. нормального з-на, тогда p{ - (/n)<=m<= + (/n)}=. Доверительный интервал: [ - (/n)(лев. граница интервала), + (/n)(правая граница)] => Теорема доверит. интерв. для неизвестного среднего значения m нормального з-на при известной дисперсии . 2) доверит. интерв. для неизвестного m в случае неизвестн. дисперсии . Задаем : 0<<1, на практике =(<)0,95. Находим по табл. квантиль нормального з-на f(x) (квантилью порядка p непрерыв. с.в. x с ф-цией распределения Fx(x), назыв. число xp, кот. удовлетворяет ур-ю Fx(xp)=p, кот. назыв. квантильным ур-ем.): Ф()=, тогда утверждается, что вер-ть: p{ -( /n)<=m<= +( /n)}=. [ -( /n), +( /n)] – доверит. интервал, где =((1/(n-1))j=1n(xj- )2); E 2=2.
55. Критерий x2.
A1, ..., Am - m возможных исходов некоторого опыта; p1, ..., pm - вероятности cooтветствующих исходов, i=1mpi=1; n - число независимых повторений опыта;
1, ..., m - число появлений соответствующих исходов в n опытах, i=1mvi=n; p10, ..., pm0 - гипотетические значения вероятностей, pi0 0, i=1mpi0=1. Требуется по наблюдениям 1,...,m проверить гипотезу Н о том , что вероятности p1, ..., pm имеют значения p10, ..., pm0, т.е.
Н: pi= pi0 , i=1, ...,m. Оценками для p1, ..., pm являются = 1 /n, ..., = m/n. Мерой расхождения между гипотетическими и эмпирическими вероятностями принимается величина
,
к оторая с точностью до множителя n есть усредненное с весами pi0 значение квадрата относительного отклонения значений от pi0. Статистика X2 называется статистикой хи-квадрат Пирсона. Для ее вычисления используются две формулы (1):
Условно статистику можно записать так:
Н - наблюдаемые частоты i, Т - теоретические (ожидаемые) частоты npi0. Поскольку по закону больших чисел pi при n , то
(1.1)
Последняя величина равна 0, если верна Н; если же Н не верна, то X2 . Процедура проверки гипотезы состоит в том, что если величина X2 приняла “слишком большое” значение, т.е. если X2 h (2), то гипотеза Н отклоняется; если это не так, будем говорить, что наблюдения не противоречат гипотезе.
Пусть X1, X2, Xn- независимые случайные величины, каждый из кот. имеет стандартное нормальное распределение P{xi<x}=Ф(x); X2n= X21+ X22+ X2n. Функция распределения с.в. F X2n(x)=P{xi<x}. Плотность: f Xn2 (x)=F’ Xn2(r), тогда f Xn2 (x)- назыв. Xn2 функцией. Г(x)=0e-ttx-1dt - известная гамма функция.
f Xn2 (x)= (1/(2((n/2)-1)Г(n/2)))e-(x/2)x((n/2)-1), число n называется степенью свободы.
С хема применения критерия: 1.Определяется мера расхождения X2 по формуле 1.1 2.Определяется число степеней свободы. как число разрядов I минус s-число наложенных связей. 3.по n и . X2 определяется вероятность того, что величина, имеющая распределение X2 с n степенями свободы, превзойдет данное значение X2.Если эта вероятность весьма мала, гипотеза отбрасывается как неправдоподобная. Если вероятность велика, гипотезу можно признать не противоречащей опытным данным.