- •1. Случайные события и действия над ними.
- •2. Алгебра событий.
- •3. Вероятность события. Свойства вероятности.
- •4. Теорема сложения вероятностей.
- •5. Условная вероятность.
- •6. Теорема умножения вероятностей. Независимые события.
- •7. Формула полной вероятности. Теорема Байеса.
- •8. Случайная величина. Определение. Пример.
- •9. Функция распределения случайной величины.
- •10. Свойства функции распределения.
- •11. Случайные величины дискретного типа.
- •12. Математическое ожидание дискретной случайной величины. Свойства математического ожидания.
- •13. Дисперсия дискретной случайной величины. Свойство дисперсии.
- •14. Производящая функция дискретной случайной величины.
- •15. Формулы для математического ожидания и дисперсии дискретной случайной величины через производящую функцию.
- •16. Схемы испытаний Бернулли.
- •17. Биномиальное распределение.
- •18. Математическое ожидание, дисперсия и производящая функция биномиальной случайной величины.
- •19. Мода биномиального распределения.
- •20. Распределение Пуассона.
- •21. Предельная теорема Пуассона.
- •22. Локальная предельная теорема Муавра-Лапласа.
- •23. Интегральная предельная теорема Муавра-Лапласа.
- •24. Дифференциальная и интегральная функции Гаусса.
- •25. Закон больших чисел в схеме Бернулли.
- •26. Непрерывные случайные величины. Свойство плотности распределении.
- •27. Равномерное распределение.
- •28. Нормальное распределение.
- •29. Показательное распределение.
- •31. Мода непрерывной случайной величины.
- •32. Медиана непрерывной случайной величины.
- •33. Математическое ожидание непрерывной случайной величины. Свойства математического ожидания.
- •39. Двумерные непрерывные случайные величины.
- •40. Числовые характеристики системы двух случайных величин.
- •41. Коэффициент ковариации и его свойства.
- •42. Коэффициент корреляции и его свойства.
- •43. Виды сходимости последовательности случайных величин.
- •44. Неравенство Чебышева.
- •45. Закон больших чисел для сумм независимых случайных величин.
- •46. Центральная предельная теорема теории вероятности.
- •47. Метод наименьших квадратов
- •48. Линейная среднеквадратическая регрессия
- •49. Генеральная совокупность. Случайная выборка. Вариационный ряд.
- •50. Эмпирическая функция распределения. Теорема Гливенко.
- •51. Выборочное среднее значение и выборочная дисперсия. Сходимость к теоретическим значениям.
- •52. Выборочный коэффициент ковариации.
- •53. Выборочный коэффициент корреляции.
- •54. Доверительные интервалы для неизвестного математического ожидания нормального распределения.
- •55. Критерий x2.
- •5 6. Понятие случайного процесса. Определение и примеры
- •57. Марковские процессы. Переходные вероятности
- •58. Теорема Колмогорова-Чепмена для переходных вероятностей
- •59. Дифференциальные уравнения Колмогорова для переходных вероятностей
- •60. Уравнения Колмогорова в стационарных режимах
48. Линейная среднеквадратическая регрессия
Регрессией Y на X и X на Y назыв. условное мат.ожидание E(Y|X=x) и E(X|Y=y) соответственно. Ф-ция (x)=E(X|X=x), ψ(y)=E(Y|Y=y) назыв. ф-циями регрессии Y на X и X на Y соответственно. Графики этих ф-ций назыв. кривыми регрессии. Ф-ции регрессии при случайных значениях аргументов есть с.в. (X), ψ(Y). Справедливы рав-ва: E(X)=EY; Eψ(Y)=EX. Часто возникает задача нахождения ф-ции f(x), такой чтобы с.в. f(X) являлась наилучшим приближением для с.в. Y. Под наилучшим приближением, как правило, понимают наилучшее в среднеквадратичном приближении, т.е. такое, при кот. величина E(Y-f(X))2 достигает min-возможного значения. Такая задача возникает, например, в случае, когда X – сигнал на выходе некоторого технического устройства, а Y – сигнал на выходе. Требуется наилучшим образом восстановить зависимость Y=f(X). Можно док-ть, что решением задачи является ф-ция f(x)=E(Y|X=x), т.е. есть регрессия Y на X. Однако часто интерес представляет наилучшее приближение Y линейной ф-цией X. В этом случае min величины E(Y-f(x))2 ищется в классе не всех, а только линейных ф-ций, т.е. ф-ций вида f(x)=kx+b: mink,bRE(Y-kX-b)2. Обозначим EX=ax, EY=ay, DX=x2, DY=y2, rXY=r(X,Y). Минимизируя ф-цию E(Y-kX-b)2=y2+k2x2+(ay+kax-b)2-krXYxy по переменным k и b с использованием методов дифференциального исчисления можно показать, что min в mink,bRE(Y-kX-b)2 достигается при: k=rXY(y/x), b=ay-axrXY(y/x). Получаемая при этом линейная ф-ция: f(X)=kX+b=ay+rXY(y/x)(X-ax), называется линейной средней квадратической регрессией Y на X, а прямая с уравнением: y=ay+rXY(y/x)(x-ax) – прямой средней квадратической регрессии Y на X.
49. Генеральная совокупность. Случайная выборка. Вариационный ряд.
X – с.в., Fx(x) – ф-ция распределения, fx(x) – плотность распределения. Если мы знаем или Fx(x) или fx(x), то мы можем вычислить все хар-ки X, но как определить з-н Fx(x)=?. В статистике есть прием: наблюдают с.в., делают измерения x1,x2,…,xn, кот. связаны с X (=> они хар-ют эту величину). Наука о принятии решений на основе наблюдений x1,x2,…,xn относительно з-на распределения Fx(x) или же др. хар-к с.в. X, назыв. мат.статистикой. Статистика – сбор данных, их анализ и обработка и после принятие решений. x1,x2,…,xn – инф. о с.в. X. Мат.статистика по наблюдениям говорит о хар-ках с.в. (обратная задача). Генеральная (общая) совокупность: под. г.с. будем понимать мн-во всех возможных значений с.в. X. Отдельные наблюдения над с.в. X, обозначаемые x1,x2,…,xn назыв. выбороч. значениями или просто выборкой объема n из г.с. {x}. Число n наблюдений назыв. объемом выборки. Имеем: x1,x2,…,xn с одинак. ф-цией распределения Fx(x). Расположим исходные величины x1,…,xn в порядке возрастания: xn1<=xn2<=…<=xnn (*). Члены ряда (*) назыв. порядковыми статистиками, а сам ряд назыв. вариационным рядом. xn1=min{x1,x2,…,xn}, xnn=max{x1,x2,…,xn}. xn1<=xni<=xnn, i=2,3,…,n-1. Wn=xnn-xn1 – размах выборки – разность между max и min значениями. Пусть x1,x2,…,xn выборка объема n из г.с., статистикой Т мы будем называть некоторую ф-цию от этих наблюдений: Т=Т(x1,x2,…,xn). В теории мат.стат. все решения представляют собой некотор. статистику, т.е. некотор. ф-цию от выборки, предлагаемую для решения с помощью того или иного критерия выбора. Статистику Т иногда еще назыв. оценкой неизвестных параметров.