
- •Случайные события: виды событий, действия над событиями. Свойства действий над событиями. Отношения между событиями.
- •Частота и относительная частота события. Свойства относительной частоты. Вероятность случайного события. Связь между вероятностью и относительной частотой.
- •Аксиоматическое определение вероятности.
- •Классическое определение вероятности.
- •Геометрическая вероятность.
- •Вероятность суммы событий
- •Условная вероятность случайного события. Вероятность произведения событий. Зависимые и независимые события.
- •Формула полной вероятности. Формула Байеса.
- •Независимые повторные испытания. Формула Бернулли.
- •Локальная теорема Муавра-Лапласа. Интегральная теорема Муавра-Лапласа.
- •Дискретная случайная величина: определение, закон распределения, функция распределения. Числовые характеристики дискретной случайной величины.
- •Биноминальное распределение.
- •Распределение Пауссона.
- •Непрерывная случайная величина: определение, функция распределения и ее свойства.
- •Плотность распределения непрерывной случайной величны, свойства плотности распределения.
- •Числовые характеристики непрерывной случайной величины.
- •Равномерное распределение.
- •Нормальное распределение.
- •Двумерная дискретная случайная величина: закон совместного распределения, частные законы распределения компонент. Условные законы распределения компонент. Независимость случайных величин.
- •Свойства математического ожидания случайной величины
- •Свойства дисперсии случайной величины.
- •Числовые характеристики систем случайных величин. Коэффициент корреляции, свойства коэффициента корреляции.
- •Линейная функция регрессии.
- •Неравенство Маркова.
- •Неравенство Чебышева.
- •Теорема Чебышева.
- •Теорема Бернулли.
- •Центральная предельная теорема.
- •Генеральная и выборочная совокупности. Полигон частот ( относительных частот), гистограмма.
- •Выборочная функция распределения.
- •Точечная оценка неизвестных параметров распределения: общая постановка задачи, свойства статистических оценок (несмещенность, состоятельность, эффективность).
- •Выборочная средняя как точечная оценка независимого математического ожидания, свойства.
- •Выборочная дисперсия (определение, свойства), исправленная выборочная дисперсия.
- •Интервальные оценки параметров распределений. Доверительная вероятность и уровень значимости.
- •Проверка статистических гипотез. Общая схема, ошибки первого и второго рода, односторонний и двусторонний критерий, мощность критерия.
- •Сравнение выборочной средней с гипотетической генеральной средней.
Двумерная дискретная случайная величина: закон совместного распределения, частные законы распределения компонент. Условные законы распределения компонент. Независимость случайных величин.
Закон распределения дискретной двумерной случайной величины (Х, Y) имеет вид таблицы с двойным входом, задающей перечень возможных значений каждой компоненты и вероятности p(xi, yj), с которыми величина принимает значение (xi, yj):
При этом сумма вероятностей, стоящих во всех клетках таблицы, равна 1.
Зная закон распределения двумерной случайной величины, можно найти законы распределения ее составляющих. Действительно, событие Х = х1 представляется собой сумму несовместных событий (X = x1, Y = y1), (X = x1, Y = y2),…, (X = x1, Y = ym), поэтому р(Х = х1) = p(x1, y1) + p(x1, y2) +…+ p(x1, ym)
(в правой части находится сумма вероятностей, стоящих в столбце, соответствующем Х = х1). Так же можно найти вероятности остальных возможных значений Х. Для определения вероятностей возможных значений Y нужно сложить вероятности, стоящие в строке таблицы, соответствующей Y = yj.
Условные законы распределения составляющих дискретной двумерной случайной величины. Рассмотрим дискретную двумерную случайную величину и найдем закон распределения составляющей Х при условии, что Y примет определенное значение (например, Y = у1). Для этого воспользуемся формулой Байеса, считая гипотезами события Х = х1, Х = х2,…, Х = хп, а событием А – событие Y = у1. При такой постановке задачи нам требуется найти условные вероятности гипотез при условии, что А произошло. Следовательно,
.
Таким же образом можно найти вероятности возможных значений Х при условии, что Y принимает любое другое свое возможное значение:
Аналогично находят условные законы распределения составляющей Y:
.
Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.
Свойства математического ожидания случайной величины
1 свойство. Математическое ожидание постоянной величины равно самой постоянной: M(C) = C. Доказательство. Будем рассматривать постоянную C как дискретную случайную величину, которая имеет одно возможное значение C и принимает его с вероятностью p = 1. Следовательно, M(C) = C · 1 = C.
2 свойство. Постоянный множитель можно выносить за знак математического ожидания: M(CX) = CM(X).
Доказательство. Пусть случайная величина X задана законом распределения вероятностей:
X x1 x2 . . . xn
p p1 p2 . . . pn
Напишем закон распределения случайной величины CX:
CX Cx1 Cx2 . . . Cxn
p p1 p2 . . . pn
Математическое ожидание случайной величины CX:
M(CX) = Cx1p1 + Cx2p2 + . . . + Cxnpn = C(x1p1 + x2p2 + . . . + xnpn) = CM(X) Итак, М(СХ) = СМ(Х)
3 свойство. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий: M(XY) = M(X)M(Y).
Доказательство. Пусть независимые случайные величины X и Y заданы своими законами распределения.
X x1 x2 ; Y y1 y2
p g1 g2 p p1 p2
Составим все значения, которые может принимать случайная величина XY . Для этого перемножим все возможные значения X на каждое возможное значение Y. Напишем закон распределения:
XY x1y1 x2y1 x1y2 x2y2
p p1g1 p2g1 p1g2 p2g2
Математическое ожидание равно сумме произведений всех возможных значений на их вероятности:
M(XY ) = x1y1 · p1g1 + x2y1 · p2g1 + x1y2 · p1g2 + x2y2 · p2g2.
или
M(XY ) = y1g1(x1p1 + x2p2) + y2g2(x1p1 + x2p2) = (x1p1 + x2p2)(y1g1 + y2g2) = M(X)M(Y).
4 свойство. Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых: M[X + Y ] = M[X] + M[Y ]
Доказательство. Пусть случайные величины X и Y заданы следующими законами распределения
X x1 x2 Y y1 y2
p g1 g2 p p1 p2
Составим все возможные значения величины X + Y . Для этого к каждому возможному значению X прибавим каждое возможное значение Y; получим x1 + y1, x1 + y2, x2 + y1, x2 + y2, и обозначим их вероятности соответственно через p11, p12, p21, p22. Математическое ожидание величины X + Y равно
M(X + Y) = (x1 + y1)p11 + (x1 + y2)p12+(x2 + y1)p21 + (x2 + y2)p22.
Докажем, что p11 + p12 = p1. Событие, состоящее в том, что X примет значение x1, (вероятность этого события равна p1) влечет за собой событие, которое состоит в том, что X + Y примет значение x1 + y1 или
x1 + y2. Отсюда и следует, p11 + p12 = p1
Подставляя правые части этих равенств в соотношение для M(X + Y), получим
M(X + Y) = (x1p1 + x2p2) + (y1g1 + y2g2) = M(X) + M(Y).