
- •Содержание
- •Введение
- •Глава 1 Основные понятия.
- •1.1Вводные понятия.
- •1.2Непосредственный подсчёт вероятностей
- •1.3Частота или статическая вероятность.
- •Глава 2Аксиоматика теории вероятности. Правила умножения и сложения и их свойства.
- •2.1Элементарные сведения из теории множеств.
- •2.2Аксиомы теории вероятностей и их следствия. Правило сложения вероятностей.
- •2.3Комбинаторика. Классические модели. Примеры.
- •2.4Геометрическая модель.
- •2.5Условная вероятность события. Правило умножения вероятностей.
- •2.6Формула полной вероятности.
- •2.7Теорема гипотез (Формула Бейеса).
- •Глава 3Случайные величины, их законы распределения.
- •3.1Понятие случайной величины. Законы распределения. Ряд распределения дискретной случайной величины.
- •3.2Функция распределения случайной величины. Её свойства.
- •3.3Функция распределения дискретной с. В. Индикатор события.
- •3.4Непрерывная случайная величина. Плотность распределения.
- •Глава 4Числовые характеристики случайных величин.
- •4.1Роль и назначение числовых характеристик. Математическое ожидание случайной величины.
- •4.2 Моменты. Дисперсия. Среднее квадратичное отклонение.
- •Глава 5Некоторые важные для практики распределения дискретных с. В.
- •5.1Аппарат производящей функции.
- •5.2Испытания Бернулли.
- •5.3Биноминальное распределение.
- •5.4Распределение Пуассона.
- •5.5Геометрическое распределение.
- •5.6Гипергеометрическое распределение.
- •Глава 6Некоторые важные для практики распределения непрерывных случайных величин.
- •6.1Равномерное распределение.
- •6.2Показательное распределение.
- •6.3Нормальное распределение.
- •6.4Гамма - распределение и распределение Эрлана.
- •Глава 7Системы случайных величин (случайные векторы).
- •7.1Понятие о системе случайных величин.
- •7.2Функция распределения системы двух случ. Величин.
- •7.3Система двух дискретных случ. Величин. Матрица распределения.
- •7.4Система двух непрерывных случ. Величин. Совместная плотность распределения.
- •7.5Зависимые и независимые случ. Величины. Условные законы распределения.
- •7.6Числовые характеристики системы двух с.В. Ковариация и коэффициент корреляции.
- •7.7Условные числовые характеристики системы случайных величин (х,у). Регрессия.
- •7.8Закон распределения и числовые характеристики n-мерного случайного вектора.
- •Лекции « Теория вероятности и математическая статистика »
- •Раздел 2
- •«Математическая статистика.» Глава 8Основы математической теории выборочного метода.
- •8.1Понятие о выборочном методе. Способы образования выборочной совокупности.
- •8.2Характеристики генеральной и выборочной совокупности.
- •8.3Эмпирическая функция распределения.
- •Глава 9Статистическое оценивание параметров распределения.
- •9.1Понятие об оценке параметров.
- •9.2Основные свойства оценок.
- •1) Несмещенность
- •2) Эффективность
- •3) Состоятельность
- •9.3Оценка математического ожидания и дисперсии по выборке.
- •9.4Метод наибольшего правдоподобия.
- •9.5Распределение средней арифметической для выборок из нормальной совокупности. Распределение Стьюдента.
- •9.6Распределение дисперсии в выборках из нормальной генеральной совокупности. Распределение Пирсона.
- •9.7Понятие доверительного интервала. Доверительная вероятность.
- •9.8 Построение доверительного интервала для математического ожидания при известной .
- •9.9Построение доверительного интервала для математического ожидания при неизвестной .
- •9.10Построение доверительного интервала для дисперсии.
- •Глава 10Проверка статистических гипотез.
- •10.1Понятие статистической гипотезы. Общая постановка задачи проверки гипотез.
- •10.2Проверка гипотезы о равенстве центров распределений двух нормальных генеральных совокупностей при известном .
- •10.3Проверка гипотезы о равенстве центров распределения нормальных генеральных совокупностей при неизвестном .
- •10.5Проверка гипотез о законе распределения. Критерий согласия .
- •10.6Вычисление объёма выборки.
- •Глава 11Основы дисперсионного анализа.
- •11.1Основная идея дисперсионного анализа.
- •11.2Однофакторный комплекс.
- •11.3Двухфакторный комплекс.
- •11.4Дисперсионный анализ с равным числом наблюдения в ячейке.
- •11.5Дисперсионный анализ с неравным числом наблюдений в ячейке.
- •Глава 12Основы корреляционного анализа.
- •12.1О связях функциональных, стохастических, статистических и корреляционных.
- •12.2Определение формы связи. Понятие регрессии.
- •12.3 Поле корреляции.
- •12.4Линейная регрессия. Понятие о способе наименьших квадратов.
- •12.5Кривые регрессии. Нелинейная регрессия.
- •12.6Измерение тесноты связи. Эмпирическое корреляционное отношение.
Глава 5Некоторые важные для практики распределения дискретных с. В.
5.1Аппарат производящей функции.
В ряде случаев при определении важнейших числовых характеристик дискретных с.в. может помочь аппарат производящих функций.
Постановка задачи:
Пусть имеется дискретная с.в. X,
Производящей функцией для с.в. X, принимающей неотрицательные целочисленные значения 0, 1, 2, … , k, … с вероятностями p0, p1, p2, … , , pk, …; pk,= P{X=k}, называется
где z – произвольный параметр (0<z≤1).
При z=1:
Возьмём первую производную по z от производящей функции:
При z=1
,
а это и есть м.о. с.в. X.
Т.е. мы пришли к выводу: м.о. неотрицательной целочисленной с.величины равно первой производной её производящей функции при z=1.
Возьмём вторую производную по z от производящей функции:
При z=1
,
здесь первая из двух сумм, не что иное,
как начальный момент второго порядка
с.в. X, а вторая
сумма – м.о..
Следует
Т.е. мы пришли к выводу: начальный момент второго порядка неотрицательной целочисленной с.величины равен сумме второй и первой производной её производящей функции при z=1.
Аналогично далее третья и четвёртая производная.
5.2Испытания Бернулли.
Опр. Повторные независимые испытания называются испытаниями Бернулли, если каждое испытание имеет только два возможных исхода и вероятности исходов оказываются неизменными для всех испытаний.
Обозначим эти вероятности через p и q, и пусть p – «успех» - У
q – «неудача» –Н
Очевидно: p+q =1
Пространство элементарных событий отдельного испытания состоит из двух точек, а n испытаний - из 2n точек.
Вероятность любой последовательности есть произведение, полученное при замене символов У и Н на p и q соответственно, т. е.
Р{УУНУН … ННУ} = ppqpq … qqp
5.3Биноминальное распределение.
Опр. Дискретная случайная величина Х имеет биноминальное распределение, если её возможные значения: 0,1,…, m, …,n,а соответствующие вероятности: Pm=P{X=m} = Cnm pmqn-m
где
а 0<p<1; q=1-p; m = 0,1, …,n
Теорема: если с. в. Х есть количество успехов в n испытаниях Бернулли, то оно имеет биноминальное распределение:
Док-во:
Пусть произведено n испытаний Бернулли.
Необходимо найти вероятность Pm (события -m успехов)
B1={УУ…У Н…Н }
m (n-m) раз
Точно такую же вероятность имеют и все варианты с m успехами и n-m неудачами.
Число таких вариантов
т.е.
P0 = qn Pn= P{++…+ } =pn
Если задача ставится как: « не менее m успехов в n опытах », то
Rm=P{xm}=P{x=m}+P{x=m+1}+…+P{x=n}
или
Числовые характеристики биноминального распределения:
Производящая функция:
Мат. ожидание:
Принимая здесь z=1
т.е. Mx
= np
Второй начальный момент:
Дисперсия:
Среднее квадратичное отклонение:
5.4Распределение Пуассона.
Опр. С.в. Х имеет распределение Пуассона, если возможные значения: 0,1,2,…,m,…, (бесконечное, но счётное множество значений), а соответствующие вероятности выражаются формулой:
(m = 0,1,2,…)
Распределение Пуассона играет большую роль в практическом применении теории вероятности: многие физические явления приводят к именно такому распределению.
Теорема параметра а:
Параметр а в законе Пуассона является одновременно мат. ожиданием и дисперсией с. в. Х, распределённой по закону Пуассона.
Док-во:
Ряд Тейлора:
Мат. ожидания:
Mx=
a
;
Второй начальный момент:
Дисперсия:
Среднее квадратичное отклонение:
Теорема: Закон Пуассона является
предельным для биноминального
распределения при стремлении числа
опытов n к бесконечности
и стремлении параметра p
к нулю, но так, что
Док-во:
Мат. ожидание Mx
= np
= a
е-а
Преобразуем выражение, стоящее под знаком предела: //
где
,
,
а
при n
скобка
е-а
Замечание:
Распределение Пуассона с параметром a=np можно приближенно применять вместо биноминального, когда число опытов n очень велико, а число p очень мало.
Пример: включение – выключение выключателя.
Рассмотрим задачу:
Пусть на оси времени ot случайным образом возникают точки – моменты появления каких – то однородных событий (например, вызов на телефонной станции, приход посетителей в магазин и т. д.)
Опр. Последовательность таких моментов обычно называют потоком событий.
1. Опр. Стационарность – это свойство означает, что вероятность попадания того или иного числа событий на участок времени длины не зависит от того, где на оси ot находится этот участок, а зависит только от его длины .
Опр. Интенсивность потока - это среднее число событий, появляющихся в единицу времени (для стационарного потока =const)
2. Опр. Ординарность – это свойство выражается в том, что вероятность попадания на малый участок t двух или более событий пренебрежительно мала по сравнению с вероятностью попадания на него одного события.
,
где nсоб. Число
попаданий на отрезке t
3. Опр. Отсутствие последствий - это свойство означает, что вероятность попадания того или иного числа событий на заданный участок оси ot не зависит от того, сколько событий попало на любой другой, не пересекающийся с ним участок (в частности « будущее » потока не зависит от его прошлого).
Опр. Простейшим (или стационарным, пуассоновским) потоком называется поток событий, обладающий свойствами: стационарностью, ординарностью и отсутствием последствий.
Возьмём на оси ot участок времени . Разделим мысленно участок на n равных частей длины t = / n.
Mxt = t
При очень больших n, учитывая ординарность потока, вероятностью попадания двух событий на участок t можно пренебречь.
При U =1, t
– занят; при U = 0, t
– пуст.
M [ U ] = p t
c другой стороны: M [ U ] = t
-
вероятность того, что t
занято.
Из свойства «без последствий» независимость всех участков.
количество занятых ячеек
Замечание:
Для простого потока событий через интервал времени , вероятность, что за это время произойдёт m событий: .
Если закон не удовлетворяет условию стационарности, то в законе Пуассона:
Замечание:
Ось ot необязательно должна быть осью с координатами времени, координаты могут иметь любой физический смысл (например, пространства)
Опр. Интенсивность потока – это среднее число событий на единицу измерения пространства.
Тогда: =f (координаты пространства)
а: а=
Пример:
На автоматическую телефонную станцию поступает простейший поток вызовов с интенсивностью =0.8 вызов \ минута.
Найти вероятность того, что за две минуты:
а) не придёт ни одного вызова
б) придёт ровно один вызов
в) придёт хотя бы один вызов
Решение:
Х – число вызовов за 2 минуты
а= = 2*0,8=1,6
а) P0 = а0 / 0! * е-1,6 = е-1,6 = 0,202
б) Р1 = а1 / 1! * е-1,6 = 1,6*е-1,6 =0,323
в) Р{X 1 } = 1- P0 =1- 0.202 = 0.798