- •1. Определение вероятности. 1
- •2. Условная вероятность. Независимое событие. Формула умножения вероятности.
- •4.Последовательность независимых испытаний. Схема Бернулли. Формула Пуассона.
- •Формула Пуассона
- •5.Наивероятнейшее число наступления события.
- •6. Локальн теорема и интегральная теорема Муавр- 3
- •7. Св. Функции распределения и их свойства.
- •8.Числовые хар-ки случайной величины. 4
- •9.Биномиальный закон распределения.
- •10.Распределение Пуассона. Равномерное распределение.
- •11. Показательное или экспоненциальное распределение.
- •12. Нормальный закон распределения. Числовые 6 характеристики.
- •14.Многомерные случайные величины(св)
- •15.Неравенство Маркова. Неравенство Чебышева.
- •16. Т.Чебышева. Т.Бернули. 8
- •17. Теорема Ляпунова:
- •Элементы математической статистики Генеральная выборочная совокупность
- •Повторная и бесповторная выборка
- •Репрезентативная выборка
- •Статистическое распределение выборки
- •Методы построения точечных оценок
- •Билет №1 10
- •Билет №2
- •Билет №3
- •Билет №4
- •Билет № 5
- •Билет 6.
- •Билет 7
- •Билет 8
- •Билет 9.
- •Билет 10.
- •Билет 11.
- •Билет 12.
- •Билет № 13
- •Билет 14.
- •Билет 15. 16
- •Билет 16.
- •Билет 17.
- •Билет 18.
- •Билет 19.
- •Билет 20. 18
- •Билет 27.
- •Билет 28.
- •1.Теория вероятности
- •3 Т. «Сложения вероятности несовместных событий 20
- •5Формула полной вероятности
- •6.Вероятность наступления хотя бы 1-го события
- •10Вероятность отклонения относительной частоты от постоянной вероятности
- •11Случайная величина
- •12Интегральная ф-ия распределения
- •13Дифференциальная ф-ия распределения вероятностей св (её плотность)
- •14Числовые хар-ки св
- •15Дисперсия св (дискретной)
- •16Среднеквадратическое отклонение св х –
- •17Моменты св х:
- •18Важнейшие з-ны распределения вероятностей cв:
- •21Т.Чебышева
- •22Т. Ляпунова
- •26Вероятность попадания случайной точки в полосу
- •29Числовые хар-ки 2-мерной св (с-мы св):
- •31Нормальное распределение с-мы 2-х св
15.Неравенство Маркова. Неравенство Чебышева.
Пусть
СВ X принимает только
неотрицательные значения и у неё есть
матем. Ожидание M(x),
то какова бы ни была положительная
величина ξ той же размерности, что и X,
всегда выполняется
;
Док-во: проведем док-во только для непрерывных СВ. P(X)=0,X<0; P(X)>=0,X>=0;
;
;
;
;
.
Неравенство Чебышева.
Какаво
бы не было положительное число
для любой СВ X, дисперсия
которой конечна справедливо неравенство
;
.
16. Т.Чебышева. Т.Бернули. 8
Последовательность
чисел
наз.
равномерно ограниченной, если сущ.
такая константа M ,
.
Если
-
последовательность попарно независимых
СВ, у каждой из которых есть мат. ожидание
и
(дисперсии
равномерно ограничены), то
предел
(6)
-предел по вероятности.
Док-во.
По условию последовательность дисперсии
равномерно ограниченна, т.е.
,
.
Рассмотрим
вспомогательные СВ
.
У нее есть мат. ожидание
удовл. требованиям
неравенства Чебышева. Применяя
неравенство (6)
(8)
(9)
Следствие
из теоремы : если
-
последов независим. СВ имеющих одно и
то же мат. ожидание
и
,
то неравенство .(9). Примет вид
(10)
Следствие
из теоремы важно на практике, если нужно
измерить некоторую величину, истинное
значение которой
,
проводят
измерений этой величины. Если при
измерениях отсутствуют системные
ошибки, то
можно считать что дисперсии
ограничены, тогда среднее арифм. значение
рез-ов измерений с ростом n
прибл. к истинному значепию измеряемой
величины m . Можно положить,
что
.
Т.Бернули
(1)
-
относительная частота или частность
(сходится к вер-ти)
Док-во: Пусть - число появления события A в первом испытании.
|
0 |
1 |
|
|
q |
p |
|
,
Мы находимся в условиях т.Чебышева
;
т.Бернули явл. статистическим определением вероятности.
17. Теорема Ляпунова:
Можно
доказать что, если
- нормально распределенные случайные
величины, то их сумма
также
норм. распред. СВ с мат. ожиданием
,
Обобщением явл. т. Ляпунова :
Пусть - независимые СВ, у каждой из которых мат. ожидание
и
,
абсолютный центральный момент третьего
порядка
и
выполняется
,
.(3). то для суммы
выполняется следующее
.(4).
Следствие:
если все
и
одинаковые, то
распределена
асимптотически по нормальному закону.
Физ.
смысл условий, при кот. сумма
будет распространяться практически
по норм закону, сост. в том, что удельный
вес каждого слаг.
должен
0 при 9 увеличении числа слагаемых.
Ошибки, допускаемые при проверке стат.гипотез.
Уровень значимости стат. критерия.
Ошибкой первого рода наз. Ошибка отклонения верной нулевой гипотезы H0
-------- второго рода наз. Принятие ложной гипотезы H0
Уровнем значимости стат. критерия наз. вероятность совершенной ошибки первого рода.
Мощностью критерия наз вероятность несовершенной ошибки второго рода.
Проверка гипотезы о нормальном распределении СВ.
Эта гипотеза есть непар. гипотеза.
Основное предположение в том, что вид закона распределения – нормальный.
Критерий
согласия
Пирсона.
Пусть имеется по результатам выборки вариационный ряд.
|
X1-x2 |
X2-x3 |
X3-x4 |
… |
Xn-1-xn |
mi |
M1 |
M2 |
M3 |
… |
Mn-1 |
wi |
M1/n |
M2/n |
M3/n |
|
Mn-1/n |
Если гипотеза о нормальном распределении верна, то эмперические частоты должны совпадать с теоритическими частотами.
nP1-теор.частота
…
и т.д.
-эта
величина распространяется по закону
-
табличная величина.
Если
,
гипотеза согласуется с данными опыта.
число
степеней свободы.
Достоинства - применим как для непрерывных, так и для дискретных СВ
Недостаток – громоздок
Эмпирическая функция распределения.
Из закона больших чисел следует, что если количество наблюдений велико, то F”(x) стремится по вероятности к теоретической функции распределения F”(x).
1)F”(x)-неубывающая функция.
2)
3)Если все значения находятся в промежутке [xk-1;xk] то F”(x)=1;F”(xk-1)=0;
Если по х откл.значения вариант, а по оси y накопленные частности и получаются соедин. Прямыми, то ломанные комулятой.
Комулята – статистический аналог интегральной функции распределения в теории вероятности.
- аналог M(X);
-выборочная
дисперсия.
-среднее
квадратичное отклонение.
Размах
выборки
Модой
называется то значение варианты, при
котором достигается наибольшая частота.
Если несколько таких значений – то распределение – полимодальное.
-
медиана. Делит вариационный ряд пополам.
Начальный и центральный выборочные моменты.
Суть метода Кормагорова: сравн. теор. и данотир. ф-цию распределения:
1)
выдвиг Ha:
;
2) извлекается выборка объема n;
3)
Находят
.
Величина
при увеличении объема выборки обладает
след. св-вом: вер-ть того, что
.
;
4) по величине , сравнивая с табличными значениями в зависимости от уровня значимости
0,10 0,05 0,01
10
1,224 1,358 1,627
Если
окаж.
,
то отсюда следует несоответствие
опытным данным.
Элементы теории корреляции.
Каждому значению х соответствует 1 или несколько вполне определенных y. Две СВ X, Y могут быть связаны, либо зависимостью другого рода, наз. Статистической, либо не связаны (независимы).
Пример: Пусть Х – кол-во внесенных удобрений, Y – урожайность с одинаковой по площади участков при одинак. внесенных удобрениях получ. различн. урожай. Средняя урожайность есть ф-ция от кол-ва удобрений.
Пусть имеется 3 участка (внесли 2 тонны). На одном получили 5 единиц, на другом 6 единиц, на 3-ем – 10 единиц.
.
– условное среднее
– среднее арифметическое значение Y,
соотв. значению х=2. Если каждому значению
X соотв. 1 нач. условной
средней
,
то
– ф-ция от значений X. В
этом случае говорят, что СВ Y
зависит от СВ X корреляционно.
Корреляционной зависимостью Y от X наз ф-цию зависимости условной средней от x.
(1) это уравнение
наз. Уравнением регрессии Y
на X, а график этой ф-ции
наз. ниейрегрессии
.
