
- •3 Семестр
- •Экспоненциальное распределение играет важную роль в задачах телекоммуникации, так как позволяет моделировать интервалы времени между наступлением событий.
- •2 Типа взаимосвязей между х и у:
- •Слабый закон больших чисел
- •Усиленный закон больших чисел
- •Неравенство Чебышева
- •Теорема Чебышева
- •Теорема Бернулли
- •Теорема Ляпунова
- •Доказательство
2 Типа взаимосвязей между х и у:
1) может быть неизвестно, какая из двух переменных является независимой, а какая - зависимой, переменные равноправны, это взаимосвязь корреляционного типа;
2) если х и у неравноправны и одна из них рассматривается как объясняющая (независимая) переменная, а другая - как зависимая, то это взаимосвязь регрессионного типа.
Виды регрессий:
1) гиперболическая - регрессия равносторонней гиперболы: у = а + b / х + Е;
2) линейная - регрессия, применяемая в статистике в виде четкой экономической интерпретации ее параметров: у = а+b*х+Е;
3) логарифмически линейная - регрессия вида: In у = In а + b * In x + In E
4) множественная - регрессия между переменными у и х1 , х2 ...xm, т. е. модель вида: у = f(х1 , х2 ...xm)+E, где у - зависимая переменная (результативный признак), х1 , х2 ...xm - независимые, объясняющие переменные (признаки-факторы), Е- возмущение или стохастическая переменная, включающая влияние неучтенных факторов в модели;
5) нелинейная - регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам; или регрессия, нелинейная по оцениваемым параметрам.
6) обратная - регрессия, приводимая к линейному виду, реализованная в стандартных пакетах прикладных программ вида: у = 1/a + b*х+Е;
7) парная - регрессия между двумя переменными у и x, т. е, модель вида: у = f (x) + Е, где у -зависимая переменная (результативный признак), x – независимая, объясняющая переменная (признак - фактор), Е - возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели.
Коэффициент корреляции.
Корреляция - величина, отражающая наличие связи между явлениями, процессами и характеризующими их показателями.
Корреляционная зависимость - определение зависимости средней величины одного признака от изменения значения другого признака.
Коэффициент корреляции величин х и у (rxy) свидетельствует о наличии или отсутствии линейной связи между переменными:
где
(-1; 1). Если:
= -1, то наблюдается строгая отрицательная
связь;
= 1, то наблюдается строгая положительная
связь;
= 0, то линейная связь
отсутствует.
- ковариация, т. е. среднее
произведение отклонений признаков от
их средних квадратических отклонений.
Коэффициент корреляции может служить мерой зависимости случайных величин.
Корреляция для нелинейной регрессии:
при R
[0;1].
Чем ближе R к 1, тем теснее связь рассматриваемых признаков.
Двумерная нормальная случайная величина.
Двумерной случайной
величиной называют
систему из двух случайных величин
,
для которой определена вероятность
совместного выполнения неравенств
и
,
где x и y - любые действительные числа.
Функция двух переменных
|
(34) |
определенная для любых
x и y, называется функцией распределения
системы двух случайных величин
Будем рассматривать
и
как декартовы координаты точки на
плоскости. Точка
может занимать то или иное положение
на плоскости
.
Тогда функция распределения даст
вероятность того, что случайная точка
попадает в область
,
изображенную на рис. 13.
Двумерная случайная
величина
называется дискретной, если
и
- дискретные величины.
Пусть возможные
значения
и
образуют, например, конечные
последовательности x1, x2, ..., xn и y1, y2, ...,
ys. Возможные значения двумерной случайной
величины
имеют вид (xi, yj), где i=1, 2, ..., n; j=1, 2, ..., s.
Обозначим через pij вероятность того,
что
Функция распределения F(х, у) имеет вид
где двойная сумма
распространена на те i и j, для которых
xi<x и yj<y.
Двумерную случайную
величину
так же, как и одномерную, можно задавать
таблицей. Первая строка таблицы содержит
возможные значения случайной величины
,
а первый столбец — возможные значения
.
В остальных клетках таблицы указаны
соответствующие вероятности, причем
их сумма всегда равна единице.
Законы больших чисел.
Зако́н больши́х чи́сел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) достаточно большой конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти всюду.
Всегда найдётся такое конечное число испытаний, при котором с любой заданной наперёд вероятностью меньше 1 относительная частота появления некоторого события будет сколь угодно мало отличаться от его вероятности.
Общий смысл закона больших чисел — совместное действие большого числа одинаковых и независимых случайных факторов приводит к результату, в пределе не зависящему от случая.
На этом свойстве основаны методы оценки вероятности на основе анализа конечной выборки. Наглядным примером является прогноз результатов выборов на основе опроса выборки избирателей.