Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ТВиМС шпоры 6 сем 2.docx
Скачиваний:
12
Добавлен:
23.09.2019
Размер:
2 Mб
Скачать

1. Стохастическая зависимость. Регрессионная зависимость. Эмпирическая функция регрессии.

Стохастическая зависимость.

Пусть некоторая переменная описывается двумерным случайным вектором (x,y). Ставится вопрос о зависимости между компонентами этого вектора, т.е. случайными величинами (признаками X и Y). Изучаются форма и сила (теснота) связи между ними.

Различают два вида зависимостей: функциональную и стохастическую (вероятностную). Функциональная зависимость это однозначное отображение множества С.В. Х в множество С.В. Y.

Стохастическая зависимость означает, что изменение одной С.В. влечёт за собой изменение закона распределения другой С.В. Однако точно определить значение второй С.В. по значению первой нельзя.

Пример: Если Х зависит от случайных факторов z1, z2, v1, v2, а Y от z1, z2, u то между Y и X имеется стохастическая зависимость, т.к. среди случайных факторов есть общее z1, z2.

Регрессионная зависимость.

В частности стох-ая зависимость проявляется в том, что при изменении одной из величин изменяется мат. ожид другой. Т.е. условное мат. ожидание: M {Y| X=x} = (x).

Условное мат. ожидание является функцией от х. И наоборот: M {X| Y=y} = (y).

Зависимости такого рода называются регрессионными. Функции (x) и (y) называются функциями регрессии соответственно Y на Х и X на Y. Графики функций (x) и (y) называются линиями регрессии Y на Х и X на Y. Ставятся две основные задачи:

  1. Установить форму связи между С.В. X и Y. Т.е. вид функции регрессии.

  2. Оценить тесноту или силу связи.

Теснота зависимости Y от Х оценивается по величине расстояния значений С.В. Y вокруг условного мат. ожидания (x). Для данного значения Х=х будем наблюдать рассеяние значения Y около центра (x). Мерой этого рассеяния служит условная дисперсия С.В. Y при данном фиксированном Х.

В первом p это вероятность, а во втором плотность.

Величину (Y|X=x)= можем рассматривать как среднюю квадратичную погрешность прогноза С.В. Y по наблюдённому значению х С.В. Х, если использовать для прогнозирования известную функцию регрессии (x).

Величина (Y|X) и следовательно точность прогноза С.В. Y зависит от х. Для представления о точности прогноза Y по всем наблюдённым значениям х мы должны взять средне взвешенное по вероятности из условных дисперсий.

Регрессия (x) является функцией минимизирующей среднюю квадратичную погрешность прогноза Y по Х, т.к. рассеяние измеряемое средним квадратом отклонения значений y около центра рассеяния (x) при каждом х - минимально.

M(Y-b)2=M((Y- (x))+( (x)-b))2 =M(Y- (x))2+2M(Y- (x))( (x)-b) +( (x)-b)2 M(Y- (x))2

Эмпирическая функция регрессии

Для нахождения функции регрессии (x) или (y) надо знать закон распределения С.В. (X,Y). Однако на практике этот закон, как правило, не известен. Поэтому, исходя из экспериментальных данных, строят оценку функции регрессии.

Пусть в результате наблюдения над двумерной С.В. X,Y получена выборка (xi, yi), где i=1..n. Оценкой функции регрессии (x) служит эмпирическая функция регрессии Y на Х. =f(x, a0, a1, a2, …,am)

Вид функции регрессии и её оценки выбирают из анализа расположения точек (xi,yi) на корреляционном поле. Корреляционное поле это изображение наблюдённых данных в виде точек ДПСК. Эмпирическая функция регрессии =f(x,a0,a1,a2,…,am) должна удовлетворять условию S(a0,a1,a2,…,am)=

Т.е. значение параметров a0,a1,a2,…,am должно быть выбрано так, чтобы значение f(x,a0,a1)=a1x+a0 Если среди наблюдённых значений есть одинаковые, то имеем равенства: S(a0,a1,a2,…,am)= , где mi- частота пары значений (xi, yi).

Т.о. для определения параметров a0,…,am применяется метод наименьших квадратов.

Этот метод позволяет при заданном виде эмпирической функции регрессии так найти неизвестные параметры, что функция =f(x, a0, a1, a2, …,am) будет наилучшей оценкой функции регрессии (x) в том смысле, что сумма квадратов отклонений наблюдённых значений С.В. Y от соответствующих ординат эмпирической регрессии будет минимальной. Аналогично определяется эмпирическая функция регрессии X на Y.

=g(y, b0, b1, b2, …,bk)