- •1. Стохастическая зависимость. Регрессионная зависимость. Эмпирическая функция регрессии.
- •2. Линейная регрессия.
- •3. Статистический коэффициент корреляции
- •5. Статистический коэффициент корреляции. Условие отсутствия линейной корреляционной связи между св.
- •6. Критерий существования линейной функциональной связи между св
- •7. Критерий совпадения линий регрессии y на X и X на y.
- •8. Статистический коэффициент корреляции как мера тесноты линейной корреляционной связи между случайными величинами.
- •9. Статистическое корреляционное отношение. Оценка статистического корреляционного отношения.
- •10.Условие отсутствия корреляционной связи между св. Функциональная зависимость св.
- •11.Корреляционное отношение как мера тесноты корреляционной связи между св.
- •12.Определение случайного процесса (сп). Законы распределения случайных процессов.
- •13.Основные характеристики случайных процессов
- •14.Классификация случайных процессов.
- •15. Непрерывность случайных процессов.
- •16.Дифференцируемость случайного процесса в среднем квадратичном
- •17.Интегрируемость случайного процесса в среднем квадратичном
- •18.Винеровский процесс как математическая модель процесса броуновского движения.
- •19.Винеровский процесс как математическая модель процесса броуновского движения.
- •21. Пуассоновский процесс, его одномерный закон распределения.
- •22.Свойства однородности и отсутствия последствий Пуассоновского процесса(пп).
- •24.Марковский процесс и его свойства.
- •25.Уравнение Колмогорова- Чемпена.
- •26.27. Коэф-т эргодичности. Эргодическая теорема для однородного Марковского процесса.
- •28.Однородный марковский процесс. Распределение времени ожидания выхода системы из исходного состояния.
- •29. Прямая и обратная системы ду Колмогорова.
- •30. Ветвящиеся процессы. Производящие функции.
- •31.Ветвящиеся процессы. Дифф уравнение для производящей функции.
- •32.33.34 Анализ ду для производящей функции ветвящегося процесса. Стремление к стационарному состоянию. Исследование вопроса о числе интегральных кривых, проходящих через точку (0,1).
- •35.Эффекты вырождения и взрыва ветвящегося процесса
- •36, 37 Каноническое разложение случайного процесса
- •38.Спектральное разложение стационарного случайного процесса
1. Стохастическая зависимость. Регрессионная зависимость. Эмпирическая функция регрессии.
Стохастическая зависимость.
Пусть некоторая переменная описывается двумерным случайным вектором (x,y). Ставится вопрос о зависимости между компонентами этого вектора, т.е. случайными величинами (признаками X и Y). Изучаются форма и сила (теснота) связи между ними.
Различают два вида зависимостей: функциональную и стохастическую (вероятностную). Функциональная зависимость это однозначное отображение множества С.В. Х в множество С.В. Y.
Стохастическая зависимость означает, что изменение одной С.В. влечёт за собой изменение закона распределения другой С.В. Однако точно определить значение второй С.В. по значению первой нельзя.
Пример: Если Х зависит от случайных факторов z1, z2, v1, v2, а Y от z1, z2, u то между Y и X имеется стохастическая зависимость, т.к. среди случайных факторов есть общее z1, z2.
Регрессионная зависимость.
В частности стох-ая зависимость проявляется в том, что при изменении одной из величин изменяется мат. ожид другой. Т.е. условное мат. ожидание: M {Y| X=x} = (x).
Условное мат. ожидание является функцией от х. И наоборот: M {X| Y=y} = (y).
Зависимости такого рода называются регрессионными. Функции (x) и (y) называются функциями регрессии соответственно Y на Х и X на Y. Графики функций (x) и (y) называются линиями регрессии Y на Х и X на Y. Ставятся две основные задачи:
Установить форму связи между С.В. X и Y. Т.е. вид функции регрессии.
Оценить тесноту или силу связи.
Теснота зависимости Y от Х оценивается по величине расстояния значений С.В. Y вокруг условного мат. ожидания (x). Для данного значения Х=х будем наблюдать рассеяние значения Y около центра (x). Мерой этого рассеяния служит условная дисперсия С.В. Y при данном фиксированном Х.
В первом p это вероятность, а во втором плотность.
Величину (Y|X=x)= можем рассматривать как среднюю квадратичную погрешность прогноза С.В. Y по наблюдённому значению х С.В. Х, если использовать для прогнозирования известную функцию регрессии (x).
Величина (Y|X) и следовательно точность прогноза С.В. Y зависит от х. Для представления о точности прогноза Y по всем наблюдённым значениям х мы должны взять средне взвешенное по вероятности из условных дисперсий.
Регрессия (x) является функцией минимизирующей среднюю квадратичную погрешность прогноза Y по Х, т.к. рассеяние измеряемое средним квадратом отклонения значений y около центра рассеяния (x) при каждом х - минимально.
M(Y-b)2=M((Y- (x))+( (x)-b))2 =M(Y- (x))2+2M(Y- (x))( (x)-b) +( (x)-b)2 M(Y- (x))2
Эмпирическая функция регрессии
Для нахождения функции регрессии (x) или (y) надо знать закон распределения С.В. (X,Y). Однако на практике этот закон, как правило, не известен. Поэтому, исходя из экспериментальных данных, строят оценку функции регрессии.
Пусть в результате наблюдения над двумерной С.В. X,Y получена выборка (xi, yi), где i=1..n. Оценкой функции регрессии (x) служит эмпирическая функция регрессии Y на Х. =f(x, a0, a1, a2, …,am)
Вид функции регрессии и её оценки выбирают из анализа расположения точек (xi,yi) на корреляционном поле. Корреляционное поле это изображение наблюдённых данных в виде точек ДПСК. Эмпирическая функция регрессии =f(x,a0,a1,a2,…,am) должна удовлетворять условию S(a0,a1,a2,…,am)=
Т.е. значение параметров a0,a1,a2,…,am должно быть выбрано так, чтобы значение f(x,a0,a1)=a1x+a0 Если среди наблюдённых значений есть одинаковые, то имеем равенства: S(a0,a1,a2,…,am)= , где mi- частота пары значений (xi, yi).
Т.о. для определения параметров a0,…,am применяется метод наименьших квадратов.
Этот метод позволяет при заданном виде эмпирической функции регрессии так найти неизвестные параметры, что функция =f(x, a0, a1, a2, …,am) будет наилучшей оценкой функции регрессии (x) в том смысле, что сумма квадратов отклонений наблюдённых значений С.В. Y от соответствующих ординат эмпирической регрессии будет минимальной. Аналогично определяется эмпирическая функция регрессии X на Y.
=g(y, b0, b1, b2, …,bk)