
- •Предмет и основные понятия тв.
- •2. Определение вероятности события.
- •17. Интегральная функция распределения и ее свойства
- •4. Основные теоремы теории вероятностей.
- •5. Формулы полной вероятности и вероятности гипотез
- •6. Формула Бернулли
- •8. Интегральная теорема Муавра-Лапласа.
- •9. Формула Пуассона.
- •10. Случайные величины и их виды.
- •13. Математическое ожидание.
- •14. Дисперсия дсв и ее свойства.
- •21. Показательное распределение.
- •15. Закон распределения дискретной случайной величины.
- •16. Одинаково распределённые, взаимонезависимые дискретные случайные величины
- •18. Дифференциальная функция распределения и ее свойства
- •19. Числовые характеристики непрерывных случайных величин
- •20. Равномерный закон распределения.
- •29. Закон больших чисел
- •22. Нормальный закон распределения
- •23. Многомерные случайные величины
- •24. Свойства интегральной функции:
- •25. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции.
- •26. Функции случайных величин
- •27. Композиция законов распределения
- •39. Выборочный метод
- •28. Специальные законы распределения
- •51. Особенности статистического анализа количественных и качественных показателей.
- •30. Неравенство Чебышева.
- •31. Центральная предельная теорема
- •35. Определение вариационных рядов. Графическое изображение вариационных рядов.
- •50. Общие модели статистического анализа.
- •36. Средняя арифметическая ряда.
- •52. Проблема размерностей в многомерных методах исследования.
- •53.Введение в Excel.
- •37. Дисперсия дискретного ряда
- •48. Проверка адекватности модели регрессии.
- •40. Интервальные оценки. Доверительная вероятность, доверительный интервал.
- •56. Концепция Data Mining.
- •46 Понятие корреляционной зависимости.
- •44. Критерий согласия
- •45. Понятие и модели дисперсионного анализа.
- •47. Оценка методом наименьших квадратов коэффициентов регрессии.
47. Оценка методом наименьших квадратов коэффициентов регрессии.
Регрессионный анализ – один из основных методов современной мат статистики. Корреляционный анализ позволяет установить существует или не существует зависимость м/у парами наблюдений, то регрессионный анализ дает целый арсенал методов построения соответствующих зависимостей. Классическим методом оценивания коэффициентов уравнения регрессии является метод наименьших квадратов (МНК).
На основании известных n пар наблюдений (xi, yi) делается предположение о виде зависимости, например:
y=a+bx, где y – зависимая (результативная) переменная, х – независимая (факторная) переменная.
Пусть переменная x задается точно (без ошибок), тогда отклонение наблюдений yi от зависимости y=a+bx является случайным и параметры a и b можно найти из условия минимизации суммы квадратов ошибок εi=yi–a–bxi
n
S= εi2→ min,
i=1
n
S= ( yi–a–bxi)2→ min,
i=1
Рассмотрим функцию двух переменных
n
S(а, b)= ( yi–a–bxi)2,
i=1
найдем ее минимум:
|
∂S(a,b) |
=0 |
∂a |
||
∂S(a,b) |
=0 |
|
∂b |
Имеем
2(yi-a-bx)(-1) |
=0 |
2(yi-a-bx)(-xi) |
=0 |
После преобразований получим:
na+bxi i=1 |
n =yi i=1 |
n n a+bxi2 i=1 i=1 |
n =xiyi i=1 |
Эта система носит название системы нормальных уравнений Гаусса, т.к. получена из условия минимизации суммы квадратов отклонении, в предположении, что xi – фиксированы, т.е. отклонения перпендикулярны оси ОХ.
Решив систему относительно a и b получим искомое уравнение зависимости, которое носит название регрессии Y на Х.
Аналогично, предположив, что искомая зависимость имеет вид x=c+dy, где значения yi – фиксированы, мы получим уравнение регрессии X на Y.
Если X и Y – система двух нормально распределенных случайных величин, то преобразуя систему Гаусса (см. выше), уравнение регрессии Y на Х можно записать
y -y= r |
y |
(x-x) |
x |
Соответственно уравнение регрессии X на Y имеет вид
х -х= r |
х |
(y-y) |
y |