![](/user_photo/2706_HbeT2.jpg)
- •1Случайные события. Действия над событиями.
- •2.Классическое опред. Вероятности и ее свойства.
- •3.Аксиоматическое определение вероятности.
- •5.Условная вероятность. Независимость событий.
- •6.Формула полной вероятности. Формула Байеса.
- •7.Схема независимых испытаний Бернулли.
- •8.Предельные теоремы в схеме Бернулли.
- •10.Плотность распред.Вероятностей и ее свойства.
- •11.Математическое ожидание и его свойства.
- •12.Дисперсия и ее свойства.
- •13.Коэффициент корреляции и ковариация.
- •14.Моменты.
- •15.Осн. Дискретные распред.Случайных величин.
- •16.Равномерное и показательное распределения. Равномерное распределение.
- •Показательное распределение.
- •17.Нормальное распределение.
- •18.Двумерная функция распред. И ее свойства.
- •19.Двумерная плотность вероятности и ее свойства.
- •20.Независимость случайных величин.
- •21.Условный закон распределения.
- •22.Неравенство Чебышева. Сходимость случайных последовательностей.
- •23.Теорема Чебышева. Теорема Бернулли.
- •24.Центральная предельная теорема.
- •25.Выборочный метод.
- •26.Эмпирическая функция распределения и ее свойства.
- •27.Гистограмма и полигон.
- •28.Числовые характеристики выборки.
- •29.Точечное оценивание
- •30.Доверительные интервалы
- •31.Распределения , Стьюдента и Фишера.
- •33.Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном .
- •34.Проверка статистических гипотез.
- •35.Построение критической области.
- •36.Критерий согласия Пирсона.
- •37.Вычисления теоретических частот для нормального распределения.
- •38.Сравнение дисперсий двух нормальных выборок.
- •39.Сравнение средних двух нормальных выборок (критерий Стьюдента).
- •40.Дисперсионный анализ.
- •41.Парная регрессия.
- •42.Парный коэффициент корреляции, его свойства.
- •43.Проверка гипотезы о достоверности выборочного коэффициента корреляции.
- •44.Нелинейная парная регрессия.
41.Парная регрессия.
Интересует установление взаимосвязи между двумя признаками X и Y.
X
и Y
могут быть независимы, связаны между
собой функциональной либо корреляционной
зависимостью. При корреляции зависимость
изменений каждого отдельного значения
Х необязательно влечет за собой изменение
Y,
однако изменение
приводит к изменению
.
Зависимость
вида y=f(x)+
,
- ошибка оценки.
Чтобы установить вид зависимости строится поле корреляции. На XOY наносят координаты (xi, yj) и по расположению точек делают вывод о виде зависимости.
Пусть
вид зависимости линейный:
Коэффициенты b0 и b1 найдем по методу наименьших квадратов
где
xi
, yi
– выборочные
значения; n
– об. Выборки.
теоретические
значения y.
Найдем b0 и b1 такие, при которых функция S достигает минимума.
{
Перейдем к средним значениям, поделив на n.
{
(2)
Методика построения уравнения регрессии:
42.Парный коэффициент корреляции, его свойства.
(4)
Коэффициент обладает все теми же свойствами, что и теоретический коэффициент корреляции.
если x и y независимы, то
0.
-1<=
1
если x и y связаны линейной зависимостью, т.е. при
, то
b>0,
=1
b<0,
=-1
Таким
образом коэффициент является количественной
характеристикой зависимости x
и y.
Чем ближе
к единице, тем теснее и ближе к линейной
зависимости между X
и Y.
43.Проверка гипотезы о достоверности выборочного коэффициента корреляции.
Пусть на выборке объема n найден коэффициент корреляции X и Y и он отличен от 0. Возможно, при этом, что генеральный коэффициент корреляции равен 0, а выборочное отличие от 0 случайно.
Проверим
H0:
=0
H1:
Для
проверки гипотезы H0
используем свойство T
При справедливости H0 эта случайная величина имеет распределение Стьюдента с (n-2) числом степеней свободы. Проверка H0 осуществляется следующим образом
вычисляется наблюдаемое значение критерия
по таблице критических точек распределения Стьюдента
max
|Тнабл|>Tкр, то H0 отвергается и принимается H1, следовательно X и Y связаны между собой достоверной корреляционной зависимостью. |Тнабл|<Tкр, нет основания отвергнуть H0, то недостоверно отличается от 0 (случайно) и между X и Y нет корреляционной зависимости. Методика построения уравнения регрессии
44.Нелинейная парная регрессия.
В
случае линейной зависимости
применение метода наим-х квадратов
(МНК) приводит к решению линейной
алгебр-й с-мы относительно
и
,
она имеет единственное решение. Кроме
этого, оценки коэф-тов
и
явл-ся несмещенными, самостоят-ми и
эффективными.
В
случае нелинейной зав-сти
применение МНК приводит к решению
нелинейной с-мы, к-я в общем случае не
имеет решения в известных аналит-х ф-ях,
тогда прим-ся приближ-е методы для
вычисления оцениваемых коэф-тов.
1. Пусть
.
Обозначим
,тогда
получим множ-ю лин-ю модель
.
2. Обратнопропорциональная зависимость
.
,
.
3. Степенная модель
,
,
,
,
,
.
.
4. Показательная
,
,
,
,
,
.
Типичные задачи с нелинейной зав-стью:
1.Полиномеальная.
Реально строятся полиномы (многочлены)
для 2 и 3 степени, для больших степеней
модели невозможно использовать для
прогноза,т.к.
.
Пример: ф-ция издержек в зависимости от
выпуска продукции описывается
квадратической моделью.
2. Обратная пропорциональная зависимость. Взаимосвязь между ростом з/п и темпами инфляции, з/п работников физ-го труда и возрастом.
3. Степенная модель в экон-й лит-ре часто наз-ся произв-й ф-ей, т.к. как правило, этой моделью опис-ся взаимосвязь между показ-ми пр-ва.