Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
matan.docx
Скачиваний:
46
Добавлен:
29.03.2016
Размер:
707.19 Кб
Скачать

57. Односторонняя критическая область

Область, при попадании в которую критерия Кнабл отвергается основная гипотеза, называетсякритической областью.

• Областью принятия гипотезы (областью допустимых значений), называют совокупность значений критерия при которой Н0 принимают.

• Основной принцип СПГ: если наблюдаемое значение критерия принадлежит критической области, то гипотезу отвергают; если наблюдаемое значение критерия принадлежит области покрытия гипотезы, то гипотезу принимают.

• Критическая область и область принятия гипотезы – это интервалы, значит существует точка которая их разделяет.

• Критической точкой (границей), называют точку Ккр, отделяющую критическую область от области принятия гипотез. Для каждого критерия имеются таблицы, по которым находят критическую точку.

 

Различают одностороннюю и двустороннюю критические области. В свою очередь односторонняя область может быть левосторонней и правосторонней.

• Правосторонней называется критическая область, описываемая неравенством К> Ккр.

• Левосторонней называется критическая область, описываемая неравенством К< Ккр.

Двусторонней называется критическая область, описываемая неравенством .

 Тип критической области задается знаком альтернативной гипотезы Н1:

• < – левосторонняя (например, Н1: )

• > – правосторонняя (например, Н1: )

• – двусторонняя (например, Н1: )

60. Уравнение линии регрессии.

Для количественного описания взаимосвязей между экономическими переменными в статистике используют методы регрессии и корреляции.

Регрессия - величина, выражающая зависимость среднего значения случайной величины у от значений случайной величины х.

Уравнение регрессии выражает среднюю величину одного признака как функцию другого.

Функция регрессии - это модель вида у = л», где у - зависимая переменная (результативный признак); х - независимая, или объясняющая, переменная (признак-фактор).

Линия регрессии - график функции у = f (x).

2 Типа взаимосвязей между х и у:

1)  может быть неизвестно, какая из двух переменных является независимой, а какая - зависимой, переменные равноправны, это взаимосвязь корреляционного типа;

2)  если х и у неравноправны и одна из них рассматривается как объясняющая (независимая) переменная, а другая - как зависимая, то это взаимосвязь регрессионного типа.

Виды регрессий:

1)  гиперболическая - регрессия равносторонней гиперболы: у = а + b / х + Е;

2)  линейная - регрессия, применяемая в статистике в виде четкой экономической интерпретации ее параметров: у = а+b*х+Е;

3)  логарифмически линейная - регрессия вида: In у = In а + b * In x + In E

4)  множественная - регрессия между переменными у и х1 , х2 ...xm, т. е. модель вида: у = f(х1 , х2 ...xm)+E, где у - зависимая переменная (результативный признак), х1 , х2 ...xm - независимые, объясняющие переменные (признаки-факторы), Е- возмущение или стохастическая переменная, включающая влияние неучтенных факторов в модели;

5)  нелинейная - регрессия, нелинейная относительно включенных в анализ объясняющих переменных, но линейная по оцениваемым параметрам; или регрессия, нелинейная по оцениваемым параметрам.

6)  обратная - регрессия, приводимая к линейному виду, реализованная в стандартных пакетах прикладных программ вида: у = 1/a + b*х+Е;

7)  парная - регрессия между двумя переменными у и x, т. е, модель вида: у = f (x) + Е, где у -зависимая переменная (результативный признак), x – независимая, объясняющая переменная (признак - фактор), Е - возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели.

Корреляция - величина, отражающая наличие связи между явлениями, процессами и характеризующими их показателями.

Корреляционная зависимость - определение зависимости средней величины одного признака от изменения значения другого признака.

Коэффициент корреляции величин х и у (rxy) свидетельствует о наличии или отсутствии линейной связи между переменными:

где   (-1; 1). Если: = -1, то наблюдается строгая отрицательная связь;= 1, то наблюдается строгая положительная связь; = 0, то линейная связь отсутствует.

 - ковариация, т. е. среднее произведение отклонений признаков от их средних квадратических отклонений.

Коэффициент корреляции может служить мерой зависимости случайных величин.

Корреляция для нелинейной регрессии:

 при R[0;1].

Чем ближе R к 1, тем теснее связь рассматриваемых признаков.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]