Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Статистика экзамен.docx
Скачиваний:
19
Добавлен:
26.09.2019
Размер:
359.26 Кб
Скачать
  1. Корреляционный анализ количественных признаков.

  2. Корреляционный анализ порядковых переменных: ранговая корреляция.

Корреляционный анализ (correlation analysis) [лат. correlatio — соотношение ] - раздел математической статистики, объединяющий практические методы исследования корреляционной связи между двумя и более случайными признаками или факторами.

Цель корреляционного анализа — обеспечить получение некоторой информации об одной переменной с помощью другой переменной. В случаях, когда возможно достижение цели, говорят, что переменные коррелируют. В самом общем виде принятие гипотезы о наличии корреляции означает что изменение значения переменной X, произойдет одновременно с пропорциональным изменением значения Y.

РАНГОВАЯ КОРРЕЛЯЦИЯ [rank correlation] — мера зависимости между случайными величинами(наблюдаемыми признакамипеременными), когда эту зависимость невозможно определить количественно с помощью обычного коэффициента корреляции (см. Корреляция). Процедура установления Р. к. заключается в упорядочении изучаемых объектов в отношении некоторого признака, т. е. им приписываются порядковые номера — ранги (по два номера в соответствии с двумя наблюдаемыми признаками, между которыми исследуется корреляция). Напр., наибольшее значение для переменной обозначается номером 1, второе по величине — номером 2 и т. д. Наиболее распространен коэффициент Р. к. (коэффициент Спирмэна):

где Di — разница между рангами, присвоенными каждой из переменных i (i = 1, 2, ..., n); N — размер выборки. Этот коэффициент принимает значения между +1 и –1, показывая тесноту и направление связи между исследуемыми величинами. Метод Р. к. — один из т. н. непараметрических методовматематической статистики.

  1. Методы регрессивного анализа: метод наименьших квадратов, метод наименьших модулей.

Термин «регрессия» ввел английский психолог и антрополог Ф.Гальтон.

Для точного описания уравнения регрессии необходимо знать чакон распределения результативного показателя у. В статистической практике обычно приходится ограничиваться поиском подходящих аппроксимаций для неизвестной истинной функции регрессии ffc), так как исследователь не располагает точным знанием условного закона распределения вероятностей анализируемого результатирующего показателя у при заданных значениях аргумента х.

Рассмотрим взаимоотношение между истинной f (х) = = М(у/х), модельной регрессией у и оценкой у регрессии. Пусть результативный показатель у связан с аргументом х соотношением:

у=2х 1,5+σ

где σ – случайная величина, имеющая нормальный закон распределения.

Причем M σ= 0 и d σ– σ 2. Истинная функция регрессии в этом случае имеет вид:

f(х) = М(у/х) = 2х i 1,5+ σ?

Для наилучшего восстановления по исходным статистическим данным условного значения результативного показателя f(x) и неизвестной функции регрессии /(х) = М(у/х) наиболее часто используют следующие критерии адекватности (функции потерь).

Согласно методу наименьших квадратов минимизируется квадрат отклонения наблюдаемых значений результативного показателя y(i = 1, 2, ..., п)от модельных значений y i= f(х i),где х i– значение вектора аргументов в i-м наблюдении:

σ(y i– f(х i)2 → min

Получаемая регрессия называется среднеквадратической.

Согласно методу наименьших модулей, минимизируется сумма абсолютных отклонений наблюдаемых значений результативного показателя от модульных значений:

y i = f(x i)

И получаем среднеабсолютную медианную регрессию:

Регрессионный анализ – это метод статистического анализа зависимости случайной величины уот переменных х j(j=1,2, ..., k), рассматриваемых в регрессионном анализе как неслучайные величины, независимо от истинного закона распределения х j.

Метод наименьших модулей (МНМ) — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих случайные ошибки. МНМ применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.

МНМ похож на метод наименьших квадратов. Отличие состоит в минимизации не суммы квадратов невязок, а (взвешенной) суммы их абсолютных значений. Этот метод обеспечивает максимум функции правдоподобия, если ошибки измерений подчиняются закону Лапласа. (Для сравнения, метод наименьших квадратов обеспечивает максимум функции правдоподобия, когда ошибки распределены по Гауссу.)