- •Организация государственной статистики в рф.
- •Статистическое наблюдение и его этапы.
- •Основные программно-методологические вопросы статистического наблюдения.
- •Организационные вопросы статистического наблюдения.
- •Формы, виды и способы статистического наблюдения.
- •Сводка: основное содержание и задачи.
- •Сущность и классификация группировок.
- •Принципы построения группировок.
- •Построение и виды рядов распределения.
- •Графическое изображение рядов распределения.
- •Понятие статистической таблицы и ее элементов.
- •Виды таблиц.
- •Основные правила оформления и чтения таблиц.
- •Статистические графики и правила из построения.
- •Классификация графиков по видам.
- •Диаграммы сравнения. Статистические карты.
- •Статистический показатель и его виды.
- •Абсолютные показатели, единицы их измерения.
- •Относительные показатели.
- •Понятие среднего показателя.
- •Средняя арифметическая и ее свойства.
- •Средняя гармоническая, средняя геометрическая.
- •Структурные средние.
- •Показатели вариации: размах вариации, дисперсия, среднее квадратическое отклонение, коэффициент вариации.
- •Понятие и виды индексов.
- •Индивидуальные индексы.
- •Сводный индекс товарооборота, сводный индекс цен, сводный индекс физического объема реализации.
- •Сводный индекс себестоимости, сводный индекс физического объема продукции, сводный индекс затрат на производство.
- •Применение индексного метода при анализе изменений в производительности труда.
- •Сводные индексы в среднеарифметической и среднегармонической формах
- •Индексные системы за ряд последовательных периодов.
- •Индексы постоянного и переменного состава.
- •Территориальные (пространственные) индексы.
- •Основные понятия исследования связей между явлениями: функциональная и статистическая зависимость, поле корреляции.
- •Корреляционный анализ количественных признаков.
- •Корреляционный анализ порядковых переменных: ранговая корреляция.
- •Методы регрессивного анализа: метод наименьших квадратов, метод наименьших модулей.
- •Двумерное линейное уравнение регрессии.
- •Классификация рядов динамики и методы их построения.
- •Показатели изменения уровней рядов динамики.
- •Компоненты временных рядов.
- •Сглаживание временных рядов с помощью скользящей средней.
- •Применение моделей кривых роста для анализа и прогнозирования.
Корреляционный анализ количественных признаков.
Корреляционный анализ порядковых переменных: ранговая корреляция.
Корреляционный анализ (correlation analysis) [лат. correlatio — соотношение ] - раздел математической статистики, объединяющий практические методы исследования корреляционной связи между двумя и более случайными признаками или факторами.
Цель корреляционного анализа — обеспечить получение некоторой информации об одной переменной с помощью другой переменной. В случаях, когда возможно достижение цели, говорят, что переменные коррелируют. В самом общем виде принятие гипотезы о наличии корреляции означает что изменение значения переменной X, произойдет одновременно с пропорциональным изменением значения Y.
РАНГОВАЯ КОРРЕЛЯЦИЯ [rank correlation] — мера зависимости между случайными величинами(наблюдаемыми признаками, переменными), когда эту зависимость невозможно определить количественно с помощью обычного коэффициента корреляции (см. Корреляция). Процедура установления Р. к. заключается в упорядочении изучаемых объектов в отношении некоторого признака, т. е. им приписываются порядковые номера — ранги (по два номера в соответствии с двумя наблюдаемыми признаками, между которыми исследуется корреляция). Напр., наибольшее значение для переменной обозначается номером 1, второе по величине — номером 2 и т. д. Наиболее распространен коэффициент Р. к. (коэффициент Спирмэна):
где Di — разница между рангами, присвоенными каждой из переменных i (i = 1, 2, ..., n); N — размер выборки. Этот коэффициент принимает значения между +1 и –1, показывая тесноту и направление связи между исследуемыми величинами. Метод Р. к. — один из т. н. непараметрических методовматематической статистики.
Методы регрессивного анализа: метод наименьших квадратов, метод наименьших модулей.
Термин «регрессия» ввел английский психолог и антрополог Ф.Гальтон.
Для точного описания уравнения регрессии необходимо знать чакон распределения результативного показателя у. В статистической практике обычно приходится ограничиваться поиском подходящих аппроксимаций для неизвестной истинной функции регрессии ffc), так как исследователь не располагает точным знанием условного закона распределения вероятностей анализируемого результатирующего показателя у при заданных значениях аргумента х.
Рассмотрим взаимоотношение между истинной f (х) = = М(у/х), модельной регрессией у и оценкой у регрессии. Пусть результативный показатель у связан с аргументом х соотношением:
у=2х 1,5+σ
где σ – случайная величина, имеющая нормальный закон распределения.
Причем M σ= 0 и d σ– σ 2. Истинная функция регрессии в этом случае имеет вид:
f(х) = М(у/х) = 2х i 1,5+ σ?
Для наилучшего восстановления по исходным статистическим данным условного значения результативного показателя f(x) и неизвестной функции регрессии /(х) = М(у/х) наиболее часто используют следующие критерии адекватности (функции потерь).
Согласно методу наименьших квадратов минимизируется квадрат отклонения наблюдаемых значений результативного показателя y(i = 1, 2, ..., п)от модельных значений y i= f(х i),где х i– значение вектора аргументов в i-м наблюдении:
σ(y i– f(х i)2 → min
Получаемая регрессия называется среднеквадратической.
Согласно методу наименьших модулей, минимизируется сумма абсолютных отклонений наблюдаемых значений результативного показателя от модульных значений:
y i = f(x i)
И получаем среднеабсолютную медианную регрессию:
Регрессионный анализ – это метод статистического анализа зависимости случайной величины уот переменных х j(j=1,2, ..., k), рассматриваемых в регрессионном анализе как неслучайные величины, независимо от истинного закона распределения х j.
Метод наименьших модулей (МНМ) — один из методов регрессионного анализа для оценки неизвестных величин по результатам измерений, содержащих случайные ошибки. МНМ применяется также для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.
МНМ похож на метод наименьших квадратов. Отличие состоит в минимизации не суммы квадратов невязок, а (взвешенной) суммы их абсолютных значений. Этот метод обеспечивает максимум функции правдоподобия, если ошибки измерений подчиняются закону Лапласа. (Для сравнения, метод наименьших квадратов обеспечивает максимум функции правдоподобия, когда ошибки распределены по Гауссу.)