- •Методическое пособие по курсу «общая теория статистики»
- •Часть II Курс лекций
- •Тема 1. Предмет и метод статистики.
- •Статистика как наука.
- •Предмет статистики.
- •Метод статистики.
- •Задачи статистики.
- •Организация статистики.
- •Тема 2. Статистическое наблюдение.
- •Общее понятие о статистическом наблюдении.
- •Основные организационные формы статистического наблюдения.
- •Виды статистических наблюдений.
- •Способы статистического наблюдения.
- •Программно-методологическое и организационное обеспечение статистического наблюдения.
- •Ошибки наблюдения.
- •Случайные
- •Систематические
- •Тема 3. Сводка и группировка статистических
- •Содержание и назначение сводки.
- •Метод группировок.
- •3. Расчет интервала группировок.
- •Методологические требования к системам группировок.
- •Графики рядов распределения.
- •Тема 4. Статистические таблицы.
- •Тема 5. Абсолютные и относительные величины.
- •Абсолютные величины.
- •Относительные величины.
- •Комплексное использование абсолютных и относительных величин.
- •Тема 6. Графическое изображение
- •1. Понятие о статистическом графике. Элементы графика.
- •2. Виды графиков и их классификация.
- •Тема 7. Средние величины.
- •3. Выбор формулы средней.
- •4. Свойства средней арифметической.
- •5. Мода, медиана.
- •6. Межорантность средних.
- •7. Соотношение средних в зависимости от характера распределения.
- •Тема 8. Показатели вариации.
- •1. Общее понятие о вариации признака.
- •2. Расчет основных показателей вариации.
- •3. Расчет дисперсии, ее свойства.
- •4. Дисперсия альтернативного качественного признака.
- •Тема 9. Ряды динамики.
- •1. Динамические ряды как база исследования экономической динамики.
- •2. Аналитические показатели динамического ряда.
- •3. Сглаживание и выравнивание динамических рядов.
- •4. Изучение сезонных колебаний.
- •5. Экстраполяция и интерполяция в рядах динамики.
- •Тема 10. Индексы.
- •1. Общее понятие об индексах.
- •2. Сводные индексы в агрегатной форме.
- •3. Сводные индексы в средней арифметической и средней гармонической формах.
- •4. Системы индексов.
- •5. Индексный метод анализа динамики среднего уровня качественного показателя.
- •Тема 11. Выборочное наблюдение.
- •1. Общее понятие о выборочном наблюдении.
- •2. Способы отбора единиц в выборочную совокупность.
- •3. Определение необходимого объема выборки.
- •4. Малая выборка.
- •Тема 12. Статистический анализ структуры.
- •1. Понятие структуры и направления ее исследования.
- •2. Частные показатели структурных сдвигов.
- •3. Обобщающие показатели структурных сдвигов.
- •4. Показатели концентрации и централизации.
- •Тема 13. Статистическое изучение взаимосвязи
- •1. Причинность, регрессия, корреляция.
- •2. Парная регрессия на основе метода наименьших квадратов.
- •3. Множественная регрессия.
- •4. Собственно-корреляционные параметрические методы изучения связи.
- •5. Методы изучения связи качественных признаков.
- •6. Ранговые коэффициенты связи.
2. Парная регрессия на основе метода наименьших квадратов.
Парная регрессия характеризует связь между двумя признаками: результативным и факторным. Аналитическая связь между ними описывается уравнениями:
_
прямой yx = a0 + a1*x
_
параболы yx = a0 + a1*x + a2*x2
гиперболы _ 1
yx = a0 + a1* --
x
и так далее.
Определить тип уравнения можно, исследуя зависимость графически, однако существуют более общие указания, позволяющие выявить уравнение связи, не прибегая к графическому изображению. Если результативный и факторный признаки возрастают одинаково, то это свидетельствует о том, что связь между ними линейная, а при обратной связи - гиперболическая. Если результативный признак увеличивается в арифметической прогрессии, а факторный значительно быстрее, то используется параболлическая или степенная регрессия.
Оценка параметров уравнений регрессии a0 и a1 (и a2 в уравнениии параболы второго порядка) осуществляется методом наименьших квадратов, в основе которого лежит прежположение о независимости наблюдений исследуемой совокупности и нахождении параметров модели a0 и a1, при которых минимизируется сумма квадратов отклонений эмпирических (фактических) значений результативного признака от теоретических, полученных по выбранному уравнению регрессии:
( yi - yt ) 2 min
Система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет следующий вид:
a0*n + a1* t = y
a0* t + a1* t2 = y*t
где n - объем исследуемой совокупности (число единиц наблюдения)
В уравнениях регрессии параметр a0 показывает усредненное влияние на результативный признак неучтенных в уравнении факторных признаков, коэффициент регрессии a1 показывает, на сколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения.
3. Множественная регрессия.
Изучение связи между тремя и более связанными между собой признаками носит название множественной (многофакторной) регрессии:
_
y1,2,…k = f (x1, x2, …, xk)
Построение моделей множественной регрессии включает несколько этапов:
Выбор формы связи (уравнение регрессии).
Отбор факторных признаков.
Обеспечение достаточного объема совокупности.
Выбор типа уравнения затрудняется тем, что для любой формы зависимости можно выбрать целый ряд уравнений, которые в определенной степени будут описывать эти связи. Основное значение имеют линейные модели в силу простоты и логичности их экономической интерпретации.
Линейное уравнение множественной регрессии имеет вид:
_
y1,2,…k = a0 + a1*x1 + a2*x2 + … + ak*xk
_
где y1,2,…k - теоретические значения результативного признака, полученные в результате подстановки соответствующих значений факторных признаков в уравнение регрессии,
x1 x2 … xk - факторные признаки,
a0 a1 a2 …ak - параметры модели (коэффициенты регрессии).
Параметры уравнения могут быть определены графическим методом, методом наименьших квадратов и т.д.
Важным этапом построения уже выбранного уравнения множественной регрессии является отбор и последующее включение факторных признаков. С одной стороны, чем больше факторных признаков включено в уравнение, тем оно лучше описывает явление. С другой стороны, сокращение размерности модели за счет исключения второстепенных факторов способствует простоте и качеству ее реализации.
При построении модели регрессии возможна проблема мультиколлинеарности, под которой понимается тесная зависимость между факторными признаками, включенными в модель (rxy > 0,8).
Наличие мультиколлинеарности между признаками приводит к искажению величины параметров модели, которые имеют тенденцию к завышению, чем осложняется процесс определения наиболее существенных факторных признаков.
В качестве причин возникновения мультиколлинеарности между признаками, можно выделить следующие:
изучаемые факторные признаки являются характеристикой одной и той же стороны явления или процесса. Например, показатели объема производимой продукции и среднегодовой стоимости основных фондов одновременно включать в модель не рекомендуется, так как они оба характеризуют размер предприятия,
факторные признаки являются составляющими элементами друг друга,
факторные признаки по экономическому смыслу дублируют друг друга.