
- •1 Возникновение и понятие статистики, как науки.
- •2 Предмет статистики как отрасли изучаемого знания
- •3 Метод статистики как отрасли изучаемого знания
- •4 Статистическая совокупность.
- •5 Статистические показатели
- •6 Современная организация и задачи статистики в рф.
- •7. Этапы статистического исследования
- •8 Статистическое наблюдение, цель, объект, единица.
- •9. Виды статистического наблюдения
- •10. Формы статистического наблюдения.
- •11. Ошибки статистического наблюдения.
- •12. Меры по обеспечению точности статистического наблюдения.
- •13. Понятие и сущность абсолютных величин.
- •14. Понятие и сущность относительных величин.
- •15. Виды относительных величин и способы их расчета.
- •16. Основное содержание сводки.
- •17. Порядок проведения группировки, ее виды.
- •18. Статистическая таблица, ее элементы и виды.
- •19. Правила построения статистических таблиц.
- •20. Сущность и значение графического изображения данных. Элементы графиков.
- •21. Основные виды графиков.
- •22. Сущность и значение средних величин.
- •23. Виды средних. Правило мажорантности средних.
- •24. Структурные средние.
- •25. Показатели формы распределения.
- •26. Понятие вариации.
- •27. Вариационный ряд.
- •28. Способы расчета показателей вариации.
- •1) Коэффициент осцилляции
- •2) Линейный коэффициент вариации
- •3) Коэффициент вариации
- •29. Дисперсия, ее свойства.
- •30. Правило сложения дисперсий и его практическое значение.
- •31.Вариация альтернативного признака.
- •32. Ряды динамики, их элементы и виды. Важнейшие условия правильного построения рядов динамики.
- •33. Показатели ряда динамики.
- •34. Средние показатели динамики.
- •35. Выявление и характеристика основной тенденции развития при помощи скользящей средней.
- •36. Выявление и характеристика основной тенденции развития при помощи метода аналитического выравнивания.
- •37. Виды трендовых моделей.
- •38. Статистическое изучение сезонных колебаний.
- •39. Понятие о статистической и корреляционной связи.
- •40. Задачи корреляционно – регрессионного анализа и моделирования.
- •41. Условия применения и ограничения корреляционно-регрессионного метода.
- •42. Коэффициент корреляции рангов.
- •43. Понятие о стохастических и функциональных связях.
- •44. Сущность линии регрессии и основные модели корреляционной связи.
- •45. Регрессионные модели: этапы построения и анализа
- •46. Применение корреляционно – регрессионных моделей в анализе и прогнозе.
- •47. Метод аналитических группировок.
- •48. Оценка тесноты связи.
- •49. Сущность и значение индексного метода и анализа.
- •50. Сущность индексов. Общие и индивидуальные индексы.
- •51. Базисные и цепные индексы, их взаимосвязь.
- •52. Индексы количественных показателей.
- •53. Индексы качественных показателей.
- •54. Агрегатные индексы.
- •55. Территориальные индексы.
- •56. Средняя арифметическая форма индекса.
- •57. Средняя гармоническая форма индекса.
- •58. Индексы постоянного состава.
- •59. Индексы переменного состава.
- •60. Индексы структурных сдвигов.
44. Сущность линии регрессии и основные модели корреляционной связи.
Математическое уравнение, которое оценивает линию простой (парной) линейной регрессии:
Y=a+bx.
x называется независимой переменной или предиктором.
Y – зависимая переменная или переменная отклика. Это значение, которое мы ожидаем для y (в среднем), если мы знаем величину x, т.е. это «предсказанное значение y»
a – свободный член (пересечение) линии оценки; это значение Y, когда x=0 (Рис.1).
b – угловой коэффициент или градиент оценённой линии; она представляет собой величину, на которую Y увеличивается в среднем, если мы увеличиваем x на одну единицу.
a и b называют коэффициентами регрессии оценённой линии, хотя этот термин часто используют только для b.
Парнуюлинейную регрессию можно расширить, включив в нее более одной независимой переменной; в этом случае она известна как множественная регрессия.
45. Регрессионные модели: этапы построения и анализа
Описание
Регрессией в теории вероятностей и математической статистике принято называть зависимость среднего значения какой-либо величины y от некоторой другой величины или от нескольких величин хi.
Парной регрессией называется модель, выражающая зависимость среднего значения зависимой переменной y от одной независимой переменной х:
y=f(x)+ε,
где у – зависимая переменная (результативный признак); х – независимая, объясняющая переменная (признак–фактор).
Парная регрессия применяется, если имеется доминирующий фактор, обуславливающий большую долю изменения изучаемой объясняемой переменной, который и используется в качестве объясняющей переменной.
Множественной регрессией называют модель, выражающую зависимость среднего значения зависимой переменной y от нескольких независимых переменных х1,х2,…,хp, т.е.:
y=f(x1,x2,...,xp).
Множественная регрессия применяется в ситуациях, когда из множества факторов, влияющих на результативный признак, нельзя выделить один доминирующий фактор и необходимо учитывать одновременное влияние нескольких факторов.
Этапы построения регрессионной модели
Разработка модели и исследование с ее помощью процессов функционирования систем и процессов в общем случае должны выполняться в следующей последовательности:
· предварительное исследование сути проблемы;
· формирование перечня факторов и их логический анализ;
· планирование и организация наблюдений с целью сбора статистических исходных данных;
· первичная обработка статистических данных;
· определение вида (спецификация) функции регрессии;
· оценка функции регрессии;
· отбор главных факторов;
· проверка адекватности регрессионной модели;
· смысловая интерпретация полученной модели;
· решение конкретных прикладных задач с помощью модели (например, прогнозирование).
Предварительное исследование сути проблемы.Целью этого этапа является вербальное (словесное) описание сути проблемы. В соответствии с целью работы по располагаемым материалам устанавливаются: компоненты процессов, подсистемы систем, их общие взаимосвязи, механизмы функционирования систем, объекты и периоды исследования. Изучается опыт решения аналогичных задач, формулируются предварительные гипотезы о зависимости тех или иных переменных (критериев, показателей, параметров).
Формирование перечня факторов и их логический анализ. Целью этого этапа является предварительное определение разумного числа исследуемых переменных и их классификация на зависимые и объясняющие (функции и аргументы).
Сбор исходных данных и их первичная обработка. Целью этого этапа является формирование достаточных (по объему и номенклатуре) исходных данных. Статистическая обработка сводится, в основном, к исключению из данных статистических "выбросов" и статистическое сглаживание данных.
Исходная информация может быть собрана в следующих видах:
· динамические (временные) ряды;
· пространственная информация (данные о нескольких объектах в одинаковые моменты времени);
· временная информация (данные об одном объекте в разные моменты времени);
· различные варианты комбинации информации.
Объем выборок зависит от числа факторов, включаемых в модель. Для получения статистически значимой модели потребный объем выборки nmin определяется по формуле:
nmin≥ (5…8)∙(m+n),
где: m - число факторов, включаемых в модель;
n - число свободных членов в уравнении модели.
Спецификация функции регрессии. Целью этого этапа является конкретное формулирование гипотезы о форме регрессионной связи (линейная, нелинейная, прямая, обратная, простая или множественная).
Оценка функции регрессии. Целью этого этапа является определение числовых значений параметров (коэффициентов) регрессии, показателей, характеризующих "качество" построенной регрессионной модели.
Отбор главных факторов. Целью этого этапа является совершенствование регрессионной модели в направлении уменьшения числа факторов. Большое число факторов делает модель громоздкой, неудобной для применения, затрудняет исследование влияния отдельных факторов. С другой стороны, - слишком малое число факторов может привести к ошибкам (к недопустимому "загрублению") результатов моделирования. В этой связи очевидна необходимость включения в окончательный вариант регрессионной модели лишь рационального набора факторов. Часто эту задачу решают с помощью различных вариантов факторного анализа (например, методом главных компонент МГК).
Более простой способ выявления и устранения избыточности факторов состоит в оценке мультиколлинеарности(чем больше мультиколлинеарность, тем больше избыточность) и в последующем использовании метода исключения переменных.
Метод исключения переменных заключается в том, что высококоррелированные объясняющие переменные (факторы) устраняются из регрессии последовательно в несколько этапов, после чего она заново оценивается:
1. Отбор переменных, подлежащих исключению, производится с помощью коэффициентов парной корреляции. Опыт показывает, что если │rij│≥ 0.7, то одну из переменных можно исключить (rij - коэффициент парной корреляции между факторами xi и xj).
2. Отбор переменных продолжают, анализируя тесноту взаимосвязи факторов x с зависимой переменной y. Для анализа тесноты взаимосвязи x и y используют значения коэффициента парной корреляции между фактором и функцией (rxi y). Факторы xi, для которых rxi y≈ 0, то есть мало связанные с y, подлежат исключению.
3. На следующем этапе отбор факторов проводят, анализируя коэффициенты βфакторов. Коэффициент β показывает, на сколько "сигм" (СКО) изменяется функция с изменением соответствующего аргумента на одну "сигму" при фиксированном значении остальных аргументов
βk =ak∙(σx k/σy),
где: βk - коэффициент β k-го фактора;
σx k - СКО k-го фактора;
σy - СКО функции;
ak - коэффициент регрессии при k-ом факторе.
Из двух факторов может быть исключен тот, который имеет меньшее значение β.
4. Дальнейший отбор факторов проводится путем проверки коэффициентов регрессии ak на статистическую значимость (например, с помощью t-критерия Стьюдента). Расчет критерия Стьюдента tk (для k-го фактора) выполняется по формуле:
tk=ak /Sa k, (3.2)
где: ak - коэффициент регрессии при k-ом факторе;
Sa k - стандартное отклонение оценки параметра ak.
Значение tk, рассчитанное по (3.2), сравнивают с табличным значением критерия tf,α, найденным по таблице квантилей t-распределения (для этого предварительно задаются величиной уровня значимости α и определяют число степеней свободы
f =n-m-1,
где: n - число наблюдений в исходном статистическом ряде;
m - количество факторов в модели).
Если tk<t f,α, то k-ый фактор не оказывает существенного влияния на y, в связи с чем, он может быть исключен из модели.
Проверка адекватности регрессионной модели. Целью этого этапа является проверка качества окончательного варианта регрессионной модели. Данный этап включает:
· оценку значимости коэффициента детерминации D;
· вычисление средней ошибки аппроксимации Е.
Оценка значимости коэффициента детерминации необходима для ответа на вопрос: оказывают ли выбранные факторы достаточное влияние на y? Для оценки значимости используется F-статистика Фишера:
F= [D∙(n -m- 1)] / [m∙(1 -D)], (3.3)
где: D -коэффициент множественной детерминации, D =R2 (здесь R коэффициент множественной корреляции);
n - число наблюдений в исходном статистическом ряде;
m - количество факторов в модели.
Значение F, рассчитанное по (3.3), сравнивают с табличным значением Ff1,f2,α, найденным по таблице квантилей F-распределения Фишера (для этого предварительно задаются величиной уровня значимости α и определяют число степеней свободы
f1=m; f2=n-m- 1,
где: n - число наблюдений в исходном статистическом ряде;
m - количество факторов в модели).
Если F>Ff1,f2,α , то включенные в регрессию факторы достаточно полно объясняют зависимую переменную y, что позволяет говорить о значимости самой регрессии (модели).
Вычисление средней ошибки аппроксимации позволяет проверить качество подбора теоретического уравнения. Средняя ошибка аппроксимации регрессии определяется по формуле:
n
E= {{∑[(y i-y i т) /y i т]} /n} ∙100 %,
i = 1
где: n - число наблюдений в исходном статистическом ряде;
yi - значения зависимой переменной, полученные в i-ом наблюдении (в i-ой точке исходного статистического ряда);
yi т - значения зависимой переменной, рассчитанные с помощью регрессии для i-ой точки.
Смысловая интерпретация полученной модели. Целью этого этапа является осмысление функциональных возможностей полученной регрессионной модели. На тестовых примерах проверяется корректность исходных гипотез (сформулированных на первом этапе), составляется предварительный план решения (на основе полученной модели) ряда конкретных исследовательских задач, например, - задач прогнозирования.