- •Организация государственной статистики в рф.
- •Статистическое наблюдение и его этапы.
- •Основные программно-методологические вопросы статистического наблюдения.
- •Организационные вопросы статистического наблюдения.
- •Формы, виды и способы статистического наблюдения.
- •Сводка: основное содержание и задачи.
- •Сущность и классификация группировок.
- •Принципы построения группировок.
- •Построение и виды рядов распределения.
- •Графическое изображение рядов распределения.
- •Понятие статистической таблицы и ее элементов.
- •Виды таблиц.
- •Основные правила оформления и чтения таблиц.
- •Статистические графики и правила из построения.
- •Классификация графиков по видам.
- •Диаграммы сравнения. Статистические карты.
- •Статистический показатель и его виды.
- •Абсолютные показатели, единицы их измерения.
- •Относительные показатели.
- •Понятие среднего показателя.
- •Средняя арифметическая и ее свойства.
- •Средняя гармоническая, средняя геометрическая.
- •Структурные средние.
- •Показатели вариации: размах вариации, дисперсия, среднее квадратическое отклонение, коэффициент вариации.
- •Понятие и виды индексов.
- •Индивидуальные индексы.
- •Сводный индекс товарооборота, сводный индекс цен, сводный индекс физического объема реализации.
- •Сводный индекс себестоимости, сводный индекс физического объема продукции, сводный индекс затрат на производство.
- •Применение индексного метода при анализе изменений в производительности труда.
- •Сводные индексы в среднеарифметической и среднегармонической формах
- •Индексные системы за ряд последовательных периодов.
- •Индексы постоянного и переменного состава.
- •Территориальные (пространственные) индексы.
- •Основные понятия исследования связей между явлениями: функциональная и статистическая зависимость, поле корреляции.
- •Корреляционный анализ количественных признаков.
- •Корреляционный анализ порядковых переменных: ранговая корреляция.
- •Методы регрессивного анализа: метод наименьших квадратов, метод наименьших модулей.
- •Двумерное линейное уравнение регрессии.
- •Классификация рядов динамики и методы их построения.
- •Показатели изменения уровней рядов динамики.
- •Компоненты временных рядов.
- •Сглаживание временных рядов с помощью скользящей средней.
- •Применение моделей кривых роста для анализа и прогнозирования.
Основные понятия исследования связей между явлениями: функциональная и статистическая зависимость, поле корреляции.
Исследование объективно существующих связей между явлениями - важнейшая задача общей теории статистики.
В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки) оказывающие существенное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения - это связь явлений и процессов, когда изменение одного из них - причины - ведет к изменению другого - следствия.
Правильно вскрытые причинно-следственные связи позволяют установить силу воздействия отдельных факторов на результаты хозяйственной деятельности. Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.
В основе первого этапа статистического изучения связи лежит качественный анализ изучаемого явления, связанный с анализом природы социального или экономического явления методами экономической теории, социологии, конкретной экономики. Второй этап - построение модели связи. Он базируется на методах статистики: группировках, средних величинах, таблицах и т. д. Третий, последний этап - интерпретация результатов - вновь связан с качественными особенностями изучаемого явления.
Статистика разработала множество методов изучения связей, выбор которых зависит от целей исследования и от поставленных задач. С вязи между признаками и явлениями, ввиду их большого разнообразия, классифицируются по ряду оснований.
Признаки по их значению для изучения взаимосвязи делятся на два класса:
1)признаки, обуславливающие изменение других, связанных с ними признаков, называются факторными, или просто факторами;
2)признаки, изменяющиеся под действием факторных признаков, называются результативными.
Связи между явлениями и их признаками классифицируются по степени тесноты связи, направлению и аналитическому выражению.
В статистике различают функциональную связь, при которой определенному значению факторного признак соответствует одно и только одно значение результативного признак; и стохастическую связь, при которой причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений. Частным случаем стохастической связи является корреляционная связь.
По направлению выделяют связь прямую и обратную.
При прямой связи с увеличением или уменьшением значений факторного признака происходит увеличение или уменьшение результативного (н-р, рост производительности труда способствует увеличению уровня рентабельности производства).
В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака. (н-р, с увеличением уровня фондоотдачи снижается себестоимость единицы произведенной продукции).
По аналитическому выражению выделяют связи прямолинейные (линейные) и нелинейные (криволинейные). Если статистическая связь между явлениями может приближенно выражена уравнением прямой линии, то ее называют линейной связью; если же она выражается уравнением какой-либо кривой линии (параболы, гиперболы и др.), то такую связь называют нелинейной.
Понятие корреляции появилось в середине XIX века в работах английских статистиков Ф. Гальтона и К. Пирсона. Этот термин произошел от латинского "correlatio" - соотношение, взаимосвязь. Понятие регрессии (латинское "regressio" - движение назад) также введено Ф. Гальтоном, который, изучая связь между ростом родителей и их детей, обнаружил явление "регрессии к среднему" - рост детей очень высоких родителей имел тенденцию быть ближе к средней величине.
Теория и методы корреляционного анализа используются для выявления связи между случайными переменными и оценки ее тесноты.
Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными.
В общем случае две величины могут быть связаны функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми.
Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой.
Статистическая зависимость, при которой изменение одной из величин влечет изменение среднего значения другой, называется корреляционной.
Корреляционные зависимости занимают промежуточное положение между функциональной зависимостью и полной независимостью переменных.
Между величинами, характеризующими экономические явления, в большинстве случаев существуют зависимости, отличные от функциональных. Действительно, в экономике закономерности не проявляются также точно и неизменно, как, например, в физике, химии или астрономии.
Пусть, например, мы рассматриваем зависимость величины Y от величины x - y(x).
Невозможность выявления строгой связи между двумя переменными объясняется тем, что значение зависимой переменной Y определяется не только значением переменной x, но и другими (неконтролируемыми или неучтенными) факторами, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.
Вследствие этого корреляционный анализ широко используется при установлении взаимосвязи экономических показателей.
Итак, если с увеличением x значение зависимой переменной Y в среднем увеличивается, то такая зависимость называется прямой или положительной.
Если среднее значение Y при увеличении x уменьшается, имеет место отрицательная или обратная корреляция.
Если с изменением x значения Y в среднем не изменяются, то говорят, что корреляция - нулевая.
Часто при исследовании взаимосвязи между какими-либо показателями, представляют изучаемый объект в виде так называемого "черного (кибернетического) ящика".
Самый простой случай - изучение связи между одной переменной x, которую называют фактором (входной переменной, независимой переменной), и переменной Y, которую называют откликом (реакцией, зависимой переменной).