Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Статистика экзамен.docx
Скачиваний:
19
Добавлен:
26.09.2019
Размер:
359.26 Кб
Скачать
  1. Основные понятия исследования связей между явлениями: функциональная и статистическая зависимость, поле корреляции.

Исследование объективно существующих связей между явлениями - важнейшая задача общей теории статистики.

В процессе статистического исследования зависимостей вскрываются причинно-следственные отношения между явлениями, что позволяет выявлять факторы (признаки) оказывающие существенное влияние на вариацию изучаемых явлений и процессов. Причинно-следственные отношения - это связь явлений и процессов, когда изменение одного из них - причины - ведет к изменению другого - следствия.

Правильно вскрытые причинно-следственные связи позволяют установить силу воздействия отдельных факторов на результаты хозяйственной деятельности. Социально-экономические явления представляют собой результат одновременного воздействия большого числа причин. Следовательно, при изучении этих явлений необходимо выявлять главные, основные причины, абстрагируясь от второстепенных.

В основе первого этапа статистического изучения связи лежит качественный анализ изучаемого явления, связанный с анализом природы социального или экономического явления методами экономической теории, социологии, конкретной экономики. Второй этап - построение модели связи. Он базируется на методах статистики: группировках, средних величинах, таблицах и т. д. Третий, последний этап - интерпретация результатов - вновь связан с качественными особенностями изучаемого явления.

Статистика разработала множество методов изучения связей, выбор которых зависит от целей исследования и от поставленных задач. С вязи между признаками и явлениями, ввиду их большого разнообразия, классифицируются по ряду оснований.

Признаки по их значению для изучения взаимосвязи делятся на два класса:

1)признаки, обуславливающие изменение других, связанных с ними признаков, называются факторными, или просто факторами;

2)признаки, изменяющиеся под действием факторных признаков, называются результативными.

Связи между явлениями и их признаками классифицируются по степени тесноты связи, направлению и аналитическому выражению.

В статистике различают функциональную связь, при которой определенному значению факторного признак соответствует одно и только одно значение результативного признак; и стохастическую связь, при которой причинная зависимость проявляется не в каждом отдельном случае, а в общем, среднем при большом числе наблюдений. Частным случаем стохастической связи является корреляционная связь.

По направлению выделяют связь прямую и обратную.

При прямой связи с увеличением или уменьшением значений факторного признака происходит увеличение или уменьшение результативного (н-р, рост производительности труда способствует увеличению уровня рентабельности производства).

В случае обратной связи значения результативного признака изменяются под воздействием факторного, но в противоположном направлении по сравнению с изменением факторного признака. (н-р, с увеличением уровня фондоотдачи снижается себестоимость единицы произведенной продукции).

По аналитическому выражению выделяют связи прямолинейные (линейные) и нелинейные (криволинейные). Если статистическая связь между явлениями может приближенно выражена уравнением прямой линии, то ее называют линейной связью; если же она выражается уравнением какой-либо кривой линии (параболы, гиперболы и др.), то такую связь называют нелинейной.

Понятие корреляции появилось в середине XIX века в работах английских статистиков Ф. Гальтона и К. Пирсона. Этот термин произошел от латинского "correlatio" - соотношение, взаимосвязь. Понятие регрессии (латинское "regressio" - движение назад) также введено Ф. Гальтоном, который, изучая связь между ростом родителей и их детей, обнаружил явление "регрессии к среднему" - рост детей очень высоких родителей имел тенденцию быть ближе к средней величине.

Теория и методы корреляционного анализа используются для выявления связи между случайными переменными и оценки ее тесноты.

Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными.

В общем случае две величины могут быть связаны функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми.

Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой.

Статистическая зависимость, при которой изменение одной из величин влечет изменение среднего значения другой, называется корреляционной.

Корреляционные зависимости занимают промежуточное положение между функциональной зависимостью и полной независимостью переменных.

Между величинами, характеризующими экономические явления, в большинстве случаев существуют зависимости, отличные от функциональных. Действительно, в экономике закономерности не проявляются также точно и неизменно, как, например, в физике, химии или астрономии.

Пусть, например, мы рассматриваем зависимость величины Y от величины x - y(x).

Невозможность выявления строгой связи между двумя переменными объясняется тем, что значение зависимой переменной Y определяется не только значением переменной x, но и другими (неконтролируемыми или неучтенными) факторами, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.

Вследствие этого корреляционный анализ широко используется при установлении взаимосвязи экономических показателей.

Итак, если с увеличением x значение зависимой переменной Y в среднем увеличивается, то такая зависимость называется прямой или положительной.

Если среднее значение Y при увеличении x уменьшается, имеет место отрицательная или обратная корреляция.

Если с изменением x значения Y в среднем не изменяются, то говорят, что корреляция - нулевая.

Часто при исследовании взаимосвязи между какими-либо показателями, представляют изучаемый объект в виде так называемого "черного (кибернетического) ящика".

Самый простой случай - изучение связи между одной переменной x, которую называют фактором (входной переменной, независимой переменной), и переменной Y, которую называют откликом (реакцией, зависимой переменной).