
- •Три этапа развития статистики
- •Основные этапы развития статистики
- •2. Предмет и задачи статистики
- •3.Основные понятия теории статистики
- •Сбор информации;
- •1.Организационные и методологические вопросы статистического наблюдения
- •2. Ошибки статистического наблюдения
- •Классификация ошибок статистического наблюдения
- •3. Организационные формы, виды и способы статистического наблюдения
- •1. Сводка и группировка (понятие и основные виды)
- •2.Ряды распределения: атрибутивные и вариационные
- •3.Статистические таблицы и графики, требования к составлению таблиц
- •Макет таблицы
- •4. Классификация как особый вид группировки. Роль классификаций в статистике
- •2. Классификация относительных показателей
- •Классификация относительных показателей
- •3. Понятие «средняя величина» и основные виды средних величин в статистике Понятие «средняя величина»
- •Различные виды средних величин и способы их расчета
- •В табл. 4.2 те же обозначения, что и в табл. 4.1.
- •Вспомогательная таблица для расчета простой и взвешенной средней арифметической
- •Исходные данные и вспомогательные расчеты для определения средней гармонической
- •1. Понятие вариации и основные виды показателей вариации
- •Вспомогательная таблица для расчета показателей вариации
- •На основе исходных данных вначале подсчитываются средние величины, а затем находятся отклонения от средних. Рекомендуется в расчетах показателей вариации пользоваться формулой средней взвешенной.
- •2.Свойства средней арифметической и дисперсии
- •Свойства дисперсии
- •(Свойство минимальности).
- •3. Изучение структурных характеристик вариационного ряда
- •2. Показатели концентрации и дифференциации
- •3. Показатели структурных сдвигов
- •Лекция №7. Методология организации выборочных наблюдений5.
- •1.Задачи выборочного наблюдения и различные способы формирования выборки
- •Способы отбора единиц из генеральной совокупности
- •2. Понятие «ошибка выборки» и способы ее расчета
- •3. Расчет оптимальной численности выборки
- •Лекция №8. Методы и показатели оценки тесноты статистических взаимосвязей.
- •1.Понятие «статистическая взаимосвязь»
- •2. Классификация методов оценки тесноты статистических связей
- •3. Аналитические показатели оценки тесноты взаимосвязей между количественно измеримыми признаками
- •Вспомогательная таблица для расчета рангового коэффициента корреляции Спирмена
- •4.Способы оценки тесноты взаимосвязей между качественными признаками
- •Лекция №9. Статистическое изучение динамики социально -экономических процессов и явлений.
- •2. Аналитические показатели динамики
- •Аналитические показатели динамики
- •3. Сглаживание (выравнивание) динамических рядов: механическое и аналитическое сглаживание
- •Лекция №10. Построение уравнений тренда и уравнений парной линейной регрессии
- •1. Сущность метода наименьших квадратов
- •2. Построение уравнений регрессии
- •Расчет параметров парной линейной регрессии
- •3. Построение уравнений тренда
- •Вспомогательная таблица для расчета параметров уравнений линейного и квадратического тренда
- •4. Расчет корреляционного отношения на основе уравнения регрессии
- •Способы отбора факторных переменных.
- •Исходные данные для построения уравнений регрессии
- •После подсчета сумм в нижней строке таблицы, находим линейный коэффициент корреляции:
- •Матрица коэффициентов парной корреляции
- •Использование метода наименьших квадратов для построения нелинейных уравнений регрессии
- •Нелинейные относительно оцениваемых параметров
- •1. Понятие «статистический индекс»
- •2.Различные виды статистических индексов и способы их расчета
- •Различные виды агрегатных индексов
- •Вспомогательная таблица для расчета агрегатных индексов по формулам Ласпейреса и Пааше
- •3. Сущность индексного метода в статистике
- •Примеры решения задач индексным методом.
- •1. Понятие «прогноз» и виды прогнозов
- •2. Сущность статистических методов прогнозирования и требования к исходной статистической информации
- •3.Прогнозирование на основе уравнений тренда
- •1.Кластерный анализ
- •Дискриминантный анализ
- •3.Факторный анализ (метод главных компонент)
3. Расчет оптимальной численности выборки
Определение необходимой численности выборки при заданной величине допустимой (предельной) ошибки выборки основывается на формуле Δ = tμ и формулах для определения ошибки μ, приведенных в табл. 7.2. Так как генеральная дисперсия неизвестна, то используют какие-либо ее оценки. Формулы для определения достаточной (оптимальной) численности выборки представлены в табл. 7.3.
Значение вероятности P достижения заданного предела ошибки выборки Δ определяется по таблице значений функции Лапласа, исходя из соотношения:
,
т.е. вначале рассчитывается t, а затем по таблице определяется P.
Таблица 7.3
Формулы расчета численности выборки при случайном (или механическом) отборе
Способ отбора |
Для средней |
Для доли |
Для доли, если даже приблизительно она неизвестна |
Повторный |
|
|
|
Бесповторный |
|
|
|
Лекция №8. Методы и показатели оценки тесноты статистических взаимосвязей.
Введение
Изучение статистических взаимосвязей занимает наиболее важное место в любом статистическом исследовании, так как статистика – это, прежде всего, наука о количественных закономерностях и взаимосвязях экономических явлений и процессов. Изучение статистических взаимосвязей позволяет выявить факторы (т.е. причины), влияющие на неблагоприятные события в жизни общества и экономике страны, и своевременно принять те или иные меры по регулированию этих процессов. Прежде, чем изучать разнообразные методы оценки статистических взаимосвязей, необходимо разобраться в том, что такое «статистическая взаимосвязь», и чем статистические связи отличаются от других видов взаимосвязей между явлениями.
1.Понятие «статистическая взаимосвязь»
В статистике принято выделять два вида связи между явлениями:
1) функциональные (или детерминированные);
2) статистические (или стохастические).
Для первого вида связи характерна однозначная строго определенная зависимость между взаимосвязанными показателями или признаками.
Для второго вида связи характерно то, что одному значению независимого признака или показателя может соответствовать несколько значений другого (зависимого) признака или показателя. Простейший пример: люди, имеющие одинаковый рост, не обязательно будут иметь одинаковый вес. Предприятия одинакового размера (то есть с одинаковой численностью работающих или одинаковой стоимостью имущества) совсем не обязательно будут иметь одинаковую прибыль или объем выпускаемой продукции. Но в то же время от размера предприятия зависит и объем продукции и его прибыль. Статистические связи обычно проявляются в среднем, массовом масштабе. Например, средний вес более высоких людей больше, чем средний вес более низких, но отдельный, более высокий человек, может иметь более низкий вес, чем другой человек, рост которого меньше.
Обычно, если между какими-то признаками или показателями имеется статистическая зависимость, то одни из них являются независимыми, то есть изменяются независимо от других, а другие, наоборот, зависимыми, то есть их изменения тесно зависят с изменением других. Условно можно считать, что независимые признаки являются причинами (т.е. факторами), а зависимые – следствиями или результатами.
В статистике независимые признаки принято называть факторными, а зависимые – результативными. Статистические связи обычно проявляются в среднем, массовом масштабе. Например, средний вес более высоких людей больше, чем средний вес более низких, но отдельный, более высокий человек, может иметь более низкий вес, чем другой человек, рост которого меньше.
Однако не всякая статистическая связь отражает какую-то причинно-следственную зависимость. Иногда статистическая зависимость может носить случайный характер и не отражать реальную причинно-следственную взаимосвязь. Обычно, обнаружив статистическую зависимость между какими-то процессами или явлениями, ученые выдвигают гипотезу о наличии причинно-следственной зависимости, а потом проверяют эту гипотезу на практике или доказывают ее истинность с помощью других методов.
Статистические связи в статистике часто называют корреляционными (от английского слова «correlation» - отношение или соотношение), а показатели, используемые для оценки степени тесноты статистических связей – показателями корреляции.
Само слово «корреляция» ввел в статистику английский биолог и статистик Френсис Гальтон в конец XIX века. Слово relation непосредственно означает «Связь», а слово «Correlation» значит «Как бы связь», т.е. связь, но не в привычной в то время функциональной форме.
Корреляционная зависимость между различными показателями (или признаками) может возникнуть разными путями.
Первый (важнейший) путь – причинно-следственная зависимость результативного признака и его вариации (изменений) от вариации факторного признака. Например, признак x – балл оценки степени плодородия почвы, а y – уровень урожайности сельскохозяйственной культуры. Здесь совершенно ясно логически, какой признак выступает как независимая переменная (фактор) x, а какой – как зависимая переменная (результат) y.
Второй путь – сопряженность, возникающая при наличии общей причины.
Известен классический пример ложной корреляции, приведенный когда-то крупнейшим статистиком России начала XX века А.А. Чупровым: если в качестве признака x принять число пожарных команд в городе, а в качестве признака y – сумму убытков за год в городе от пожаров, то можно обнаружить прямую корреляцию между этими признаками. Но нельзя сделать вывод о том, что чем больше в городе пожарных, тем чаще возникают пожары. Скорее всего, оба признака являются следствиями одной общей причины – размера города.
Третий путь – взаимное влияние признаков, каждый из которых является для другого одновременно и причиной и следствием. Такова, например, корреляция между производительностью труда рабочих и заработной платой. С одной стороны, уровень зарплаты – следствие роста производительности труда. Но, с другой стороны, установленные тарифные ставки и расценки играют стимулирующую роль. При правильной системе оплаты труда они выступают в качестве важного фактора, от которого зависит производительность труда.