- •1. Статистика как наука. Статистические закономерности. Статистические наблюдения. Статистические данные.
- •2. Основные задачи математической статистики.
- •3. Представления статистических данных.
- •4. Группировка данных. Графическое представление статистических данных. Гистограмма.
- •5. Группировка данных. Графическое представление статистических данных. Полигон, кумулята.
- •6. Генеральная совокупность. Выборочный метод. Выборка. Вариационный ряд.
- •7. Ранжирование данных. Эмпирическая функция распределения.
- •8. Эмпирические (выборочные) и теоретические моменты и их взаимосвязь.
- •9. Меры изменчивости. Вариация.
- •10. Дисперсия и её свойства.
- •11. Интервальные оценки. Методы нахождения интервальных оценок.
- •12. Элементы теории корреляции.
- •13. Статистическая и корреляционная зависимость. Меры связи.
- •14. Корреляционные таблицы. Коэффициент корреляции
- •15. Методы ранговой корреляции
- •16. Методы выявления различий в уровне исследуемого признака
- •17. Непараметрические критерии. Критерий Вилкоксона.
- •18. Непараметрические критерии. Критерий знаков.
- •19. Статистическая проверка гипотез. Понятие о статистической гипотезе.
- •20. Методы проверки гипотез, основанные на интервальных оценках.
- •21. Факторный анализ. Понятие факторного анализа.
- •22. Разновидности факторного анализа.
- •23. Элементы дисперсионного анализа.
- •24. Однофакторный и двухфакторный дисперсионный анализ.
- •25. Способы оценки достоверности сдвига в значениях исследуемого признака.
- •26. Многофункциональные статистические критерии.
- •27. Преимущества и недостатки параметрических критериев.
- •28. Вариация признака в совокупности и значение ее изучения
- •29. Понятие о корреляционной связи и предпосылки ее использования
- •30. Корреляционно-регрессионный анализ.
- •31. Способы формирования выборочной совокупности
- •32. Ошибки статистического наблюдения. Методы контроля данных наблюдения.
11. Интервальные оценки. Методы нахождения интервальных оценок.
Интервальный метод оценивания параметров распределения случайных величин заключается в определении интервала (а не единичного значения), в котором с заданной степенью достоверности будет заключено значение оцениваемого параметра. Интервальная оценка характеризуется двумя числами – концами интервала, внутри которого предположительно находится истинное значение параметра. Иначе говоря, вместо отдельной точки для оцениваемого параметра можно установить интервал значений, одна из точек которого является своего рода "лучшей" оценкой. Интервальные оценки являются более полными и надежными по сравнению с точечными, они применяются как для больших, так и для малых выборок. Совокупность методов определения промежутка, в котором лежит значение параметра, получила название методов интервального оценивания. Методы интервального оценивания:
12. Элементы теории корреляции.
Корреляция или корреляционная
зависимость -
статистическая взаимосвязь
двух или более случайных
величин. При этом изменения значений
одной или нескольких из этих величин
сопутствуют систематическому изменению
значений другой или других величин.
Математической
мерой корреляции двух случайных величин
служит корреляционное
отношение {\displaystyle
\mathbf {\eta } }либо коэффициент
корреляции. {\displaystyle
\mathbf {R} }В
случае если изменение одной случайной
величины не ведёт к закономерному
изменению другой случайной величины,
но приводит к изменению другой
статистической характеристики данной
случайной величины, то подобная связь
не считается корреляционной, хотя и
является статистической.
Метод
вычисления коэффициента корреляции
зависит от вида шкалы, к которой
относятся переменные. Так, для измерения
переменных с интервальной и количественной
шкалами необходимо использовать
коэффициент корреляции Пирсона:
формула:
,
где
,
—
среднее значение выборок. Коэффициент
корреляции изменяется в пределах от
минус единицы до плюс единицы. Если по
меньшей мере одна из двух переменных
имеет порядковую шкалу, либо не
является нормально распределённой,
необходимо использовать ранговую
корреляцию Спирмена:
формула:
,
где
n— кол-во ранжируемых признаков
(показателей, испытуемых). D —
разность между рангами по двум переменным
для каждого испытуемого. Σ(D2)
— сумма квадратов разностей рангов.
Или {\displaystyle
\mathbf {\tau } } (тау)
Кендалла: В упрощенном
виде формулу
коэффициента корреляции Кендалла можно
записать как:
.
При наличии связанных рангов формула
изменяется с учетом поправки на связанные
ранги:
,
где
P(p) — число совпадений, P(q) — число
инверсий, N — объем выборки,
—
поправка на связи рангов переменной
X,
—
поправка на связи рангов переменной Y.
Основные задачи теории корреляции:
определить есть ли связь между случайными величинами, если есть, то найти уравнение зависимости (уравнение регрессии);
определить силу (тесноту) связи между случайными величинами. Для определения самого факта связи между случайными величинами и тесноты связи служит коэффициент корреляции.
Уравнение регрессии позволяет предсказать, какие изменения в среднем будет претерпевать признак при изменении другого признака. Если уравнения регрессии являются линейными, то есть графиками будут прямые линии, то корреляционная зависимость называется линейной..
