
- •Мат.Статистика
- •1)Измерение социальных явлений и процессов. Измерительные шкалы: номинальные, ранговые (порядковые) и интервальные.
- •6) Интервальные оценки неизвестных параметров распределения по выборке. Доверительная вероятность. Доверительные интервалы.
- •7) Задачи интервального оценивания параметров нормального закона распределения.
- •8) Расчет объема выборочной совокупности.
- •9)Проверка статистических гипотез. Понятие статистической гипотезы. Уровень значимости. Нулевая гипотеза.
- •10)Проверка гипотезы о равенстве средних.
- •11) Проверка гипотез о законе распределения
- •12) Ранговый критерий проверки статистических гипотез Ван-дер-Вардена.
- •13) Понятие корреляционной зависимости между выборочными случайными величинами.
- •14) Связь номинальных признаков. Таблицы сопряженности. Коэффициент ассоциации Пирсона.
- •15) Связь порядковых признаков. Коэффициент корреляции рангов Спирмена.(первая чать вопроса не найдена!!!!!)
- •16) Связь количественных признаков. Корреляционная таблица. Линейный коэффициент корреляции. Уравнение регрессии.
- •Коэффициент линейной корреляции Пирсона
- •Уравнение регрессии
- •17) Случайное событие. Составные и элементарные события.
- •18) Достоверное и невозможное событие. Полная группа событий.
- •19) Произведение и сумма событий.
- •20) Понятие вероятности события. Классическая формула расчета вероятностей. Свойства вероятностей.
- •21) Независимые и зависимые события. Условная вероятность. Теорема умножения вероятностей.
- •22) Несовместные и совместные события. Теорема сложения вероятностей.
- •23) Формула полной вероятности. Формула Байеса.
- •24) Понятие дискретной случайной величины. Закон распределения. Ряд распределения. Функция распределения дискретной случайной величины.
- •25) Математическое ожидание и дисперсия дискретной случайной величины. Среднее квадратическое отклонение.
- •26) Функция распределения, плотность распределения непрерывной случайной величины, их взаимосвязь и свойства.
- •27) Математическое ожидание и дисперсия непрерывной случайной величины. Среднее квадратическое отклонение
- •28) Плотность распределения непрерывной случайной величины. Закон равномерной плотности.
- •29) Нормальный закон распределения случайной величины.
- •30) Функция Лапласа. Вероятность попадания величины, распределенной по нормальному закону, на заданный интервал.
- •31) Закон больших чисел.
- •32) Центральная предельная теорема Ляпунова.
16) Связь количественных признаков. Корреляционная таблица. Линейный коэффициент корреляции. Уравнение регрессии.
Корреляционная таблица сопряженности признаков.один из основных способов описания корреляционных связей между признаками, используемых для упорядочения информации о распределении изучаемой совокупности индивидов по двум признакам. К. т. имеет прямоугольную форму, число строк ее определяется количеством значений одного признака, а число столбцов m количеством значений другого. На пересечении, например, второй строки и третьего столбца в таблице проставляется число индивидов, у которых первый признак принимает второе значение из своего списка, а второй признак третье из своего Таблица имеет n m внутренних клеток. Кроме того, выделяются два маргинала (на полях-правом и нижнем). Первый маргинал это m 1-ый столбец, заполненный числами индивидов, у которых первый признак принимает свое первое значение (независимо от того, какое значение принимает второй признак, это сумма элементов первой внутренней строки), второе значение и т. д. до п.-ого. Второй маргинал это n 1-ая строка, заполненная суммами элементов соответствующих столбцов. Сумма элементов каждого маргинала равна числу индивидов. Такого рода распределения называют двумерными. Если п=, то говорят об одномерном распределении ( оно показывает, как распределены индивиды по одному, в данном случае второму признаку). Изучают и трехмерные распределения: для каждого значения третьего признака составляют свои двумерные распределения по первому и второму признакам и т. д. Таким образом, основной формой представления является двумерная К. т. Характер распределения индивидов по ее клеткам определяется характером связи между признаками. Поэтому по эмпирической таблице восстанавливают характер связи. Если связи нет, то число индивидов, попадающих в данную клетку таблицы, равно произведению маргиналов строки и столбца с соответствующими номерами, деленному на число всех индивидов. Таблицу, заполненную такими частотами, называют теоретической. Если связь есть, то эмпирическая таблица отличается от теоретической. Мерой отличия, характеризующей связь, является критерий Пирсона X2
Коэффициент линейной корреляции Пирсона
Наиболее распространенный коэффициент корреляции. Предназначен для расчета силы и направления линейной зависимости между переменными исследования.
Смысл коэффициента линейной корреляции.
Коэффициент линейной корреляции отражает меру линейной зависимости между двумя переменными. Предполагается, что переменные измерены в интервальной шкале либо в шкале отношений.
Если представить две переменные на координатном поле , то каждая пара значений будет отображать координаты точки в этом поле. Чем ближе точки к усредненной прямой, тем выше коэффициент корреляции (см. следующий рисунок ),.
Коэффициент корреляции будет положительным числом, когда при повышении X происходит повышение Y (прямопропорциональная связь), отрицательным при обратнопропорциональной связи. На иллюстрации изображены различные по силе положительные коэффициенты корреляции.
На следующей иллюстрации видны специально сгенерированные формы зависимостей и коэффициенты корреляции для них.
Как видим, линейный коэффициент корреляции срабатывает лишь при линейном характере взаимосвязи переменных.
Общая формула:
Где xi и yi - сравниваемые количественные признаки, n – число сравниваемых наблюдений, σx и σy – стандартные отклонения в сопоставляемых рядах.
Для расчетов вручную используется преобразованная формула:
Несмотря на кажущуюся громоздкость формулы, она значительно облегчает ручной расчет.
Иллюстрация расчетов:
Полученный коэффициент корреляции проверяется на значимость с помощью таблицы критических значений. Для этого вычисляем количество степеней свободы df=N-2 и на пересечении с необходимым уровнем значимости находим критическое значение коэффициента. В нашем случае df=8, уровень значимости выбираем 0,1. Получаем критический коэффициент r=0.54. Так как 0,69 > 0,54 делаем вывод о значимой корреляции (r=0,69;p≤0,1).