- •Экзаменационный билет № 1
- •Основные задачи теории выборки
- •Экзаменационный билет № 3
- •Экзаменационный билет № 4
- •Доверительная вероятность
- •Средняя квадратическая и предельная ошибки выборки
- •Статистическая гипотеза и общая схема ее проверки
- •Бесповторный отбор:
- •Проверка гипотезы о равенстве дисперсий двух генеральных совокупностей
- •Статистическая и корреляционная зависимости между переменными
- •Коэффициент корреляции и его свойства
- •Основные задачи теории корреляции и регрессионного анализа
- •Парная регрессия
Основные задачи теории корреляции и регрессионного анализа
1.1. Основные задачи теории корреляции
1. Установить форму корреляционной связи, то есть вид функции регрессии (линейная, квадратичная, показательная и т. д.). Наиболее часто функции регрессии оказываются линейными. Если обе функции регрессии и линейны, то корреляцию называют линейной, в противном случае ее называют нелинейной. 2. Оценить тесноту корреляционной связи. Теснота корреляционной зависимости оценивается по величине рассеивания значения вокруг условной средней .Большое рассеивание свидетельствует о слабой зависимости от , либо об отсутствии зависимости. Малое рассеивание указывает на наличие достаточно сильной зависимости, возможно даже, что и связаны функционально, но под воздействием случайных факторов эта связь оказалась размытой, в результате чего при одном и том же значении величина принимает различные значения.
1.2. Задачи регрессионного анализа
Регрессионный анализ – анализ функции регрессии. С его помощью решаются следующие задачи:
-
Находят точечные и интервальные оценки параметров элементарной функции регрессии.
-
Производят точечные и интервальные оценки, необходимые для предсказания средних значений одной случайной величины, соответствующие функциональной зависимости от другой величины.
-
Производят согласование найденной элементарной функции с экспериментальными данными.
Экзаменационный билет № 16
Начальные и центральные моменты вариационного ряда
Средняя арифметическая и дисперсия вариационного ряда являются частными случаями более общего понятия – моментов вариационного ряда.
Начальный момент k-го порядка вариационного ряда определяется по формуле:
. (20)
Примечание. , т.е. средняя арифметическая является начальным моментом первого порядка вариационного ряда.
Центральный момент -го порядка вариационного ряда определяется по формуле:
. (21)
С помощью моментов распределения можно описать не только среднюю тенденцию, рассеяние, но и другие особенности вариации признака.
Примечание. , т.е. центральный момент первого порядка для любого распределения равен нулю, а второго порядка является дисперсией вариационного ряда.
Коэффициентом асимметрии вариационного ряда называется число
. (22)
Если , то распределение имеет симметрическую форму, т.е. варианты, равноудаленные от , имеют одинаковую частоту.
При говорят о положительной или отрицательной асимметрии.
Эксцессом (или коэффициентом эксцесса) вариационного ряда называется число
. (23)
Эксцесс является показателем «крутости»
Вариационного ряда по сравнению с нормальным распределением (эксцесс нормального распределения случайной величины равен нулю).
Если , то полигон вариационного ряда имеет более крутую (пологую) вершину по сравнению с нормальной кривой.
Парная регрессия
Построение модели парной регрессия (или однофакторная модель) заключается в нахождении уравнения связи двух показателей у и х, т.е. определяется как повиляет изменение одного показателя на другой.
Парная регрессия представляет собой регрессию между двумя переменными – y и x, т. е. модель вида:
y(x) = f^(x),
где y – зависимая переменная (результативный признак); x – независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых:
y = yx + ε,
где y – фактическое значение результативного признака; yx – теоретическое значение результативного признака, найденное исходя из уравнения регрессии; ε – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии.