- •Предисловие
- •Элементы теории вероятностей
- •1.1. Случайные величины. Вероятность случайного события
- •1.2. Закон распределения дискретной случайной величины
- •1.3. Интегральная функция распределения
- •1.4. Дифференциальная функция распределения
- •1.5. Равномерное распределение непрерывной случайной величины
- •1.6. Числовые характеристики случайных величин
- •1.7. Нормальный закон распределения вероятностей непрерывной случайной величины
- •2. Элементы математической статистики
- •2.1. Предмет и задачи математической статистики
- •2.2. Генеральная и выборочная совокупности
- •2.3. Графическое представление статистических рядов
- •2.4. Выборочные характеристики
- •2.4.1. Средние величины
- •2.4.2. Выборочные центральные моменты. Асимметртя и эксцесс
- •2.4.4. Степень свободы.
- •2.5. Статистические оценки параметров распределения.
- •2.6. Функции распределения в математической статистике.
- •2.6.1. Распределение хи-квадрат ( )
- •2.6.2. Статистические гипотезы. Критерии согласия.
- •2.6.3. Критерий согласия Пирсона.
- •2.6.4. Распределение Стьюдента.
- •2.6.5. Распределение Фишера.
- •2.7. Доверительные интервалы
- •Доверительный интервал для неизвестного математического ожидания a нормально распределенного признака с известным средним квадратическим отклонением находят по формуле
- •2. При определении доверительного интервала в случае нормального распределения при неизвестном σ признака X в генеральной совокупности применяют случайную величину
- •2.8. Элементы линейного регрессионного и корреляционного анализа
- •2.8.1. Элементы корреляционной зависимости. Коэффициент корреляции
- •2.8.2. Линейная регрессия. Коэффициенты регрессии.
- •2.9. Критерии достоверности выборочных показателей
- •2.10. Элементы дисперсионного анализа.
- •2.10.1. Однофакторный дисперсионный анализ.
- •2.10.2 Двухфакторный дисперсионный анализ
- •3. Ms Excel в статистике
- •3.1. Интервальный и дискретный вариационный ряд. Графическое представление статистических рядов.
- •3.2. Описательная статистика
- •Сервис Анализ данных Описательная статистика ок;
- •Группирование По столбцам;
- •3.3. Корреляционный анализ
- •Сервис Анализ данных Корреляция ок;
- •3.4. Дисперсионный анализ
- •Сервис Анализ данных Дфухфакторный дисперсионный анализ с повторениями ок;
- •Приложения
- •Продолжение приложения 3
- •Критические точки распределения
2.8.2. Линейная регрессия. Коэффициенты регрессии.
Для изучения
корреляционных связей большое значение
имеет коэффициент регрессии
,
который показывает, насколько в среднем
изменяется признак (Х), если коррелирующий
с ним признак (У) изменяется на определенную
величину.
Коэффициент
регрессии в конкретной выборке имеет
два значения, а именно:
и
,
т.е. прямое и обратное влияние признаков
друг на друга. Формула для расчета
коэффициента имеет вид:
;
Выше рассматривали пример на вычисление связи между живой массой бройлеров (кросс «Смена-4», реконструированные птичники) и убойным выходом. Связь этих признаков, выраженная через коэффициент корреляции, оказалась средней, r = 0,39, средние квадратические отклонения
Вычислим коэффициенты регрессии. Подставим полученные данные в формулу коэффициента регрессии.
Регрессия живой массы на убойный выход:
, т.е. с увеличением
убойного выхода на 1% живая масса бройлеров
увеличивается в среднем на 62,5г.
Регрессия убойного
выхода на живую массу:
,
т.е. с увеличением живой массы на
1 г убойный выход увеличивается в среднем на 0,0024%.
Также можно вычислить коэффициент регрессии по формулам:
;
Зная коэффициенты регрессии, можно вычислить коэффициент корреляции:
Уравнение прямой регрессии.
Статистическую зависимость Y от X описывают с помощью уравнения вида
где
- условное
математическое ожидание величины Y,
соответствующее данному значению х; х
– отдельные значения величины Х;
- некоторая функция.
Это уравнение называется уравнением
регрессии Y
на Х.
Обратную статистическую зависимость можно описать уравнением регрессии X на Y:
где
- условное
математическое ожидание величины Х,
соответствующее данному значению y
случайной величины Y;
- некоторая функция.
Функции и называют соответственно регрессиями Y на X и X на Y, а их графики – линиями регрессии Y на Х и X на Y. Уравнения регрессии выражают математическое ожидание случайной величины Y (или X) для случая, когда другая переменная принимает определенное число.
В зависимости от вида уравнений регрессии и формы соответствующих линий регрессии говорят о различной форме статистической зависимости между изучаемыми величинами – линейной, квадратичной, показательной и т.д.
Если функции , линейные, т.е. уравнения регрессии можно представить в виде:
,
где A,B,C,D – некоторые параметры, то описываемые этими уравнениями зависимости Y от X и X от Y называются линейными; линии регрессии при этом – прямые. Если линия регрессии не является прямой, то такую зависимость называют нелинейной.
Как уже было сказано
выше, возможности практического
применения статистической зависимости
весьма
ограниченны. Поэтому для характеристики
формы связи между двумя случайными
величинами, полученными в результате
выборочных наблюдений, используют
корреляционную зависимость
(или
).
Уравнения, описываемые подобной
зависимостью, называют выборочными
уравнениями регрессии.
Если функции , линейные, то выборочные уравнения линейной регрессии Y на Xи X на Y можно представить в виде:
,
где
и
- условные средние
значения величин Y
и X,
параметры b
и d
- оценки B
и D,
и
- выборочные оценки коэффициентов A
и C.
Угловые коэффициенты и линий регрессии носят названия выборочных коэффициентов регрессии Y на X и X на Y соответственно. Они определяются как:
;
,
где
Из курса аналитической геометрии следует, что коэффициент линейной регрессии (угловой коэффициент линии регрессии) численно равен тангенсу угла наклона линии регрессии к соответствующей оси координат. Следовательно, чем больше, например, коэффициент линейной регрессии Y на X, то есть чем больше угол наклона прямой к оси Ох, тем больше изменяется среднее значение величины Y при изменении значений величины X.
