- •Элементы теории вероятностей и математической статистики
- •Содержание
- •Введение
- •Элементы комбинаторики
- •Пример. Из семи заводов организация должна выбрать три для размещения трех различных заказов. Сколькими способами можно разместить заказы?
- •Пример. 6 человек из 15 можно выбрать числом способов, равным
- •Пример. Если из текста задачи 3 убрать условие различия трех заказов, сохранив все остальные условия, получим другую задачу.
- •Пример. Сколько четырехзначных чисел можно составить из цифр 0,1,2,3,4,5, если:
- •Пример. Новый президент банка должен назначить двух новых вице-президентов из числа десяти директоров. Сколько способов существует у президента, если:
- •Элементы теории вероятностей
- •§ 1. Предмет теории вероятностей
- •§ 2. Случайные события
- •Так как , то , каково бы ни было по своей природе событие а.
- •Если а - событие невозможное, то .
- •Если в- событие достоверное, то .
- •§ 3. Случайные величины и их характеристики
- •Сводная таблица характеристик законов распределения дискретных случайных величин
- •Сводная таблица характеристик законов распределения непрерывных случайных величин
- •§ 4. Двумерные случайные величины
- •§ 5. Закон больших чисел Центральная предельная теорема
- •Элементы математической статистики
- •§ 1. Предмет математической статистики
- •§ 2. Выборочная совокупность и ее характеристики
- •§ 3. Законы распределения выборочных характеристик
- •§ 4. Статистическое оценивание числовых характеристик случайной величины и ее закона распределения
- •§ 5. Статистические гипотезы
- •§ 6. Методы регрессионного и корреляционного анализа
- •Количественные критерии оценки тесноты связи (шкала Чеддока)
- •Контрольные задания Вариант 1
- •Рекомендуемая литература
- •Критические точки распределения χ2
- •Критические точки распределения Стьюдента
- •Критические точки распределения Фишера-Снедекора
- •Элементы теории вероятностей и математической статистики
- •192171, Г. Санкт-Петербург, ул. Седова, 55/1
§ 6. Методы регрессионного и корреляционного анализа
Основной целью изучения причинно-следственной зависимости является выявление связей, закономерностей и тенденций развития. Причинно-следственная зависимость выражает соотношение между функцией (следствием) и аргументом (причиной).
Различают две основные формы причинных зависимостей - статистическую и функциональную. При функциональной зависимости каждому возможному значению аргумента поставлено в однозначное соответствие определенное значение функции, т.е. Y = f(X).
Но такого рода однозначные (функциональные) связи между переменными величинами встречаются не всегда. Известно, например, что между ростом (длиной тела) и массой человека существует положительная связь - более высокие индивиды имеют обычно и большую массу, чем индивиды низкого роста. То же наблюдается и в отношении качественных признаков - блондины, как правило, имеют голубые, а брюнеты — карие глаза. Однако из этого правила имеются исключения, когда сравнительно низкорослые индивиды оказываются тяжелее высокорослых, и среди населения встречаются кареглазые блондины и голубоглазые брюнеты. Причина таких “исключений” в том, что каждый признак, выражаясь математическим языком, является функцией многих переменных. На его величину оказывает влияние и генетические и средовые факторы, в том числе и случайные, что вызывает варьирование признаков, т.е. в реальности на производимые наблюдения (признаки) воздействуют многочисленные факторы. В этих случаях зависимость между признаками приобретает не функциональный, а статистический характер. Статистическая связь состоит в том, что одна случайная переменная реагирует на изменение другой изменением своего закона распределения. Такого рода зависимость между переменными величинами называется корреляционной или корреляцией (термин “корреляция” происходит от лат. correlatio — соотношение, связь).
Статистические связи между переменными можно изучать методами корреляционного и регрессивного анализа. Корреляционный анализ, как и другие статистические методы, основан на использовании вероятностных моделей, описывающих поведение исследуемых признаков в некоторой генеральной совокупности, из которой получены экспериментальные значения xi и yi. Регрессионный анализ заключается в определении аналитического выражения связи, в котором изменение результативного признака обуславливается влиянием одного или нескольких факторных признаков, а множество всех прочих факторов принимается за постоянные (или усредненные) величины.
Основная задача корреляционного анализа - выявление связи между случайными переменными путем точечной и интервальных оценок. Метод корреляции применяется для того, чтобы при сложном взаимодействии посторонних влияний выяснить какой должна была быть зависимость между величинами, если бы посторонние факторы не изменялись, и своим изменением не искажали основную зависимость.
Теория корреляции решает три основные задачи:
определение корреляционных уравнений связи между двумя и более случайными величинами,
определение тесноты связи и вероятности получаемых характеристик,
обоснование методики проведения исследований по выявлению корреляционных связей.
Показателями тесноты между двумя случайными наблюдениями х и y являются коэффициент корреляции
,
и
- соответствующие средние квадратические
отклонения, N
- количество независимых наблюдений.
Для нахождения значения знаменателя в формуле коэффициента корреляции среднее квадратическое отклонение величин факторного признака вычисляется по формуле
где
,
а результативного — соответственно по формуле:
где
.
Коэффициент
корреляции не изменяется при изменении
начала отсчета и масштаба измерения
величин х
и y.
Он удовлетворяет неравенству
.
Знак «+» указывает на
связь прямую
(увеличение или уменьшение одного
признака сопровождается аналогичным
изменением другого признака), знак «–»
– на связь
обратную
(увеличение или уменьшение одного
признака сопровождается противоположным
по направлению изменением другого
признака).
Если r
= ±1, то
между величинами существует тесная
линейная связь, если r=0,
нет линейной корреляционной зависимости
(но может быть нелинейная).
Таблица 6.1.
