
- •Тв и мс практикум
- •Глава 1. Случайные события
- •1.1. Классическое определение вероятности, геометрическая вероятность. Действия над событиями
- •Классическое определение вероятности
- •Геометрическая вероятность
- •Действия над событиями
- •Теоремы сложения и умножения вероятностей
- •Примеры
- •1.2. Формула полной вероятности. Формула гипотез (Формула Байеса) Примеры
- •1.2. Повторные испытания. Схема Бернулли. Локальная и интегральная формулы Лапласа
- •Примеры
- •Глава 2. Случайные величины
- •2.1. Дискретные случайные величины
- •Примеры
- •2.2. Непрерывные случайные величины
- •Примеры
- •Глава 3. Выборочный метод
- •Примеры
- •Глава 4. Числовые выборочные характеристики
- •4.1. Средние величины
- •4.2. Показатели вариации
- •4.3. Начальные и центральные моменты вариационного ряда
- •Примеры
- •Глава 5. Статистические оценки параметров распределения
- •5.1. Понятие оценки параметров
- •5.2. Точечные статистические оценки параметров распределения
- •Примеры
- •5.3. Интервальные оценки
- •Примеры
- •Глава 6. Проверка статистических гипотез
- •6.1. Статистическая гипотеза и общая схема ее проверки
- •6.2. Проверка статистической гипотезы о том, что среднее значение генеральной совокупности на уровне значимости
- •Примеры
- •6.3. Сравнение двух генеральных средних
- •Примеры
- •6.4. Проверка гипотезы о равенстве дисперсий двух нормально распределенных совокупностей
- •Примеры
- •6.5. Критерии согласия
- •Примеры
- •Примеры
- •6.6. Проверка гипотезы об однородности выборок
- •Примеры
- •Глава 7. Корреляционный и регрессионный анализ. Выявление связи между величинами
- •Примеры
- •Критические точки распределения Стьюдента
- •Критические точки распределения f Фишера-Снедекора
- •Критические точки распределения χ2
Примеры
При уровне значимости проверить нулевую гипотезу об однородности двух выборок объемов n1=6 и n2=8:
xi: 15 23 25 26 28 29
yi: 12 14 18 20 22 24 27 30
Конкурирующая гипотеза Н1: .
Решение. Составим таблицу:
порядковый номер |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
варианты |
12 |
14 |
15 |
18 |
20 |
22 |
23 |
24 |
25 |
26 |
27 |
28 |
29 |
30 |
=
3+7+9+10+12+13 = 54;
q = α/2 = 0,05/2 = 0,025; n1 = 6, n2 = 8.
=
29;
= (6+8+1)·6–29 = 61.
Итак, 29<54<61, следовательно, нет оснований отвергать нулевую гипотезу об однородности выборок.
При уровне значимости 0,01 проверить нулевую гипотезу об однородности двух выборок объемов n1=30 и n2=50 при конкурирующей гипотезе Н1: , если известно, что =1600.
Решение.
Найдем zкр;
Ф(
zкр
=2,58;
=81·30 – 954 = 1476.
Так
как 1600 > 1476 (
)
– нулевая гипотеза отвергается.
Глава 7. Корреляционный и регрессионный анализ. Выявление связи между величинами
Корреляционный метод позволяет получить числовые показатели, характеризующие степень (тесноту) связи между двумя или несколькими признаками.
Для характеристики количественной связи между явлениями и отдельными признаками следует различать функциональную (полную) и статистическую (неполную) связь между признаками.
Статистической называют зависимость случайной величины Y от X, при которой изменение одной из величин (X) влечет изменение другой (Y).
Возникновение понятия статистической связи обуславливается тем, что зависимая переменная подвержена влиянию ряда контролируемых или неучтенных факторов, а также тем, что изменение значений переменных неизбежно сопровождается некоторыми случайными ошибками.
Корреляционная зависимость между двумя переменными величинами – это зависимость между значениями одной из них и условным математическим ожиданием другой.
Сравнивая различные виды зависимости между Х и Y, можно сказать, что с изменением значений переменной Х при функциональной зависимости однозначно изменяется определенное значение переменной Y, при корреляционной – определенное среднее значение Y, при статистической – определенное распределение переменной Y.
Статистические связи между переменными можно изучать методами корреляционного и регрессионного анализа. Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными. Основной задачей корреляционного анализа является выявление связи между случайными переменными и оценка ее тесноты.
Установление форм связи и подбор математического уравнения в большинстве случаев решается на основе логического анализа предыдущих исследований, данных статистических группировок, графического метода.
Линейная парная связь выражается уравнением прямой регрессии:
где а – угловой коэффициент прямой регрессии Y на Х, называемый выборочным коэффициентом регрессии.
При малых выборках данные не группируются. Параметры а и b находятся по методу наименьших квадратов из нормальной системы уравнений
(7.1)
где n – число наблюдаемых значений пар взаимосвязанных величин (xi;yi).
Выборочные уравнения прямой линии регрессии имеют вид:
-
уравнение прямой регрессии Y
на Х;
(7.2)
-
уравнение прямой регрессии Х
на Y.
(7.3)
Выборочный
линейный коэффициент корреляции
характеризует тесноту связи между Х
и Y.
Коэффициент
корреляции
находится по формуле:
(8)
где
и
-
выборочные средние случайных величин
Х
и Y;
-
среднее значение произведений
и
-
выборочные средние квадратические
отклонения,
Свойства коэффициента корреляции :
1) Если =0, то Х и Y не связаны корреляционной зависимостью;
2)
Если
то
Х
и Y
связаны функциональной зависимостью;
3) Если коэффициент корреляции положителен, то связь прямая; если коэффициент корреляции отрицателен, то связь обратная;
4)
Связь тем теснее, чем
ближе к единице:
|
|
|
|
связь практически отсутствует |
связь слабая |
связь умеренная |
связь высокая |