
- •§ 1. Испытания и события
- •§ 2. Виды случайных событий
- •§ 3. Классическое определение вероятности
- •§ 4. Основные формулы комбинаторики
- •§ 5. Примеры непосредственного вычисления вероятностей
- •§ 6. Относительная частота. Устойчивость относительной частоты
- •§ 7. Ограниченность классического определения вероятности. Статистическая вероятность
- •§ 8. Геометрические вероятности
- •§ 1. Теорема сложения вероятностей несовместных событий
- •§ 2. Полная группа событий
- •§ 4. Принцип практической невозможности маловероятных событий *
- •§ 1. Произведение событий
- •§ 2. Условная вероятность
- •§ 3. Теорема умножения вероятностей
- •§ 4. Независимые события. Теорема умножения для независимых событий
- •§ 5. Вероятность появления хотя бы одного события
- •§ 1. Теорема сложения вероятностей совместных событий
- •§ 2. Формула полной вероятности
- •§ 3. Вероятность гипотез. Формулы Бейеса
- •§ 1. Формула Бернулли
- •§ 2. Локальная теорема Лапласа
- •§ 3. Интегральная теорема Лапласа
- •§ 4. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях
- •§ 1. Случайная величина
- •§ 2. Дискретные и непрерывные случайные величины
- •§ 3. Закон распределения вероятностей дискретной случайной величины
- •§ 4. Биномиальное распределение
- •§ 5. Распределение Пуассона
- •§ 6. Простейший поток событий
- •§ 7. Геометрическое распределение
- •§ 8. Ги пер геометрическое распределение
- •§ 1. Числовые характеристики дискретных случайных величин
- •§ 2. Математическое ожидание дискретной случайной величины
- •§ 3. Вероятностный смысл математического ожидания
- •§ 4. Свойства математического ожидания
- •§ 5. Математическое ожидание числа появлг I события в независимых испытаниях
- •§ 1. Целесообразность введения числовой характеристики рассеяния случайной величины
- •§ 2. Отклонение случайной величины от ее математического ожидания
- •§ 3. Дисперсия дискретной случайной величины
- •§ 4. Формула для вычисления дисперсии
- •§ 5. Свойства дисперсии
- •§ 6. Дисперсия числа появлений события в независимых испытаниях
- •§ 7. Среднее квадратическое отклонение
- •§ 8. Среднее квадратическое отклонение суммы взаимно независимых случайных величин
- •§ 9. Одинаково распределенные взаимно независимые случайные величины
- •§ 10. Начальные и центральные теоретические моменты
- •§ 1. Предварительные замечания
- •§ 2. Неравенство Чебышева
- •§ 3. Теорема Чебышева
- •§ 4. Сущность теоремы Чебышева
- •§ 5. Значение теоремы Чебышева для практики
- •§ 6. Теорема Бернулли
- •§ 1. Определение функции распределения
- •§ 2. Свойства функции распределения
- •§ 3. График функции распределения
- •3. Дискретная случайная величина X задана законом распрс. Деления
- •§ 1. Определение плотности распределения
- •§ 2. Вероятность попадания непрерывной случайной величины в заданный интервал
- •§ 3. Нахождение функции распределения по известной плотности распределения
- •§ 4. Свойства плотности распределения
- •§ 5. Вероятностный смысл плотности распределения
- •§ 6. Закон равномерного распределения вероятностей
- •§ 1. Числовые характеристики непрерывных случайных величин
- •§ 2. Нормальное распределение
- •§ 3. Нормальная кривая
- •§ 4. Влияние параметров нормального распределения на форму нормальной кривой
- •§ 5. Вероятность попадания в заданный интервал нормальной случайной величины
- •§ 6. Вычисление вероятности заданного отклонения
- •§ 7. Правило трех сигм
- •§ 8. Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы
- •§ 9. Оценка отклонения теоретического распределения от нормального. Асимметрия и эксцесс
- •§10. Функция одного случайного аргумента и ее распределение
- •§ 11. Математическое ожидание функции одного случайного аргумента
- •§ 12. Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Устойчивость нормального распределения
- •§ 13. Распределение «хи квадрат»
- •§ 14. Распределение Стьюдента
- •§ 15. Распределение f Фишера — Снедекора
- •§ 1. Определение показательного распределения
- •§ 2. Вероятность попадания в заданный интервал показательно распределенной случайной величины
- •§ 3. Числовые характеристики показательного распределения
- •§ 4. Функция надежности
- •§ 5. Показательный закон надежности
- •§ 6. Характеристическое свойство показательно,, закона надежности
- •§ 1. Понятие о системе нескольких случайных величин
- •§ 2. Закон распределения вероятностей дискретной двумерной случайной величины
- •§ 3. Функция распределения двумерной случайной величины
- •§ 4. Свойства функции распределения двумерной случайной величины
- •§ 5. Вероятность попадания случайной точки в полуполосу
- •§ 6. Вероятность попадания случайной точки в прямоугольник
- •§ 7F Плотность совместного распределения вероятностей непрерывной, двумерной случайной величины (двумерная плотность вероятности)
- •§ 8. Нахождение функции распределения системы по известной плотности распределения
- •§ 9. Вероятностный смысл двумерной плотности вероятности
- •§ 10. Вероятность попадания случайной точки в произвольную область
- •§11. Свойства двумерной плотности вероятности
- •§ 12. Отыскание плотностей вероятности составляющих двумерной случайной величины
- •§ 13. Условные законы распределения составляющих системы дискретных случайных величин
- •§ 14. Условные законы распределения составляющих системы непрерывных случайных величин
- •§ 15. Условное математическое ожидание
- •§ 16. Зависимые и независимые случайные величины
- •§ 17. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
- •§ 18. Коррелированность и зависимость случайных величин
- •§ 19. Нормальный закон распределения на плоскости
- •§ 20. Линейная регрессия. Прямые линии среднеквадратической регрессии
- •§ 21. Линейная корреляция. Нормальная корреляция
- •1. Найти законы распределения составляющих дискретной двумерной случайной величины, заданной законом распределения
- •§ 1. Задачи математической статистики
- •§ 2. Краткая историческая справка
- •§ 3. Генеральная и выборочная совокупности
- •§ 4. Повторная и бесповторная выборки. Репрезентативная выборка
- •§ 5. Способы отбора
- •§ 6. Статистическое распределение выборки
- •§ 7. Эмпирическая функция распределения
- •§ 8. Полигон и гистограмма
- •§ 1. Статистические оценки параметров распределения
- •§ 2. Несмещенные, эффективные и состоятельны оценки е
- •§ 3. Генеральная средняя
- •§ 4. Выборочная средняя
- •§ 5. Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних
- •§ 7. Отклонение от общей средней и его свойств
- •§ 8. Генеральная дисперсия
- •§ 9. Выборочная дисперсия
- •§ 10. Формула для вычисления дисперсии
- •§11. Групповая, внутри групповая, межгрупповая и общая дисперсии
- •§ 12. Сложение дисперсий
- •§ 13. Оценка генеральной дисперсии по исправленной выборочной
- •§ 14. Точность оценки, доверительная вероятность (надежность). Доверительный интервал
- •§15. Доверительные интервалы для оценки математического ожидания нормального распределения при известном о
- •§ 16. Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном о
- •§ 17. Оценка истинного значения измеряемой величины
- •§ 18. Доверительные интервалы для оценки среднего квадратического отклонения а нормального распределения
- •§ 19. Оценка точности измерений
- •§ 20. Оценка вероятности (биномиального распределения) по относительной частоте
- •§ 21. Метод моментов для точечной оценки параметров распределения
- •§ 22. Метод наибольшего правдоподобия
- •§ 23. Другие характеристики вариационного ряда
- •§ 1. Условные варианты
- •§ 2. Обычные, начальные и центральные эмпирические моменты
- •§ 3. Условные эмпирические моменты. Отыскание центральных моментов по условным
- •§ 4. Метод произведений для вычисления выборочных средней и дисперсии
- •§ 5. Сведение первоначальных вариант к равноотстоящим
- •§ 6. Эмпирические и выравнивающие (теоретические) частоты
- •§ 7. Построение нормальной кривой по опытным данным
- •§ 8. Оценка отклонения эмпирического распределения от нормального. Асимметрия и эксцесс
- •§ 1. Функциональная, статистическая и корреляционная зависимости
- •§ 2. Условные средние
- •§ 3. Выборочные уравнения регрессии
- •§ 4. Отыскание параметров выборочного уравнения Прямой линии среднеквадратичной регрессии по несгруппированным данным
- •§ 5. Корреляционная таблица
- •§ 7. Выборочный коэффициент корреляции
- •§ 8. Методика вычисления выборочного коэффициента корреляции
- •§ 9. Пример на отыскание выборочного уравнения прямой линии регрессии
- •§ 10. Предварительные соображения к введению меры любой корреляционной связи
- •§ 11. Выборочное корреляционное отношение
- •§ 12. Свойства выборочного корреляционного отношения
- •§13. Корреляционное отношение как мера корреляционной связи. Достоинства и недостатки этой меры
- •§ 14. Простейшие случаи криволинейной корреляции
- •§ 15. Понятие о множественной корреляции
- •§ 1. Статистическая гипотеза. Нулевая
- •§ 2. Ошибки первого и второго рода
- •§ 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия
- •§ 4. Критическая область. Область принятия гипотезы. Критические точки
- •§ 5. Отыскание правосторонней критической области
- •§ 6. Отыскание левосторонней и двусторонней критических областей
- •§ 7. Дополнительные сведения о выборе критической области. Мощность критерия
- •§ 8. Сравнение двух дисперсий нормальных генеральных совокупностей
- •§ 9. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности
- •§ 10. Сравнение двух средних нормальных
- •"Набл — ,...-. .....» . — 1 fV/o#
- •§ 12. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки)
- •§ 13. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности
- •§ 14. Связь между двусторонней критической областью и доверительным интервалом
- •§ 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних
- •§16. Пример на отыскание мощности критерия
- •§ 17. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (зависимые выборки)
- •§ 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события
- •§ 19. Сравнение двух вероятностей биномиальных распределений
- •§ 20. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема. Критерий Бартлетта
- •§ 21. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена
- •§ 22. Проверка гипотезы о значимости выборочного коэффициента корреляции
- •§ 24. Методика вычисления теоретических частот нормального распределения
- •§ 25. Выборочный коэффициент ранговой корреляции Спирмена и проверка гипотезы о его значимости
- •§ 26. Выборочный коэффициент ранговой корреляции Кендалла и проверка гипотезы о его значимости
- •§ 27. Критерий Вилкоксона и проверка гипотезы об однородности двух выборок
- •§ 1. Сравнение нескольких средних. Понятие о дисперсионном анализе
- •§ 2. Общая факторная и остаточная суммы квадратов отклонений
- •§ 3. Связь между общей, факторной и остаточной суммами
- •§ 4. Общая, факторная и остаточная дисперсии
- •§ 5. Сравнение нескольких средних методом дисперсионного анализа
- •§ 1. Предмет метода Монте — Карло
- •§ 2. Оценка погрешности метода Монте — Карло
- •§ 3. Случайные числа
- •§ 4. Разыгрывание дискретной случайной величины
- •§ 5. Разыгрывание противоположных событий
- •§ 6. Разыгрывание полной группы событий
- •§ 7. Разыгрывание непрерывной случайной величины. Метод обратных функций
- •§ 8. Метод суперпозиции
- •§ 9. Приближенное разыгрывание нормальной случайной величины
- •§ 1. Цепь Маркова
- •§ 2. Однородная цепь Маркова. Переходные вероятности. Матрица перехода
- •§ 3. Равенство Маркова
- •§ 1. Основные задачи
- •§ 2, Определение случайной функции
- •§ 3. Корреляционная теория случайных функций
- •§ 4. Математическое ожидание случайной функции
- •§ 5. Свойства математического ожидания случайной функции
- •§ 6. Дисперсия случайной функции
- •§ 7. Свойства дисперсии случайной функции
- •§ 8. Целесообразность введения корреляционной функции
- •§ 9. Корреляционная функция случайной Функции
- •§11. Нормированная корреляционная функция
- •§ 12. Взаимная корреляционная функция
- •§ 13. Свойства взаимной корреляционной функции
- •§ 14. Нормированная взаимная корреляционная функция
- •§ 15. Характеристики суммы случайных функций
- •§ 16. Производная случайной функции и ее характеристики
- •§ 17. Интеграл от случайной функции и его характеристики
- •§ 18. Комплексные случайные величины и их числовые характеристики
- •§ 19. Комплексные случайные функции и их характеристики
- •§ 1. Определение стационарной случайной функции
- •§ 2. Свойства корреляционной функции стационарной случайной функции
- •§ 3. Нормированная корреляционная функция стационарной случайной функции
- •§ 4, Стационарно связанные случайные функции
- •§ 5. Корреляционная функция производной стационарной случайной функции
- •§ 6. Взаимная корреляционная функция стационарной случайной функции и ее производной
- •§ 7. Корреляционная функция интеграла от стационарной случайной функции
- •§ 8. Определение характеристик эргодическмх стационарных случайных функций из опыта
- •§ 1. Представление стационарной случайной функции в виде гармонических колебаний со случайными амплитудами и случайными фазами
- •§ 2. Дискретный спектр стационарной случайной функции
- •§ 3. Непрерывный спектр стационарной случайной функции. Спектральная плотность
- •§ 4. Нормированная спектральная плотность
- •§ 5. Взаимная спектральная плотность стационарных и стационарно связанных случайных функций
- •§ 7. Стационарный белый шум
- •§ 8. Преобразование стационарной случайной функции стационарной линейной динамической системой
- •1Истику,
- •1Сч счсчсмсчсчсчсчсм c4c4c4cococjco сосососососо сососососо сосоч-ч- ч1
- •Гмурман Владимир Ефимович теория вероятностей и математическая статистика
§ 8. Сравнение двух дисперсий нормальных генеральных совокупностей
На практике задача сравнения дисперсий воз кает, если требуется сравнить точность приборов, струментов, самих методов измерений и т. д. ОчевиД ' предпочтительнее тот прибор, инструмент и метод, к° g рый обеспечивает наименьшее рассеяние результа измерений, т. е. наименьшую дисперсию.
288
ру генеральные совокупности ХиУ распределены рмально. По независимым выборкам с объемами, соот-^ственно равными п1 и п2, извлеченным из этих сово-р^пНостей, найдены исправленные выборочные дисперсии $ я SV- Требуется по исправленным дисперсиям при Жданном уровне значимости а проверить нулевую гипо-3 Зу) состоящую в том, что генеральные дисперсии раскуриваемых совокупностей равны между собой:
H0:D(X) = D(Y).
Учитывая, что исправленные дисперсии являются несмещенными оценками генеральных дисперсий (см. гл. XVI, § 13), т. е.
нулевую гипотезу можно записать так:
Таким образом, требуется проверить, что математические ожидания исправленных выборочных дисперсий равны между собой. Такая задача ставится потому, что обычно исправленные дисперсии оказываются различными. Возникает вопрос: значимо (существенно) или незначимо различаются исправленные дисперсии?
Если окажется, что нулевая гипотеза справедлива," т. е. генеральные дисперсии одинаковы, то различие исправленных дисперсий незначимо и объясняется случайными причинами, в частности случайным отбором объектов выборки. Например, если различие исправленных выборочных дисперсий результатов измерений, выполненных Двумя приборами, оказалось незначимым, то приборы имеют одинаковую точность.
Если нулевая гипотеза отвергнута, т. е. генеральные
Дисперсии неодинаковы, то различие исправленных дис-
Персий значимо и не может быть объяснено случайными
Ричинами, а является следствием того, что сами генераль-
иЫе Дисперсии различны. Например, если различие
С11равленных выборочных дисперсий результатов изме-
^ Ний, произведенных двумя приборами, оказалось зна-
мьщ, то точность приборов различна. 0 " качестве критерия проверки нулевой гипотезы н генеральных дисперсий примем отношение исправленной дисперсии к меньшей, т. е. слу-
'81 29
чайную величину
Величина F при условии справедливости уево гипотезы имеет распределение Фишера — Снедекоп-
(см. гл. XII, § 15) со степенями свободы k^ — n^ \
fe2 = n2—1, где пг — объем выборки, по которой вычислена большая исправленная дисперсия, п2 — объем выборки по которой найдена меньшая дисперсия. Напомним, 4Tq распределение Фишера — Снедекора зависит только от чисел степеней свободы и не зависит от других параметров
Критическая область строится в зависимости от вида конкурирующей гипотезы.
Первый случай. Нулевая гипотеза H0:D(X)~D(Y). Конкурирующая гипотеза HX:D (X) > D (Y).
В этом случае строят одностороннюю, а именно правостороннюю, критическую область, исходя из требования, чтобы вероятность попадания критерия F в эту область в предположении справедливости нулевой гипотезы была равна принятому уровню значимости:
P[F>FKV(a; klt fta)]=a.
Критическую точку FKP (a; kx, k2) находят по таблице критических точек распределения Фишера—Снедекора (см. приложение 7), и тогда правосторонняя критическая область определяется неравенством F > FKP, а область принятия нулевой гипотезы — неравенством F<FKV.
Обозначим отношение большей исправленной диспер' сии к меньшей, вычисленное по данным наблюдений; через /^иабл и сформулируем правило проверки нулевой гипотезы.
Правило 1. Для того чтобы при заданном уровне зн^' чимости проверить нулевую гипотезу H0:D(X) = D(Y[ о равенстве генеральных дисперсий нормальных совоку^' ностей при конкурирующей гипотезе HX:D (X) > D(Y>[ надо вычислить отношение большей исправленной диспер сии к меньшей, т. е.
Р С2 /С2
•* набл — "б'^м»
и по таблице критических точек распределения Фишер3 ( Снедекора, по заданному уровню значимости а и числ^, степеней свободы kl и k2 (&х—число степеней свобод большей исправленной дисперсии) найти критическ} точку FHa6jI(a; kx, kt).
290
Если FHa6jl<C FKP— нет оснований отвергнуть нулевую гцпотезу. Если FHa6jl> FKp — нулевую гипотезу отвергают.
Пример 1. По двум независимым выборкам объемов пх=12 и rt==l5, извлеченным из нормальных генеральных совокупностей v и У г найдены исправленные выборочные дисперсии sx= 11,41 и j2 =6,52. При уровне значимости 0,05 проверить нулевую гипотезу H.-D(X) = D(Y) о равенстве генеральных дисперсий при конкурирующей гилотезе HX:D (X) > D (Y).
v решение. Найдем отношение большей исправленной дисперсии к меньшей:
/7 = 11,41/6,52= 1,75.
Конкурирующая гипотеза имеет вид D (X) > D (Y), поэтому критическая область — правосторонняя.
По таблице приложения 7, по уровню значимости а = 0,05 и числам степеней свободы *1=12—1 = 11 и£2=15—1 = 14 находим критическую точку FKj, (0,05; 11, 14) = 2,56.
Так как /^абл < -^кр — нет оснований отвергнуть нулевую гипотезу о равенстве генеральных дисперсий.
Второй случай. Нулевая гипотеза H0:D(X) = D(Y). Конкурирующая гипотеза HX:D (X)^D(Y).
В этом случае строят двустороннюю критическую область, исходя из требования, чтобы вероятность попа-
о
Рис. 24
Дания критерия в эту область в предположении справедливости нулевой гипотезы была равна принятому Уровню значимости а.
Как выбрать границы критической области? Оказы-Вается, что наибольшая мощность (вероятность попадания кРитерия в критическую область при справедливости ^курирующей гипотезы)достигается тогда, когда вероят-"°сть попадания критерия в каждый из двух интервалов Ритической области равна а/2.
к Таким образом, если обозначить черег Fx левую границу Ритической области и через F2 — правую, то должны еть место соотношения (рис. 24):
Р (F < FJ = а/2, Р (F > Ft) =а/2.
видим, что достаточно найти критические точки, найти саму критическую область: F <Flf F > F%J
291
а также область принятия нулевой гипотезы: Ft < F <; р Как практически отыскать критические точки? а"
Правую критическую точку F2 = FKV(a/2; kt, k2) нахо, дят непосредственно по таблице критических точек раСч пределения Фишера—Снедекора по уровню значимости <х/;> и степеням свободы /гх и k2.
Однако левых критических точек эта таблица не со, держит и поэтому найти Ft непосредственно по таблиц^ невозможно. Существует способ, позволяющий преодолеть это затруднение. Однако мы не будем его описывать поскольку можно левую критическую точку и не отыски' вать. Ограничимся изложением того, как обеспечить поч падание критерия F в двустороннюю критическую облает^ с вероятностью, равной принятому уровню значимости с* Оказывается, достаточно найти правую критическую точку F2 при уровне значимости, вдвое меньшем заданного Тогда не только вероятность попадания критерия в «пр^ вую часть» критической области (т. е. правее F2) равна а/% но и вероятность попадания этого критерия в «леву^ часть» критической области (т. е. левее Fx) также равн^ а/2. Так как эти события несовместны, то вероятное^ попадания рассматриваемого критерия во всю двусторо^ нюю критическую область будет равна а/2 + а/2 = а.
Таким образом, в случае конкурирующей гипотез^ H1:D(X)¥=D(Y) достаточно найти критическую точ F F{2k k)
Правило 2. Для того чтобы при заданном уровне чимости а проверить нулевую гипотезу о равенстве г ральных дисперсий нормально распределенных совокуг, ностей при конкурирующей гипотезе Ht'D (Х)фр(У) надо вычислить отношение большей исправленной персии к меньшей, т. е. Ftta6]1 = sl/s^ и по таблице тических точек распределения Фишера—Снедекора уровню значимости а/2 (вдвое меньшем заданного) и чСч лам степеней свободы k1 и кг {k1—число степеней свобод^ большей дисперсии) найти критическую точку РКЩ
Если /7„абл<^кР—нет оснований отвергнуть н гипотезу. Если Fni6lt > FKV—нулевую гипотезу отвергаю^
Пример 2. По двум независимым выборкам, объемы * Р^х соответственно равны П!=10 и п2=18, извлеченным из нормы(- ч\ генеральных совокупностей X и Y, найдены исправленные а_1пч-ные дисперсии s^^l.23 и s2, = 0,41. При уровне значимости u.i
292
„„верить нулевую гипотезу о равенстве генеральных дисперсий при "Рнкурирующей гипотезе H1:D(X)^D(Y).
*° решение. Найдем отношение большей исправленной дисперсии меньшей:
* ^набл= 1,23/0,41=3.
п условию, конкурирующая гипотеза имеет вид D (X) ф D (Y),
этому критическая область — двусторонняя. п° По таблице, по уровню значимости, вдвое меньшем заданного,
яСПерсий отвергаем. Другими словами, выборочные исправленные дисперсии различаются значимо. Например, если бы рассматриваемые писперсии характеризовали точность двух методов измерений, то слеДУет пРеДпочесть тот метод, который имеет меньшую дисперсию (0,41)-