- •§ 1. Испытания и события
- •§ 2. Виды случайных событий
- •§ 3. Классическое определение вероятности
- •§ 4. Основные формулы комбинаторики
- •§ 5. Примеры непосредственного вычисления вероятностей
- •§ 6. Относительная частота. Устойчивость относительной частоты
- •§ 7. Ограниченность классического определения вероятности. Статистическая вероятность
- •§ 8. Геометрические вероятности
- •§ 1. Теорема сложения вероятностей несовместных событий
- •§ 2. Полная группа событий
- •§ 4. Принцип практической невозможности маловероятных событий *
- •§ 1. Произведение событий
- •§ 2. Условная вероятность
- •§ 3. Теорема умножения вероятностей
- •§ 4. Независимые события. Теорема умножения для независимых событий
- •§ 5. Вероятность появления хотя бы одного события
- •§ 1. Теорема сложения вероятностей совместных событий
- •§ 2. Формула полной вероятности
- •§ 3. Вероятность гипотез. Формулы Бейеса
- •§ 1. Формула Бернулли
- •§ 2. Локальная теорема Лапласа
- •§ 3. Интегральная теорема Лапласа
- •§ 4. Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях
- •§ 1. Случайная величина
- •§ 2. Дискретные и непрерывные случайные величины
- •§ 3. Закон распределения вероятностей дискретной случайной величины
- •§ 4. Биномиальное распределение
- •§ 5. Распределение Пуассона
- •§ 6. Простейший поток событий
- •§ 7. Геометрическое распределение
- •§ 8. Ги пер геометрическое распределение
- •§ 1. Числовые характеристики дискретных случайных величин
- •§ 2. Математическое ожидание дискретной случайной величины
- •§ 3. Вероятностный смысл математического ожидания
- •§ 4. Свойства математического ожидания
- •§ 5. Математическое ожидание числа появлг I события в независимых испытаниях
- •§ 1. Целесообразность введения числовой характеристики рассеяния случайной величины
- •§ 2. Отклонение случайной величины от ее математического ожидания
- •§ 3. Дисперсия дискретной случайной величины
- •§ 4. Формула для вычисления дисперсии
- •§ 5. Свойства дисперсии
- •§ 6. Дисперсия числа появлений события в независимых испытаниях
- •§ 7. Среднее квадратическое отклонение
- •§ 8. Среднее квадратическое отклонение суммы взаимно независимых случайных величин
- •§ 9. Одинаково распределенные взаимно независимые случайные величины
- •§ 10. Начальные и центральные теоретические моменты
- •§ 1. Предварительные замечания
- •§ 2. Неравенство Чебышева
- •§ 3. Теорема Чебышева
- •§ 4. Сущность теоремы Чебышева
- •§ 5. Значение теоремы Чебышева для практики
- •§ 6. Теорема Бернулли
- •§ 1. Определение функции распределения
- •§ 2. Свойства функции распределения
- •§ 3. График функции распределения
- •3. Дискретная случайная величина X задана законом распрс. Деления
- •§ 1. Определение плотности распределения
- •§ 2. Вероятность попадания непрерывной случайной величины в заданный интервал
- •§ 3. Нахождение функции распределения по известной плотности распределения
- •§ 4. Свойства плотности распределения
- •§ 5. Вероятностный смысл плотности распределения
- •§ 6. Закон равномерного распределения вероятностей
- •§ 1. Числовые характеристики непрерывных случайных величин
- •§ 2. Нормальное распределение
- •§ 3. Нормальная кривая
- •§ 4. Влияние параметров нормального распределения на форму нормальной кривой
- •§ 5. Вероятность попадания в заданный интервал нормальной случайной величины
- •§ 6. Вычисление вероятности заданного отклонения
- •§ 7. Правило трех сигм
- •§ 8. Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы
- •§ 9. Оценка отклонения теоретического распределения от нормального. Асимметрия и эксцесс
- •§10. Функция одного случайного аргумента и ее распределение
- •§ 11. Математическое ожидание функции одного случайного аргумента
- •§ 12. Функция двух случайных аргументов. Распределение суммы независимых слагаемых. Устойчивость нормального распределения
- •§ 13. Распределение «хи квадрат»
- •§ 14. Распределение Стьюдента
- •§ 15. Распределение f Фишера — Снедекора
- •§ 1. Определение показательного распределения
- •§ 2. Вероятность попадания в заданный интервал показательно распределенной случайной величины
- •§ 3. Числовые характеристики показательного распределения
- •§ 4. Функция надежности
- •§ 5. Показательный закон надежности
- •§ 6. Характеристическое свойство показательно,, закона надежности
- •§ 1. Понятие о системе нескольких случайных величин
- •§ 2. Закон распределения вероятностей дискретной двумерной случайной величины
- •§ 3. Функция распределения двумерной случайной величины
- •§ 4. Свойства функции распределения двумерной случайной величины
- •§ 5. Вероятность попадания случайной точки в полуполосу
- •§ 6. Вероятность попадания случайной точки в прямоугольник
- •§ 7F Плотность совместного распределения вероятностей непрерывной, двумерной случайной величины (двумерная плотность вероятности)
- •§ 8. Нахождение функции распределения системы по известной плотности распределения
- •§ 9. Вероятностный смысл двумерной плотности вероятности
- •§ 10. Вероятность попадания случайной точки в произвольную область
- •§11. Свойства двумерной плотности вероятности
- •§ 12. Отыскание плотностей вероятности составляющих двумерной случайной величины
- •§ 13. Условные законы распределения составляющих системы дискретных случайных величин
- •§ 14. Условные законы распределения составляющих системы непрерывных случайных величин
- •§ 15. Условное математическое ожидание
- •§ 16. Зависимые и независимые случайные величины
- •§ 17. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
- •§ 18. Коррелированность и зависимость случайных величин
- •§ 19. Нормальный закон распределения на плоскости
- •§ 20. Линейная регрессия. Прямые линии среднеквадратической регрессии
- •§ 21. Линейная корреляция. Нормальная корреляция
- •1. Найти законы распределения составляющих дискретной двумерной случайной величины, заданной законом распределения
- •§ 1. Задачи математической статистики
- •§ 2. Краткая историческая справка
- •§ 3. Генеральная и выборочная совокупности
- •§ 4. Повторная и бесповторная выборки. Репрезентативная выборка
- •§ 5. Способы отбора
- •§ 6. Статистическое распределение выборки
- •§ 7. Эмпирическая функция распределения
- •§ 8. Полигон и гистограмма
- •§ 1. Статистические оценки параметров распределения
- •§ 2. Несмещенные, эффективные и состоятельны оценки е
- •§ 3. Генеральная средняя
- •§ 4. Выборочная средняя
- •§ 5. Оценка генеральной средней по выборочной средней. Устойчивость выборочных средних
- •§ 7. Отклонение от общей средней и его свойств
- •§ 8. Генеральная дисперсия
- •§ 9. Выборочная дисперсия
- •§ 10. Формула для вычисления дисперсии
- •§11. Групповая, внутри групповая, межгрупповая и общая дисперсии
- •§ 12. Сложение дисперсий
- •§ 13. Оценка генеральной дисперсии по исправленной выборочной
- •§ 14. Точность оценки, доверительная вероятность (надежность). Доверительный интервал
- •§15. Доверительные интервалы для оценки математического ожидания нормального распределения при известном о
- •§ 16. Доверительные интервалы для оценки математического ожидания нормального распределения при неизвестном о
- •§ 17. Оценка истинного значения измеряемой величины
- •§ 18. Доверительные интервалы для оценки среднего квадратического отклонения а нормального распределения
- •§ 19. Оценка точности измерений
- •§ 20. Оценка вероятности (биномиального распределения) по относительной частоте
- •§ 21. Метод моментов для точечной оценки параметров распределения
- •§ 22. Метод наибольшего правдоподобия
- •§ 23. Другие характеристики вариационного ряда
- •§ 1. Условные варианты
- •§ 2. Обычные, начальные и центральные эмпирические моменты
- •§ 3. Условные эмпирические моменты. Отыскание центральных моментов по условным
- •§ 4. Метод произведений для вычисления выборочных средней и дисперсии
- •§ 5. Сведение первоначальных вариант к равноотстоящим
- •§ 6. Эмпирические и выравнивающие (теоретические) частоты
- •§ 7. Построение нормальной кривой по опытным данным
- •§ 8. Оценка отклонения эмпирического распределения от нормального. Асимметрия и эксцесс
- •§ 1. Функциональная, статистическая и корреляционная зависимости
- •§ 2. Условные средние
- •§ 3. Выборочные уравнения регрессии
- •§ 4. Отыскание параметров выборочного уравнения Прямой линии среднеквадратичной регрессии по несгруппированным данным
- •§ 5. Корреляционная таблица
- •§ 7. Выборочный коэффициент корреляции
- •§ 8. Методика вычисления выборочного коэффициента корреляции
- •§ 9. Пример на отыскание выборочного уравнения прямой линии регрессии
- •§ 10. Предварительные соображения к введению меры любой корреляционной связи
- •§ 11. Выборочное корреляционное отношение
- •§ 12. Свойства выборочного корреляционного отношения
- •§13. Корреляционное отношение как мера корреляционной связи. Достоинства и недостатки этой меры
- •§ 14. Простейшие случаи криволинейной корреляции
- •§ 15. Понятие о множественной корреляции
- •§ 1. Статистическая гипотеза. Нулевая
- •§ 2. Ошибки первого и второго рода
- •§ 3. Статистический критерий проверки нулевой гипотезы. Наблюдаемое значение критерия
- •§ 4. Критическая область. Область принятия гипотезы. Критические точки
- •§ 5. Отыскание правосторонней критической области
- •§ 6. Отыскание левосторонней и двусторонней критических областей
- •§ 7. Дополнительные сведения о выборе критической области. Мощность критерия
- •§ 8. Сравнение двух дисперсий нормальных генеральных совокупностей
- •§ 9. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсией нормальной совокупности
- •§ 10. Сравнение двух средних нормальных
- •"Набл — ,...-. .....» . — 1 fV/o#
- •§ 12. Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых неизвестны и одинаковы (малые независимые выборки)
- •§ 13. Сравнение выборочной средней с гипотетической генеральной средней нормальной совокупности
- •§ 14. Связь между двусторонней критической областью и доверительным интервалом
- •§ 15. Определение минимального объема выборки при сравнении выборочной и гипотетической генеральной средних
- •§16. Пример на отыскание мощности критерия
- •§ 17. Сравнение двух средних нормальных генеральных совокупностей с неизвестными дисперсиями (зависимые выборки)
- •§ 18. Сравнение наблюдаемой относительной частоты с гипотетической вероятностью появления события
- •§ 19. Сравнение двух вероятностей биномиальных распределений
- •§ 20. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам различного объема. Критерий Бартлетта
- •§ 21. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена
- •§ 22. Проверка гипотезы о значимости выборочного коэффициента корреляции
- •§ 24. Методика вычисления теоретических частот нормального распределения
- •§ 25. Выборочный коэффициент ранговой корреляции Спирмена и проверка гипотезы о его значимости
- •§ 26. Выборочный коэффициент ранговой корреляции Кендалла и проверка гипотезы о его значимости
- •§ 27. Критерий Вилкоксона и проверка гипотезы об однородности двух выборок
- •§ 1. Сравнение нескольких средних. Понятие о дисперсионном анализе
- •§ 2. Общая факторная и остаточная суммы квадратов отклонений
- •§ 3. Связь между общей, факторной и остаточной суммами
- •§ 4. Общая, факторная и остаточная дисперсии
- •§ 5. Сравнение нескольких средних методом дисперсионного анализа
- •§ 1. Предмет метода Монте — Карло
- •§ 2. Оценка погрешности метода Монте — Карло
- •§ 3. Случайные числа
- •§ 4. Разыгрывание дискретной случайной величины
- •§ 5. Разыгрывание противоположных событий
- •§ 6. Разыгрывание полной группы событий
- •§ 7. Разыгрывание непрерывной случайной величины. Метод обратных функций
- •§ 8. Метод суперпозиции
- •§ 9. Приближенное разыгрывание нормальной случайной величины
- •§ 1. Цепь Маркова
- •§ 2. Однородная цепь Маркова. Переходные вероятности. Матрица перехода
- •§ 3. Равенство Маркова
- •§ 1. Основные задачи
- •§ 2, Определение случайной функции
- •§ 3. Корреляционная теория случайных функций
- •§ 4. Математическое ожидание случайной функции
- •§ 5. Свойства математического ожидания случайной функции
- •§ 6. Дисперсия случайной функции
- •§ 7. Свойства дисперсии случайной функции
- •§ 8. Целесообразность введения корреляционной функции
- •§ 9. Корреляционная функция случайной Функции
- •§11. Нормированная корреляционная функция
- •§ 12. Взаимная корреляционная функция
- •§ 13. Свойства взаимной корреляционной функции
- •§ 14. Нормированная взаимная корреляционная функция
- •§ 15. Характеристики суммы случайных функций
- •§ 16. Производная случайной функции и ее характеристики
- •§ 17. Интеграл от случайной функции и его характеристики
- •§ 18. Комплексные случайные величины и их числовые характеристики
- •§ 19. Комплексные случайные функции и их характеристики
- •§ 1. Определение стационарной случайной функции
- •§ 2. Свойства корреляционной функции стационарной случайной функции
- •§ 3. Нормированная корреляционная функция стационарной случайной функции
- •§ 4, Стационарно связанные случайные функции
- •§ 5. Корреляционная функция производной стационарной случайной функции
- •§ 6. Взаимная корреляционная функция стационарной случайной функции и ее производной
- •§ 7. Корреляционная функция интеграла от стационарной случайной функции
- •§ 8. Определение характеристик эргодическмх стационарных случайных функций из опыта
- •§ 1. Представление стационарной случайной функции в виде гармонических колебаний со случайными амплитудами и случайными фазами
- •§ 2. Дискретный спектр стационарной случайной функции
- •§ 3. Непрерывный спектр стационарной случайной функции. Спектральная плотность
- •§ 4. Нормированная спектральная плотность
- •§ 5. Взаимная спектральная плотность стационарных и стационарно связанных случайных функций
- •§ 7. Стационарный белый шум
- •§ 8. Преобразование стационарной случайной функции стационарной линейной динамической системой
- •1Истику,
- •1Сч счсчсмсчсчсчсчсм c4c4c4cococjco сосососососо сососососо сосоч-ч- ч1
- •Гмурман Владимир Ефимович теория вероятностей и математическая статистика
§ 1. Сравнение нескольких средних. Понятие о дисперсионном анализе
Пусть генеральные совокупности Xlt Х2, ..., Хр распределены нормально и имеют одинаковую, хотя и неизвестную, дисперсию; математические ожидания также неизвестны, но могут быть различными. Требуется при заданном уровне значимости по выборочным средним проверить нулевую гипотезу Н0:М (Хх) = М (Х2) = ... = =М (Хр) о равенстве всех математических ожиданий. Другими словами, требуется установить, значимо или незначимо различаются выборочные средние. Казалось бы, для сравнения нескольких средних (р > 2) можно сравнить „их попарно. Однако с возрастанием числа средних возрастает и наибольшее различие между ними: среднее новой выборки может оказаться больше наибольшего или меньше наименьшего из средних, полученных до нового опыта. По этой причине для сравнения нескольких средних пользуются другим методом, который основан на сравнении дисперсий и поэтому назван дисперсионным анализом (в основном развит английским статистиком Р. Фишером).
На практике дисперсионный анализ применяют, чтобы установить, оказывает ли существенное влияние некоторый качественный фактор F, который имеет р уровней Flt F2, ..., Fp на изучаемую величину X. Например, если требуется выяснить, какой вид удобрений наиболее эФфективен для получения наибольшего урожая, то фактор р—удобрение, а его уровни — виды удобрений.
Основная идея дисперсионного анализа состоит в сравнении «факторной дисперсии», порождаемой воздействием Фактора, и «остаточной дисперсии», обусловленной слу-Чайными причинами. Если различие между этими дис-
349
персиями значимо, то фактор оказывает существенн влияние на X; в этом случае средние наблюдаемых чений на каждом уровне (групповые средние) ются также значимо.
Если уже установлено, что фактор существенно влияет на X, а требуется выяснить, какой из уровней оказьь вает наибольшее воздействие, то дополнительно проИз* водят попарное сравнение средних.,
Иногда дисперсионный анализ применяется, чтобы установить однородность нескольких совокупностей (дисперсии этих совокупностей одинаковы по предположению; если дисперсионный анализ покажет, что и мате-матические ожидания одинаковы, то в этом смысле сово-купности однородны). Однородные же совокупности можно объединить в одну и тем самым получить о ней более полную информацию, следовательно, и более надежные выводы.
В более сложных случаях исследуют воздействие нескольких факторов на нескольких постоянных или случайных уровнях и выясняют влияние отдельных уровней и их комбинаций (многофакторный анализ).
Мы ограничимся простейшим случаем однофакторного анализа, когда на X воздействует только один фактор, который имеет р постоянных уровней.
§ 2. Общая факторная и остаточная суммы квадратов отклонений
Пусть на количественный нормально распределенный признак X воздействует фактор F, который имеет р постоянных уровней. Будем предполагать, что число
Таблица 30
Номер испытания |
Уровни фактора F. |
|||
F, |
Ft |
... |
|
|
] 2 Я |
Хц Hi XqX |
Хц *22 Хер, |
... |
Х1р Хър Xqp |
Групповая средняя |
*гр |
*Гр2 |
|
*Грр |
350
наблюдений
(испытаний)
на каждом уровне одинаково
и равно q.
Пусть наблюдалось n — pq значений х^ признака X, где i — номер испытания (i = 1, 2, ..., q), j—номер уровня фактора (/=1, 2, ...,р). Результаты наблюдений приведены в табл. 30.
Введем, по определению,
S =2 2 (х- —xY
(общая сумма квадратов отклонений наблюдаемых значе-нцй от общей средней х),
р _ _
/ = 1 ^ J
(факторная сумма квадратов отклонений групповых средних от общей средней, которая характеризует рассеяние «между группами»),
Q
+ .S (,, r^Y+ + 2 (iprppy
(остаточная сумма квадратов отклонений наблюдаемых значений группы от своей групповой средней, которая характеризует рассеяние «внутри групп»).
Практически остаточную сумму находят по равенству (см. § 3, следствие)
О о С
°ост '-'общ ^факт*
Элементарными преобразованиями можно получить формулы, более удобные для расчетов:
•W=I ( 2) R) \я 1 - \( S R/ ] I {ря) I. (**)
я гАеРу.= 2 xfj—сумма квадратов значений признака на
Уровне F,\ R,= 2 x./—сумма значений признака на
351
^
Замечание. Для упрощения вычислений вычитают из каждог наблюдаемого значения одно и то же число С, примерно равцСр общей средней. Если уменьшенные значения (/,у = лс,-у — С, то
S /=1
S
(***) (****)
'
4>aKT
Q
где Qy = ^£j ylj — сумма квадратов уменьшенных значений признака i=l
<?
на уровне Fj\ Tj= 2 У// — сумма уменьшенных значений признака
i=l на уровне Fj.
Для вывода формул (***) и (****) достаточно подставить дг,-у = J/,y -f С
ч я ч_
в соотношение (*) и #у= 2 лг/у = 2 («/,y + Q = 2
«= 1 (= 1 «= 1
в соотношение (**).
Пояснения. 1. Убедимся, что S$aKT характеризует воздействие фактора F. Допустим, что фактор оказывает существенное влияние на X. Тогда группа наблюдаемых значений признака на одном определенном уровне, вообще говоря, отличается от групп наблюдений на других уровнях. Следовательно, различаются и групповые средние, причем они тем больше рассеяны вокруг общей средней, чем большим окажется воздействие фактора. Отсюда следует, что для оценки воздействия фактора целесообразно составить сумму квадратов отклонений групповых средних от общей средней (отклонение возводят в квадрат, чтобы исключить погашение положительных и отрицательных отклонений). Умножив эту сумму на q, получим ^кт- Итак, 5факт характеризует воздействие фактора.
2. Убедимся, что S0CT отражает влияние случайных причин. Казалось бы, наблюдения одной группы не должны различаться. Однако, поскольку на X, кроме фактора F, воздействуют и случайные причины наблюдения одной и той же группы, вообще говоря, различны и, значит, рассеяны вокруг своей групповой средней. Отсюда следует, что для оценки влияния случайных причин целесообразно составить сумму квадратов отклонении наблюдаемых значений каждой группы от своей групповой средней, т. е. S0CT. Итак, 50СТ характеризует воздействие случайных причин.
352
3. Убедимся, что 5о6щ отражает влияние и фактора и случайных причин. Будем рассматривать все наблюдения как единую совокупность. Наблюдаемые значения признака различны вследствие воздействия фактора и случайных причин. Для оценки этого воздействия целесообразно составить сумму квадратов отклонений наблюдаемых значений от общей средней, т. е. 5о6щ.
Итак, So6ul характеризует влияние фактора и случайных причин.
Приведем пример, который наглядно показывает, что факторная сумма отражает влияние фактора, а остаточная—влияние случайных причин.
Пример. Двумя приборами произведены по два измерения физической величины, истинный размер которой равен х. Рассматривая в качестве фактора систематическую ошибку С, а в качестве его уровней — систематические ошибки Сх и С2 соответственно первого и второго прибора, показать, что 5факт определяется систематическими, a SOCT — случайными ошибками измерений.
Решение. Введем обозначения: аь а2 — случайные ошибки первого и второго измерений первым прибором; plt Р2 — случайные ошибки первого и второго измерений вторым прибором.
Тогда наблюдаемые значения результатов измерений соответственно равны (первый индекс при х указывает номер измерения, а второй — номер прибора):
Средние значения измерений первым и вторым приборами соответственно равны:
Общая средняя
*= (*гР г + *гР г)/2 = х + [(Сх +CJ/2) + [(а + Р)/2], факторная сумма
5факт = (*гр 1 — *)* + (*гр г — *)2-
Подставив величины, заключенные в скобках, после элементарных преобразований получим
Мы видим, что S,j,aKT определяется главным образом, первым слагаемым (поскольку случайные ошибки измерений малы) и, следо-аательно, действительно отражает влияние фактора С.
Остаточная сумма
"^ост = (*п — *гр l)2 + (*21 — *гр l)2 + (xi% —*гр г)2 + (*аа Подставив величины, заключенные в скобках, получим
12-181 353
Мы видим, что S0CT определяется случайными ошибками измеп ний и, следовательно, действительно отражает влияние случайн причин. Ь|*
Замечание. То, что SOCT порождается случайными причинам следует также из равенства (см. § 3, следствие) •
Действительно, S06ik является результатом воздействия фактов и случайных причин; вычитая 5факт, мы исключаем влияние фактора Следовательно, «оставшаяся часть» отражает влияние случайньт* причин. х
