- •Основные условные обозначения в математической статистике
- •Содержание
- •Введение
- •Основы теории вероятностей
- •1Предмет и метод математической статистики
- •2Понятие случайного события
- •3Вероятность случайного события
- •4Основные теоремы теории вероятностей
- •4.1Сложение вероятностей
- •4.2Умножение вероятностей
- •4.3Вычисление вероятностей
- •Случайные переменные
- •5Понятие случайной переменной
- •5.1Дискретные случайные переменные
- •5.2Непрерывные случайные переменные
- •6Математическое ожидание и дисперсия
- •7Моменты
- •Дискретные распределения
- •8Биномиальное распределение и измерение вероятностей
- •9Распределение редких событий (Пуассона)
- •Основные модели теоретических распределений
- •10Прямоугольное (равномерное) распределение
- •11Нормальное распределение
- •12Логарифмически нормальное распределение
- •Распределения параметров выборки
- •13.1Проблема Беренса–Фишера
- •15Χ2–распределение
- •Основы математической статистики
- •16Средние величины
- •16.1Общие свойства средних величин
- •17Средняя арифметическая
- •17.1Средний ранг (непараметрическая средняя)
- •17.2Взвешенная средняя арифметическая
- •17.3Средняя квадратическая
- •17.4Мода
- •17.5Медиана
- •18Средняя геометрическая
- •19Средняя гармоническая
- •Разнообразие значений признака
- •20Стандартное (среднеквадратическое) отклонение
- •20.1Число степеней свободы
- •20.2Коэффициент вариации
- •20.3Лимиты и размах
- •20.4Приближенные значения μ и
- •20.5Нормированное отклонение
- •21Проверка выпадов (артефактов)
- •22Средняя и сигма суммарной группы
- •23Скошенность (асимметрия) и крутизна (эксцесс) кривой распределения
- •Графическое представление распределений
- •24Вариационный ряд
- •25Гистограмма и вариационная кривая
- •26Кумулята
- •27Достоверность различия распределений
- •27.1Критерий χ2 (хи квадрат)
- •27.2Критерий λ (лямбда)
- •27.3Критерий по асимметрии и эксцессу
- •Нормальное распределение
- •28Генеральная совокупность и выборка
- •29Репрезентативность
- •30Ошибки репрезентативности и другие ошибки исследований
- •31Доверительные границы
- •Оценка генеральных параметров
- •32Общий порядок оценки
- •32.1Оценка средней арифметической
- •32.2Оценка средней разности
- •32.3Недостоверная и достоверная оценка средней разности
- •32.4Оценка разности генеральных средних
- •33Критерий достоверности разности
- •34Репрезентативность при изучении качественных признаков
- •35Достоверность разности долей
- •Парная корреляция
- •36Коэффициент корреляции
- •37Ошибка коэффициента корреляции
- •37.1Достоверность выборочного коэффициента корреляции
- •37.2Доверительные границы коэффициента корреляции
- •37.3Достоверность разности двух коэффициентов корреляции
- •38Уравнение прямолинейной регрессии
- •39Ошибки элементов уравнения прямолинейной регрессии
- •Частная и множественная линейные корреляции и регрессии
- •40Частный коэффициент корреляции
- •41Множественный коэффициент корреляции
- •42Линейное уравнение множественной регрессии
- •Криволинейная корреляция и регрессия
- •43Корреляционное отношение
- •44Свойства корреляционного отношения
- •45Ошибка репрезентативности корреляционного отношения
- •46Критерий линейности корреляции
- •Однофакторный дисперсионный анализ
- •47Сущность и метод дисперсионного анализа
- •47.1Результативный признак
- •47.2Фактор
- •47.3Градации факторов
- •47.4Градации комплекса
- •47.5Дисперсионный комплекс
- •47.6Статистические влияния
- •47.7Факториальное влияние
- •47.8Случайное влияние
- •47.9Общее влияние
- •48Однофакторный дисперсионный комплекс
- •Многофакторный дисперсионный анализ
- •49Многофакторный дисперсионный комплекс
- •50Преобразования
- •51Универсальное использование дисперсий
- •51.1Показатели силы влияний
- •51.2Ошибка репрезентативности основного показателя силы влияния
- •51.3Предельные значения показателей силы влияния
- •51.4Достоверность влияний
- •Классификация
- •52Дискриминантный анализ
- •52.1Постановка задачи, методы решения, ограничения
- •52.2Предположения и ограничения
- •52.3Алгоритм дискриминантного анализа
- •53Кластерный анализ
- •53.1Методы кластерного анализа
- •53.2Алгоритм кластерного анализа
- •Литература
- •Приложение. Основные формулы и определения
- •2 46019, Г. Гомель, ул. Советская, 104
27.1Критерий χ2 (хи квадрат)
Критерий χ2 предложен Карлом Пирсоном и применяется во всех случаях, когда необходимо определить степень отличия фактического распределения частот от теоретического. Определяется величина χ2 по следующей формуле:
(8.1)
тде f – эмпирическая частота; – теоретическая частота.
Современные способы, использования критерия χ2 отличаются от тех, которые были предложены автором критерия, и тех его модификаций, которые были разработаны в первой половине двадцатого века.
Критерий χ2, или критерий согласия (подобия), используется для оценки степени соответствия эмпирических данных определенным теоретическим предпосылкам, нулевой гипотезе (Но).
Гипотеза опровергается, если χ2факт ≥ χ2теор, и не опровергается, если χ2факт < χ2теор. Когда фактические и теоретически ожидаемые частоты полностью совпадают, χ2 = 0.
Следует обратить внимание на то, что при определении различий между эмпирическим и теоретическим распределениями требуется обратный порядок планирования порогов вероятности безошибочных прогнозов.
В таких исследованиях чем выше ответственность, тем при меньшем расхождении распределений различие уже считается достоверным, и, наоборот, чем менее ответственно исследование, тем при большем расхождении распределений различие между ними все еще может считаться недостоверным.
Это различие в планировании порогов достоверности показано в таблице 8.2.
Таблица 8.2 – Три порога вероятности безошибочных прогнозов
Пороги |
Минимальная вероятность безошибочных прогнозов |
Ответственность исследований |
|
В обычных биологических работах |
При анализе расхождений эмпирических и теоретических распределений |
||
I |
β1=0,95 |
Обычная |
Повышенная |
II |
β2=0,99 |
Повышенная |
Обычная |
III |
β3=0,999 |
Высокая |
Пониженная |
Таким образом, при оценке различий между эмпирическими и теоретическими распределениями в большинстве биологических работ следует устанавливать не первый, а второй порог вероятности.
Первый порог (β1 ≥ 0,95) будет излишне строгим для обычных биологических работ, но для очень ответственных исследований придется устанавливать эту пограничную вероятность и даже еще меньшую, например β ≥ 0,93, β ≥ 0,90.
Равнение на третий порог (β3 ≥ 0,999) можно допускать только в первых ориентировочных наблюдениях, так как при таком пороге нормальными распределениями будут считаться такие, которые уже сильно от него отличаются.
Еще одно важное отличие, касающееся минимально допустимых теоретических частот в крайних классах распределения, которые следует объединять в один общий крайний класс.
После того как будет найдено эмпирическое значение χ2, надо произвести его оценку путем сравнения со стандартными значениями этого критерия для числа степени свободы ν2 = r2 – 3 и трех порогов вероятности безошибочных прогнозов.
При определении числа степеней свободы в нормальном распределении данных по классам следует помнить, что в данном случае (нормальное распределение) имеются три ограничения: определенный объем всей группы (n), определенная средняя (μ), от которой берутся центральные отклонения, и определенная сигма (σ), по которой производится нормирование центральных отклонений средин классов.
Поэтому число степеней устанавливается следующим образом.
Определяется первое число степеней свободы, равное имеющемуся числу классов без трех: ν1 = r1 – 3
По первому числу степеней свободы устанавливается минимально допустимая теоретическая частота крайних классов.
Классы с малыми (меньше минимально допустимых) теоретическими частотами объединяются в один общий крайний класс; при этом получается второе, уменьшенное число классов: r2.
Устанавливается окончательное число степеней свободы, равное уменьшенному числу классов без трех: ν2 = r2 – 3.