
- •Доверительный интервал для оценки ско σ нормального распределения. Распределение хи-квадрат.
- •Точечная и интервальная оценка вероятности биномиального распределения с заданной надежностью γ по относительной частоте.
- •Метод моментов для точечной оценки параметров распределения.
- •Метод наибольшего правдоподобия для дискретных и непрерывных случайных величин. Распределение Пуассона. Биномиальное распределение. Показательный закон. Нормальный закон.
- •Числовые характеристики вариационного ряда. Характеристики положения и характеристики рассеивания. Мода, Медиана. Размах варьирования. Коэффициент вариации. Асимметрия. Эксцесс.
- •14. Статистические моменты. Обычные, начальные и центральные эмрирические моменты. Условные эмпирические моменты. Нахождение центральных моментов по условным.
- •15. Метод произведений для вычисления выборочных средней и дисперсии. Сведение первоначальных вариант к равноотстоящим.
- •16. Эмпирические и выравнивающие частоты для дискретных и непрерывных распределений. Примеры.
- •17. Построение нормальной кривой по опытным данным. Оценка отклонения эмпирического распределения от нормального. Асимметрия. Эксцесс.
- •18. Построение статистической функцией распределения. Гистограмма.Назовите числовые характеристики статистического распределения. Дайте определение этих характеристик.
- •Точечная оценка параметра. Свойство точечной оценки. Состоятельная, несмещенная, эффективная оценка. Исправленная дисперсия.
- •Доверительный интервал и доверительная вероятность (надежность). Построение доверительного интервала для математического ожидания случайной величины, распределенной по нормальному закону.
- •§14. Точность оценки, доверительная вероятность (надежность). Доверительный интервал
- •§ 15. Доверительные интервалы для оценки математического ожидания нормального распределения при известном σ
- •Понятие функциональной, статистической и корреляционной зависимости.
- •§ 2. Условные средние
- •§ 3. Выборочные уравнения регрессии
- •Сущность метода наибольшего правдоподобия для нахождения оценок параметров распределений.
- •Сущность метода наименьших квадратов при обработке результатов наблюдений.
- •Формулировка задачи статистической проверки гипотез. Приведите примеры задач на проверку гипотез. Вероятностные данные для применения метода минимума риска к решению задачи проверки гипотез.
- •3.1. Классический метод проверки гипотез
- •Сущность метода минимума риска при решении задачи проверки гипотез. Сформулируйте оптимальное решающее правило. Ошибки первого и второго рода. Сущность метода
- •§ 2. Ошибки первого и второго рода
- •28. Сравнение двух дисперсий нормальных генеральных совокупностей. Распределение Фишера-Снедекора.
- •29. Сравнение исправленной выборочной дисперсии с гипотетической генеральной дисперсей нормальной совокупности. Критерий Стьюдента.
- •Сравнение двух средних нормальных генеральных совокупностей, дисперсии которых известны. Выборки независимы. Функция Лапласа.
- •Сравнение двух вероятностей биномиальных распределений.
- •34. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена.
- •35. Определение параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несгрупированным и сгруппированным данным.
- •36. Выборочный коэффициент корреляции. Методика вычисления выборочного коэффициента корреляции. Выборочное корреляционное отношение и его свойство. Мера корреляционной связи.
- •42. Корреляционный анализ. Коррелированность и зависимость случайных величин. Численные характеристики системы двух случайных величин: корреляционный момент и коэффициент корреляции.
- •43. Регрессионный анализ. Линейная регрессия. Прямые линии среднеквадратической зависимости. Коэффициенты регрессии y на X и X на y.
- •[Править]Парная и множественная регрессия
- •Случайные числа. Генератор псевдослучайных чисел. Метод Монте-Карло. Применение метода Монте-Карло для вычисления определенного интеграла.
- •Случайные процессы. Процесс Пуассона и его свойства: стационарность, отсутствие последействия и ординарность.
- •48. Цепь Маркова. Переходная вероятность. Однородная цепь Маркова.Матрица перехода. Равенство Маркова.
- •Определение
- •[Править]Переходная матрица и однородные цепи
- •[Править]Конечномерные распределения и матрица перехода за n шагов
34. Сравнение нескольких дисперсий нормальных генеральных совокупностей по выборкам одинакового объема. Критерий Кочрена.
Пусть генеральные совокупности X 1, Х2, . . .» XL распределены нормально. Из этих совокупностей извлечены L независимых выборок одинакового объема n и по ним найдены исправленные выборочные дисперсии s1, s2, . . . sL(все s в квадрате), все с одинаковым числом степеней свободы k = n — I. Требуется при уровне значимости а(альфа) проверить нулевую гипотезу об однородности дисперсий, т. е. гипотезу о равенстве между собой генеральных дисперсий:
Н0: D(X1)=D(X2) =D(X3)=… =D(Xl)
В качестве критерия проверки нулевой гипотезы примем критерий Кочрена—отношение максимальной исправленной дисперсии к сумме всех исправленных дисперсий:
G=
Распределение этой случайной величины зависит только от числа степеней свободы k=n—1 и количества выборок L. Для проверки нулевой гипотезы строят правостороннюю критическую область.
Правило. Для того чтобы при заданном уровне значимости а (альфа)проверить гипотезу об однородности дисперсий нормально распределенных совокупностей, надо вычислить наблюдаемое значение критерия:
G=
и по таблице критических точек распределения Кочрена (см. приложение8) найти критическую точку Gкp (а; k; L ).
Если Gнабл < G кр — нет оснований отвергнуть нулевую гипотезу.
Если Gнабл > G кр — нулевую гипотезу отвергают.
З а м е ч а н и е . При условии однородности дисперсий независимых выборок одинакового объема в качестве оценки генеральной дисперсии принимают среднюю арифметическую исправленных дисперсий.
35. Определение параметров выборочного уравнения прямой линии среднеквадратичной регрессии по несгрупированным и сгруппированным данным.
36. Выборочный коэффициент корреляции. Методика вычисления выборочного коэффициента корреляции. Выборочное корреляционное отношение и его свойство. Мера корреляционной связи.
выборочный коэффициент корреляции определяется равенством
.где
х, у—варианты
(наблюдавшиеся значения) признаков Х
и Y;
nxy—частота
пары вариант (х,
у); n—объем
выборки (сумма всех частот);
,
—выборочные
средние квадратические отклонения;
,
—выборочные
средние.Известно, что если величины Y
и Х независимы, то коэффициент корреляции
r=0
(см. гл. XIV, § 17); если ,г = ±1,тоY
и Х
связаны линейной функциональной
зависимостью (см. гл. XIV, § 20). Отсюда
следует, что коэффициент корреляции г
измеряет силу (тесноту) линейной связи
между Y
и X.
Выборочный коэффициент корреляции rв является оценкой коэффициента корреляции г генеральной совокупности и поэтому также служит для измерения линейной связи между величинами—количественными признаками Y и X. Допустим, что выборочный коэффициент корреляции, найденный по выборке, оказался отличным от нуля. Так как выборка отобрана случайно, то отсюда еще нельзя заключить, что коэффициент корреляции генеральной совокупности также отличен от нуля. Возникает необходимость проверить гипотезу о значимости (существенности) выборочного коэффициента корреляции (или, что то же, о равенстве нулю коэффициента корреляции генеральной совокупности). Если гипотеза о равенстве нулю генерального коэффициента корреляции будет отвергнута, то выборочный коэффициент корреляции значим, а величины Х и Y коррелированы; если гипотеза принята, то выборочный коэффициент корреляции незначим, а величины Х и Y не коррелированы.Проверка гипотезы о значимости выборочного коэффициента корреляции для случая нормальной корреляции изложена далее (см. гл. XIX, § 21).Если выборка имеет достаточно большой объем и хорошо представляет генеральную совокупность (репрезентативна), то заключение о тесноте линейной зависимости между признаками, полученное по данным выборки, в известной степени может быть распространено и на генеральную совокупность. Например, для оценки коэффициента корреляции rг нормально распределенной генеральной совокупности (при n ≥ 50) можно воспользоваться формулой
.
Замечание 1. Знак выборочного коэффициента корреляции совпадает со знаком выборочных коэффициентов регрессии,» что следует из формул (см. § 6):
;
.
(*)
Замечание 2. Выборочный коэффициент корреляции равен среднему геометрическому выборочных коэффициентов регрессии. Действительно, перемножив левые и правые части равенств (*), получим
.Отсюдаn
.Знак
при радикале в соответствии с замечанием
1 должен совпадать со знаком коэффициентов
регрессии.
Методика вычисления выборочного коэффициента корреляции
Пусть требуется по данным корреляционной таблицы вычислить выборочный коэффициент корреляции. Можно значительно упростить расчет, если перейти к условным вариантам (при этом величина rв не изменится)
ui=(xi—С1)/h1 и υj=:(yj—С2)/h2.
В этом случае выборочный коэффициент корреляции вычисляют по формуле
.
Величины
u,
υ
и
можно найти методом произведений (см.
гл. XVII, § 4), а при малом числе данных—
непосредственно исходя из определений
этих величин. Остается указать способ
вычисления
,
где
—
частота пары
условных вариант (u,
υ).
Можно доказать, что справедливы формулы (см. пояснение в конце параграфа):
,
где
,
,
где
.
Для контроля целесообразно выполнить расчеты по обеим формулам и сравнить результаты; их совпадение свидетельствует о правильности вычислений.
Для
оценки тесноты нелинейной
корреляционной связи вводят выборочные
корреляционные отношения. Выборочным
корреляционным отношением
к
называют
отношение межгруппового среднего
квадратического отклонения к общему
среднему квадратическому отклонению
признака
:
,
или в других обозначениях
и
если
,
то признак
c
признаком
корреляционной
зависимостью не связан, а если
,
то признак
связан
c признаком
функциональной
зависимостью.
Выборочное корреляционное отношение
Для оценки тесноты линейной корреляционной связи между признаками в выборке служит выборочный коэффициент корреляции. Для оценки тесноты нелинейной корреляционной связи вводят новые сводные характеристики:
ηyx — выборочное корреляционное отношение Y к X;
ηxy —выборочное корреляционное отношение Х к Y.
Выборочным корреляционным отношением Y к Х называют отношение межгруппового среднего квадратического отклонения к общему среднему квадратическому отклонению признака Y:
ηyx
= σмежгр/σобщ,или
в других
обозначениях
.
Здесь
;
,
где n—объем выборки (сумма всех частот); nx—частота значения х признака X; ny—частота значения у признака Y; —общая средняя признака Y; —условная средняя признака У.
Аналогично
определяется выборочное корреляционное
отношение Х
к Y:
.
Свойства выборочного корреляционного отношения
Поскольку ηxy обладает теми же свойствами, что и ηyx, перечислим свойства только выборочного корреляционного отношения ηyx, которое далее для упрощения записи будем обозначать через η и для простоты речи называть «корреляционным отношением».
Свойство 1. Корреляционное отношение удовлетворяет двойному неравенству
0≤ η ≤1.
Доказательство. Неравенство η≥0 следует из того, что η есть отношение неотрицательных чисел— средних квадратических отклонений (межгруппового к общему).
Для доказательства неравенства η≤1 воспользуемся формулой
Dобщ = Dвнгр + Dмежгр
Разделив обе части равенства на Dобщ получим
1 = Dвнгр / Dобщ + Dмежгр/ Dобщ,
или
1 = Dвнгр / Dобщ + η2.
Так как оба слагаемых неотрицательны и сумма их равна единице, то каждое из них не превышает единицы; в частности, η2≤1. Приняв во внимание, что η≥0, заключаем:
0≤ η ≤1.
Свойство 2. Если η=0, то признак Н с признаком Х корреляционной зависимостью не связан. Доказательство. По условию,
η = σмежгр/σобщ=0.
Отсюда σмежгр = 0 и, следовательно, Dмежгр = 0.
Межгрупповая дисперсия есть дисперсия условных (групповых) средних относительно общей средней . Равенство нулю межгрупповой дисперсии означает, что при всех значениях Х условные средние сохраняют постоянное значение (равное общей средней). Иными словами, при η=0 условная средняя не является функцией от X, а значит, признак Y не связан корреляционной зависимостью с признаком X.
Замечание 1. Можно доказать и обратное предложение: если признак Y не связан с признаком Х корреляционной зависимостью, η=0.
Свойство 3. Если η=1, то признак Y связан с признаком Х функциональной зависимостью.
Доказательство. По условию,
η = σмежгр/σобщ=1.
Отсюда
σмежгр=σобщ.
Возведя обе части равенства в квадрат, получим
Dобщ = Dмежгр. (*)
Так как Dобщ = Dвнгр + Dмежгр, то в силу (*)
Dвнгр = 0. (**)
Поскольку внутригрупповая дисперсия есть средняя арифметическая групповых дисперсий (взвешенная по объемам групп), то из (**) следует, что дисперсия каждой группы, (значений Y, соответствующих определенному значению X) равна нулю. А это означает, что в группе содержатся равные значения Y, т. е. каждому значению Х соответствует одно значение V. Следовательно, при η=1 признак Y связан с признаком Х функциональной зависимостью.
Замечание 2. Можно доказать и обратное предположение:
если признак Y связан с признаком Х функциональной зависимостью, то η=1.
Приведем еще два свойства, опустив доказательства. Свойство 4. Выборочное корреляционное отношениене меньше абсолютной величины выборочного коэффициента корреляции: η≥|rв|.
Свойство 5. Если выборочное корреляционное отношение равно абсолютной величине выборочного коэффициента корреляции, то имеет место точная линейная корреляционная зависимость.
Другими словами, если η=|rв|, то точки (х1, у1), (x2, y2), ..., (xn, yn) лежат на прямой линии регрессии, найденной способом наименьших квадратов.
Корреляционное отношение как мера корреляционной связи. Достоинства и недостатки этой меры
В предыдущем параграфе установлено: прит η=0 признаки не связаны корреляционной зависимостью; при η=1 имеет место функциональная зависимость.
Убедимся, что с возрастанием η корреляционная связь становится более тесной. С этой целью преобразуем соотношение Dобщ = Dвнгр + Dмежгр так:
Dвнгр = Dобщ [1-( Dмежгр/ Dобщ)],
или
Dвнгр = Dобщ (1- η2).
Если η→1, то Dвнгр → 0, следовательно, стремится к нулю и каждая из групповых дисперсий. Другими словами, при возрастании η значения Y, соответствующие определенному значению X, все меньше различаются между собой и связь Y с Х становится более тесной, переходя в функциональную при η =1.
Поскольку в рассуждениях не делалось никаких допущений о форме корреляционной связи, η служит мерой тесноты связи любой, в том числе и линейной, формы. В этом состоит преимущество корреляционного отношения перед коэффициентом корреляции, который оценивает тесноту лишь линейной зависимости. Вместе с тем корреляционное отношение обладает недостатком: оно не позволяет судить, насколько близко расположены точки, найденные по данным наблюдений, к кривой определенного вида, например к параболе, гиперболе и т. д. Это объясняется тем, что при определении корреляционного отношения форма связи во внимание не принималась.
37.
Проверка гипотезы о нормальном
распределении генеральной совокупности.
Критерий согласия Пирсона.
38.
Выборочный коэффициент ранговой
корреляции Спирмена и проверка гипотезы
о его значимости.
39. Выборочный коэффициент ранговой корреляции Кендалла и проверка гипотезы о его значимости.
40. Критерий Вилкоксона и проверка гипотезы об однородности двух выборок.
41. Дисперсионный анализ. Однофакторный дисперсионный анализ. Общая факторная и остаточная суммы квадратов отклонений. Связь между общей, факторной и остаточной суммами. Общая, факторная и остаточная дисперсии. Сравнение нескольких средних методом дисперсионного анализа.
Дисперсионный анализ
Дисперсионный анализ, предложенный Р. Фишером, является статистическим методом, предназначенным для выявления влияния ряда отдельных факторов на результаты экспериментов.
В основе дисперсионного анализа лежит предположение о том, что одни переменные могут рассматриваться как причины (факторы, независимые переменные), а другие как следствия (зависимые переменные). Независимые переменные называют иногда регулируемыми факторами именно потому, что в эксперименте исследователь имеет возможность варьировать ими и анализировать получающийся результат.
Сущность дисперсионного анализа заключается в расчленении общей дисперсии изучаемого признака на отдельные компоненты, обусловленные влиянием конкретных факторов, и проверке гипотез о значимости влияния этих факторов на исследуемый признак. Сравнивая компоненты дисперсии друг с другом посредством F — критерия Фишера, можно определить, какая доля общей вариативности результативного признака обусловлена действием регулируемых факторов.
Исходным материалом для дисперсионного анализа служат данные исследования трех и более выборок, которые могут быть как равными, так и неравными по численности, как связными, так и несвязными. По количеству выявляемых регулируемых факторов дисперсионный анализ может быть однофакторным (при этом изучается влияние одного фактора на результаты эксперимента), двухфакторным (при изучении влияния двух факторов) и многофакторным (позволяет оценить не только влияние каждого из факторов в отдельности, но и их взаимодействие).
Дисперсионный анализ относится к группе параметрических методов и поэтому его следует применять только тогда, когда доказано, что распределение является нормальным.
Однофакторный дисперсионный анализ для несвязанных выборок
Изучается действие только одной переменной (фактора) на исследуемый признак. Исследователя интересует вопрос, как изменяется определенный признак в разных условиях действия переменной (фактора). Например, как изменяется время решения задачи при разных условиях мотивации испытуемых (низкой, средней, высокой мотивации) или при разных способах предъявления задачи (устно, письменно или в виде текста с графиками и иллюстрациями), в разных условиях работы с задачей (в одиночестве, в комнате с преподавателем, в классе). В первом случае фактором является мотивация, во втором – степень наглядности, в третьем – фактор публичности.1[1]
В данном варианте метода влиянию каждой из градаций подвергаются разные выборки испытуемых. Градаций фактора должно быть не менее трех.
Дисперсионный анализ для связанных выборок
Метод дисперсионного анализа для связанных выборок применяется в тех случаях, когда исследуется влияние разных градаций фактора или разных условий на одну и ту же выборку испытуемых. Градаций фактора должно быть не менее трех.
В данном случае различия между испытуемыми - возможный самостоятельный источник различий. Однофакторный дисперсионный анализ для связанных выборок позволит определить, что перевешивает - тенденция, выраженная кривой изменения фактора, или индивидуальные различия между испытуемыми. Фактор индивидуальных различий может оказаться более значимым, чем фактор изменения экспериментальных условий.
Дисперсионный анализ — статистический метод, применяемый для выявления влияния отдельных факторов (количественных, порядковых или качественных) на изучаемый признак и оценку степени этого влияния. Если изучается действие количественного фактора, то предварительно производится его разбивка на градации. Для каждой градации подсчитывается среднее значение изучаемого признака, затем дисперсия среднего по градациям фактора относительно общего среднего и, наконец, общая дисперсия изучаемого показателя (независимо от значения фактора).
В теории дисперсионного анализа показано, что общая дисперсия D равна дисперсии средних по градациям фактора DF (доля дисперсии за счет действия исследуемого фактора — объясненная дисперсия) плюс остаточная дисперсия за счет действия случайных факторов (DS): D = DF + DS. Чем больше эта величина, тем сильнее влияние фактора на изучаемый признак.
Для количественной оценки степени влияния вычисляют показатель F по формуле:
,
где L — число градаций фактора, N — объем статистической совокупности.
Показатель влияния F затем сравнивается со стандартным значением Fst в таблице Фишера (для выбранного уровня значимости при соответствующем числе степеней свободы). Если F > Fst то факт влияния считается достоверно доказанным.
Описанная схема называется однофакторным дисперсионным анализом.