
- •1.Предмет теории вероятности
- •2 Важных правила комбинаторики:
- •2. События и их классификация
- •3 Соотнешения между событ-ми.
- •6. Теоремы сложения и умножения вер-тей
- •18.Нормальн.З-н распред.Непрер.Св.Вероятн.Попад.Знач.Норм.Случ.Величины в зад.Полуинтервал.
- •20.Функция одной случайной величины.Матем.Ожид.Функц.Одной св
- •21.Функция двух случайны аргументов
- •22. Понятие системы св. Закон распределения двумерной св, условный закон распред-ия двумерной св.
- •23. Числ. Хар-ки системы дискрет. Св (мат. Ожид, дисперсия, ковариация, коэффициент лин-ой корреляции и его св-ва).
- •24. Закон больших чисел. Неравенства Маркова и Чебышева.
- •27. Статистические оценки параметров распределения
- •28 Выбороч хар-ки статистич распред.
- •29. Точечные и интервальные оценки параметров распределения. Доверительная вероятность (надежность) и доверительные интервалы.
- •30.Доверительный интервал для математического ожидания нормального распределения при известной дисперсии
- •31. Статистическая проверка гипотез
- •38.Двухфакторный дисперсионный анализ.
- •1. В каждом наблюдении ei имеет нормальное распределение с нулевым мо и конечной дисперсией.
- •2. Для любого I дисперсия ei является величиной постоянной.
31. Статистическая проверка гипотез
Гипотеза – подвергаемое проверке утверждение относит-но вида распределения генеральн совок-ти либо о предполагаемой величине параметра одного известного распределения либо равенстве параметров двух или нескольких распределений, о независимости выборок и т.д.
Статистической гипотезой наз утверждение о виде неизвестного распределения или параметрах известных распределений и обознач-ся через Н.
Нулевая (основная) гипотеза – выдвинутая гипотеза Но.
Конкурирующая
(альтернативн) гипотеза
– гипотеза
к-рая противоречит нулевой.
Гипотеза, содержащая только одно предположение наз простой, а гипотеза, сост-щая из конечного или бесконечного числа предположений – сложной
Выдвинутая гипотеза может быть прав-ной или неправ-ной, поэтому её надо проверять, что осущ статист методами. В ходе проверки могут быть допущены ошибки двух рядов:
1) ошибки первого рода – отвергнута прав-ная гипотеза;
2) ошибка второго рода – принята неправ-ная гипотеза.
32.Статистический критерий К для проверки гипотезы, крит. обл. и обл принятия гипотезы. Осн принцип проверки статистических гипотез, крит. точки, правосторонняя, левосторонняя и двусторонняя критические обл.
Осн-ой принцип проверки статистических гипотез можно сформулировать так: если наблюд. значение критерия принадлежит крит. обл. - гипотезу отвергают, если наблюдаемое знач. критерия принадлежит обл. принятия гипотезы - гипотезу принимают.
Поскольку критерий К - одномерная СВ, все ее возможные значения принадлежат некоторому интервалу. Поэтому крит. обл. и обл. принятия гипотезы также явл. интервалами, и, следоват., существуют точки, которые их разделяют.
Крит. точками Ккр назыв. точки, отделяющие крит. обл. от обл. принятия гипотезы.
Различают, одностороннюю (правостороннюю или левостороннюю) и двустороннюю критические области.
Правосторонней назыв. критическую область, определяемую неравенством К>Ккр , где Ккр- положительное число.
Левосторонней назыв. крит. обл., определяемую неравенством К<Ккр , где Ккр- отриц. число.
Двусторонней называют крит. обл., определяемую неравенствами K<K1, K>K2, где К2>К1.
33. Проверка гипотезы о нормальном распределении генеральной совокупности. Критерий согласия Пирсона. Проверка гипотезы о предполагаемом законе неизвестного распределения производиться при критерии согласия. КС-критерий проверки гипотезы о предполагаемом законе неизв-го распределения. Будем сравнивать эмпирические и теоретические частоты. Случайно ли расхождение частот? Критерий Пирсона отвечает на поставленный выше вопрос. Он не доказывает справ-сть гипотезы, а лишь устанавливает на принятом уровне значимость ее согласия или несогласия с данными наблюдений. Для того, чтобы при заданном уровне значимости проверить 0-ю гипотезу H0: ген-я сов-сть распределена нормально, надо сначала вычислить теоретич. частоты, а затем наблюд. значения крит.: Хнабл. 2 =Ε(ni-ńi)2/ni. И по таблице критических точек распределения. Если Хнабл. 2 <Xкр.2 - нет оснований отвергнуть нулевую гипотезу. Если Хнабл. 2 >Xкр.2 -нул. Гипотезу отвергают.
34.Понятие корреляционной зависимости. Корреляционная таблица.Во время стат-их наблюдений для каждого объекта в ряде случаев можно измерить значение нескольких признаков. Т.обр. получается многомерная выборка. Если многомерную выборку обратить по значениям отдельного признака, то получится обычная обработка одномерной выборки. Смысл обработки многомерных выборок сост.в том,чтобы установить связи между признаками. Связи м.б. функцион-ми, когда каждое значение одной величины факторного признака соответствует только одно значение другой величины.. На практике часто рассматривается частный случай такой связи – статистическая связь, когда условное матем-е ожид-е 1-го признака явл-ся функц-ей другого М(У/х)=f(x)
Если ср.знач-е 1-го признака результативно , функцион-но зависит от другого , то такая статистич. зависимость называется корреляционной.
По форме кореляционая связь бывает линейной и нелинейной, а по колич-ву коррелируемых признаков- парной(корреляц. Между 2-мя признаками) и множественная (3-мя и >).
Различают положительную (прямую) корреляц-ю, когда при увелич-и значения 1-го признака увеличивается значение другого, и отрицательную(обратную)- когда с увелич-ем одного признака уменьшается значение другого.
35.
Эмпирическая линия регрессии. Линейная
корреляция. Коэффициент корреляции.
Свойства коэффициента корреляции.Корреляц.
зависимость между случайн величин Х и
Y наз линейной корреляц,
если обе функции регрессии f(x) и φ(x)
являются линейными. В этом случае обе
линии регрессии являются прямыми; они
называется прямыми регрессии.
Для
оценки тесноты линейных корреляц
зависимостей между велич Х и Y по
результатам выборочных наблюдений
вводится понятие выбороч
коэффиц
линейной корреляц, определяем формулой:
:
где
σX и
σY выборочные
средние квадратич отклонения величин
Х и Y, которые вычисляются по
формулам:
Следует
отметить, что основной смысл выборочного
коэффициента линейной корреляции
rB состоит
в том, что он представляет собой
эмпирическую (т.е. найденную по результатам
наблюдений над величинами Х и Y) оценку
соответствующего генерального
коэффициента линейной корреляции r:
r=rB(9)Принимая
во внимание формулы:
видим,
что выборочное уравнение линейной
регрессии Y на Х имеет вид:
где
.
То же можно сказать о выборочном
уравнений линейной регрессииХнаY:
Основные
свойства выборочного коэффициента
линейной корреляции:
1. Коэффиц корреляц двух величин, не связанных линейной корреляционной зависимостью, равен нулю. 2. Коэффиц корреляц двух величин, связанных линейной корреляц зависимостью, равен 1 в случае возрастающей зависимости и -1 в случае убывающей зависимости. 3. Абсолютная величина коэффиц корреляции двух величин, связанных линейной корреляц зависимостью, удовлетворяет неравенству 0<|r|<1. При этом коэффициент корреляции положителен, если корреляционная зависимость возрастающая, и отрицателен, если корреляционная зависимость убывающая. 4. Чем ближе |r| к 1, тем теснее прямолинейная корреляция между величинами Y, X.
По своему характеру корреляц связь может быть прямой и обратной, а по силе – сильной, средней, слабой. Кроме того, связь может отсутствовать или быть полной.
36.Метод
наименьших квадратов—
один из базовых методов регрессионного
анализа для оценки неизвестных параметров
регрессионных моделей по выборочным
данным. Метод основан на минимизации
суммы квадратов остатков регрессии..Сущность
МНКПусть
задана некоторая модель вероятностн
зависимости
между переменной y
и множеством факторов x
где
—
вектор неизвестных параметров модели
—
случайная ошибка модели.
Пусть также
имеются выборочные наблюдения значений
указанных переменных. Пусть
—
номер наблюдения Тогда
—
значения переменных в
-м
наблюдении. Тогда при заданных значениях
параметров b можно рассчитать теоретические
значения объясняемой переменной y
:
Тогда
можно рассчитать остатки регрессионной
модели — разницу между наблюдаемыми
значениями объясняемой переменной и
теоретическими:
.
Величина
остатков зависит от значений параметров
b.
Сущность
МНК заключается в том, чтобы найти такие
параметры b, при которых сумма квадратов
остатков
будет минимальной:
где:
Коэффициент
детерминации
(
- R-квадрат)
— это доля дисперсии
зависимой переменной, объясняемая
рассматриваемой моделью
зависимости, то есть объясняющими
переменными. Более точно — это единица
минус доля необъяснённой дисперсии
(дисперсии случайной ошибки модели,
или условной по факторам дисперсии
зависимой переменной) в дисперсии
зависимой переменной. Его рассматривают
как универсальную меру связи одной
случайной величины от множества других.
В частном случае линейной зависимости
является
квадратом так называемого множественного
коэффициента
корреляции
между зависимой переменной и объясняющими
переменными. В частности, для модели
парной линейной регрессии коэффициент
детерминации равен квадрату обычного
коэффициента корреляции между y
и x
37. Основные понятия дисперсионного анализаВ процессе наблюдения за исследуемым объектом качественные факторы произвольно или заданным образом изменяются. Конкретная реализация фактора
называется уровнем фактора или способом обработки. Модель дисперсионного анализа с фиксированными уровнями факторов называют моделью I, модель со случайными факторами - моделью II. Благодаря варьированию фактора можно исследовать его влияние на величину отклика. В настоящее время общая теория дисперсионного анализа разработана для моделей IОсновными схемами организации исходных данных с двумя и более факторами являются: - перекрестная классификация, характерная для моделей I, в которых
каждый уровень одного фактора сочетается при планировании эксперимента с каждой градацией другого фактора; - иерархическая (гнездовая) классификация, характерная для модели II, в которой каждому случайному, наудачу выбранному значению одного фактора соответствует свое подмножество значений второго фактора. Если одновременно исследуется зависимость отклика от качественных и количественных факторов, т.е. факторов смешанной природы, то используется ковариационный анализ При проведении дисперсионного анализа должны выполняться следующиестатистические допущения: независимо от уровня фактора величины откликаимеют нормальный (Гауссовский) закон распределения и одинаковую дисперсиюТакое равенство дисперсий называется гомогенностью. Таким образом,изменение способа обработки сказывается лишь на положении случайнойвеличины отклика, которое характеризуется средним значением или медианойПоэтому все наблюдения отклика принадлежат сдвиговому семейству нормальныхраспределений. Говорят, что техника дисперсионного анализа является "робастной".Этот термин, используемый статистиками, означает, что данные допущениямогут быть в некоторой степени нарушены, но несмотря на это, технику можноиспользовать. При неизвестном законе распределения величин отклика используют непараметрические (чаще всего ранговые) методы анализа. В основе дисперсионного анализа лежит разделение дисперсии на части или компоненты. Вариацию, обусловленную влиянием фактора, положенного вьоснову группировки, характеризует межгрупповая дисперсия Однофакторный дисперсионный анализ Однофакторная дисперсионная модель имеет вид: xij = μ + Fj + εij Основные предпосылки дисперсионного анализа:- математическое ожидание возмущения εij равно нулю для любых i, т.е M(εij) = 0- возмущения εij взаимно независимы;
- дисперсия переменной xij (или возмущения εij) постоянна длялюбых i, j, т.е. D(εij) = σ2; - переменная xij (или возмущение εij) имеет нормальный закон
распределения N(0;σ2).