Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
шпоры тервер.docx
Скачиваний:
13
Добавлен:
27.04.2019
Размер:
620.55 Кб
Скачать
  1. Простые и сложные гипотезы. Статистический критерий различения гипотез. Уровень значимости и мощность критерия. Ошибки первого и второго рода.

Статистической гипотезой называют гипотезу о виде неизвестного распределения генеральной совокупности или о параметрах известных распределений. Нулевой (основной) называют выдвинутую гипотезу Н0. Конкурирую-щей (альтернативной)  называют гипотезу Н1, которая противоречит нулевой. Простой называют гипотезу, содержащую только одно предположение,сложной – гипотезу, состоящую из конечного или бесконечного числа простых гипотез. В результате проверки правильности выдвинутой нулевой гипотезы ( такая проверка называется статистической, так как производится с применением методов математичес-кой статистики) возможны ошибки двух видов: ошибка первого рода, состоящая в том, что будет отвергнута правильная нулевая гипотеза, и ошибка второго рода, заключаю-щаяся в том, что будет принята неверная гипотеза.

Замечание. Какая из ошибок является на практике более опасной, зависит от конкретной задачи. Например, если проверяется правильность выбора метода лечения больного, то ошибка первого рода означает отказ от правильной методики, что может замедлить лече-ние, а ошибка второго рода (применение неправильной методики) чревата ухудшением состояния больного и является более опасной.

Вероятность ошибки первого рода называется уровнем значимости α.

   Основной прием проверки статистических гипотез заключается в том, что по имеющейся выборке вычисляется значение некоторой случайной величины, имеющей известный закон распределения.

Статистическим критерием называется случайная величина К с известным законом распределения, служащая для проверки нулевой гипотезы.

Мощностью критерия называют вероятность попадания критерия в критическую область при условии, что верна конкурирующая гипотеза.

Если обозначить вероятность ошибки второго рода (принятия неправильной нулевой гипотезы) β, то мощность критерия равна 1 – β. Следовательно, чем больше мощность критерия, тем меньше вероятность совершить ошибку второго рода. Поэтому после выбора уровня значимости следует строить критическую область так, чтобы мощность критерия была максимальной.

  1. Числовые характеристики случайных процессов (определение, свойства). Корреляционная теория случайных процессов.

Каждая случайная величина полностью определяется своей функцией распределения.

В то же время при решении практических задач достаточно знать несколько числовых параметров, которые позволяют представить основные особенности случайной величины в сжатой форме. К таким величинам относятся в первую очередь математическое ожидание и дисперсия.

  1. Характеристики положения

  • Математическое ожидание случайной величины

Математическое ожидание - число, вокруг которого сосредоточены значения случайной величины. Математическое ожидание случайной величины  обозначается M .

Математическое ожидание дискретной случайной величины  , имеющей распределение

 

x1

x2

...

xn

p1

p2

...

pn

называется величина  , если число значений случайной величины конечно.

Если число значений случайной величины счетно, то  . При этом, если ряд в правой части равенства расходится, то говорят, что случайная величина  не имеет математического ожидания.

Математическое ожидание непрерывной случайной величины с плотностью вероятностей p(x) вычисляется по формуле  . При этом, если интеграл в правой части равенства расходится, то говорят, что случайная величина  не имеет математического ожидания.

Если случайная величина  является функцией случайной величины  ,  = f(x), то

.

Аналогичные формулы справедливы для функций дискретной случайной величины:

.

Основные свойства математического ожидания:

-математическое ожидание константы равно этой константе, Mc=c ;

-математическое ожидание - линейный функционал на пространстве случайных величин, т.е. для любых двух случайных величин  ,  и произвольных постоянных a и bсправедливо: M(a + b ) = a M( )+ b M( );

-математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий, т.е. M(  ) = M( )M( ).

 Если математическое ожидание случайной величины не существует, то в качестве характеристики положения случайной величины применяют моду или медиану.

  • Мода

Модой случайной величины X называется такое значение x, при котором плотность распределения вероятностей случайной величины f(x) принимает максимальное значе­ние. Из определения следует, что мода определяется только для непрерывных случайных величин. Аналогом моды для дискретной случайной величины является её наивероят­нейшее значение. Мода обозначается через Modx.

  • Медиана

Медианой случайной величины X называется такое значение x, которое разбивает всю область возможных значений случайной величины на две равновероятные части, т. е. P|X < x} = P|X > x} = 0,5. Из определения следует, что медиана, как и мода, точно может быть определена только для непрерывных случайных величин. Медиана обычно обозначается через Mеdx.

  1. Характеристики разброса

  • Дисперсия случайной величины

Дисперсия случайной величины характеризует меру разброса случайной величины около ее математического ожидания.

Если случайная величина  имеет математическое ожидание M , то дисперсией случайной величины  называется величина D = M( - M )2.

Легко показать, что D = M( - M )2= M 2 - M( )2.

Эта универсальная формула одинаково хорошо применима как для дискретных случайных величин, так и для непрерывных. Величина M >для дискретных и непрерывных случайных величин соответственно вычисляется по формулам

.

  • Для определения меры разброса значений случайной величины часто используется среднеквадратичное отклонение  , связанное с дисперсией соотношением  .

Основные свойства дисперсии:

-дисперсия любой случайной величины неотрицательна, D   0;

-дисперсия константы равна нулю, Dc=0;

-для произвольной константы D(c ) = c2D( );

-дисперсия суммы двух независимых случайных величин равна сумме их дисперсий: D(  ) = D( ) + D ( ).

  1. Моменты распределения

В теории вероятностей и математической статистике, помимо математического ожидания и дисперсии, используются и другие числовые характеристики случайных величин. В первую очередь это начальные и центральные моменты.

Начальным моментом k-го порядка случайной величины  называется математическое ожидание k-й степени случайной величины  , т.е.  M k.

Центральным моментом k-го порядка случайной величины  называется величина  k, определяемая формулой  k = M( - M )k.

Заметим, что математическое ожидание случайной величины - начальный момент первого порядка,  1 M , а дисперсия - центральный момент второго порядка,

 M 2 = M( - M )= D .

Существуют формулы, позволяющие выразить центральные моменты случайной величины через ее начальные моменты, например:

 2= 2- 12,  =  - 3 2 1 + 2 13.

Если плотность распределения вероятностей непрерывной случайной величины симметрична относительно прямой x = M , то все ее центральные моменты нечетного порядка равны нулю.

  1. Асимметрия

В теории вероятностей и в математической статистике в качестве меры асимметрии распределения является коэффициент асимметрии, который определяется формулой  ,

где  - центральный момент третьего порядка,  - среднеквадратичное отклонение.

  1. Эксцесс

Нормальное распределение наиболее часто используется в теории вероятностей и в математической статистике, поэтому график плотности вероятностей нормального распределения стал своего рода эталоном, с которым сравнивают другие распределения. Одним из параметров, определяющих отличие распределения случайной величины  , от нормального распределения, является эксцесс.

Эксцесс  случайной величины  определяется равенством  .

У нормального распределения, естественно,  = 0. Если  ( ) > 0, то это означает, что график плотности вероятностей p (x) сильнее “заострен”, чем у нормального распределения, если же ( ) < 0, то “заостренность” графика p (x) меньше, чем у нормального распределения.

КОРРЕЛЯЦИОННАЯ ТЕОРИЯ

Корреляционная теория случайных функций - описание случайных ф-ций   при помощи статистич. моментов 1-го и 2-го порядка:   . Аргумент случайной ф-ции x может иметь любую размерность. Если   - гауссова случайная ф-ция, полностью определяемая первым и вторым моментами, то К. т. даёт её полное описание. Обычно К. т. применяют для таких физ. задач, к-рые описываются линейными ур-ниями вида  = F(x), где   - нек-рый линейный оператор, F (х) - случайная ф-ция. В этом случае можно получить ур-ния и для статистич. моментов  ,

 . Для нелинейных 

задач К. т. обычно имеет приближённый характер. К. т. наиб. приспособлена для описания однородных (стационарных) случайных ф-ций, для к-рых справедлива Винера-Хинчина теорема. К. т. используют в большинстве физ. приложений случайных ф-ций, напр. в теории флуктуации и теории когерентности.

Дисциплина: ТВ и МС Билет № 6

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]