Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Ответы

.pdf
Скачиваний:
24
Добавлен:
05.06.2015
Размер:
620.81 Кб
Скачать

принимается гипотеза H. Если имеет экспериментальное значение больше xг2, принимаем гипотезу ̅. При умножении на C, левый «холм» увеличивается, и xг2 смещается правее. Одновременно с этим увеличивается ошибка 2 рода, ошибка 1 рода – уменьшается.

Вреальных задачах все решается по методике:

знаем параметр α1 (или α2) и кол-во выборочных значений n;

рассчитываем значение C, тем самым однозначно определяя параметр xг из

̅) ( ⁄ );

рассчитываем α2.

Для нормального закона распределения:

 

 

 

 

 

 

( )

[

(

)], где Ф – функция Лапласа, K1

константа определяющая величину вероятности α1 (однозначно связана с C). Т.е. для решения данной система надо знать два параметра, обычно это α1 и n (или α2). Теорема Пирсона имеет следующие недостатки:

нет возможности проверять сложные параметрические гипотезы;

нет аналитического способа нахождения компромисса при выборе ошибок первого и второго рода;

неясно, как проверять несколько даже простых конкурирующих гипотез.

10

10. Вальдовская редукция сложной гипотезы

Сложной называют гипотезу, которая состоит из конечного или бесконечного множества простых гипотез. Сложная гипотеза H о неравенстве x >10 состоит из бесконечного множества простых гипотез Н о равенстве x =a , где a – любое число, большее 10. Гипотеза Н о том, что математическое ожидание нормального распределения равно 2 при неизвестной дисперсии, тоже является сложной.

Выход из этой ситуации осуществляется путем модификации постановки задачи проверки гипотез. Вводится закон распределения pθ (у) неизвестного параметра. Этот подход приводит к так называемой Вальдовской редукции сложной гипотезы к простой. В данном методе вводится подмена задачи проверки параметрической гипотезы: неизвестный параметр считается случайной величиной с известным законом распределения. Сразу же следует оговорить, что использование среднего значения неизвестного параметра является некорректным.

Проведение редукции можно пояснить с использованием формулы полной вероятности Р(В) для случайного события B: ( ) ∑ ( ) ( ), где: Аi - несовместные случайные события, с которыми (и только с ними) может происходить событие В. P(B/Ai ) — условная вероятность события В, если имеет место событие Аi.

Пусть неизвестный параметр θ в условиях гипотезы Н может принимать конечное

число значений

 

с вероятностями

 

соответственно. Тогда вероятность

 

попадания

 

результатов

эксперимента

в

критическую

область W равна

(применяем формулу полной вероятности):

 

 

 

 

[

]

∫ ∑

(

)

∫ ̅( )

 

(

) – плотность распределения выборочного вектора, когда

;

̅( ) – усреднённая плотность распределения выборочного вектора (усреднение ведётся по возможным значениям параметра = это есть редукция);

х – вектор,

.

Если параметру

ставится в соответствие плотность распределения ( является

непрерывной случайной величиной), то формула полной вероятности также даёт возможность вычислить вероятность ошибки первого рода:

( )[∫

(

)

 

] .

Изменение

порядка интегрирования

позволяет получить окончательную формулу:

 

 

 

 

 

 

̅ (

)

,

где

̅ (

)

( )

(

)

усреднённая по

значениям

параметра

плотность

распределения

выборочного

вектора в условиях гипотезы Н. Также проводится редукция противоположной гипотезы ̅. Усреднение закона распределения неизвестного параметра называется Вальдовской редукцией сложной параметрической гипотезы к простой. Главным средством редукции является отказ от рассмотрения гипотез о неслучайных значениях неизвестного параметра.

11

11. Критерии оптимальности при проверке гипотез

Неопределенность в выборе компромисса между α1 и α2 может быть снята, если ввести единый критерий оптимальности статистического теста. Критерий оптимальности можно ввести из следующих соображений. Каждая ошибка при принятии гипотезы, когда реально имеет место гипотеза противоположная, ведет к некоторым убыткам, также как отсутствие ошибки связано с прибылью. При двух конкурирующих гипотезах возможны всего четыре ситуации:

Принята

Реально имеет

Ошибка

Вероятность

Прибыль

гипотеза

место

 

ошибки

 

̅

H

Ошибка первого

α1

12

 

 

рода

 

 

̅

̅

Ошибки нет

-

П22

H

̅

Ошибка второго

α2

21

 

 

рода

 

 

H

H

Ошибки нет

-

П11

Поскольку предполагается, что статистические тесты должны применяться

многократно, то

следует ввести вероятности р1 и

р2 появления гипотез H и ̅

соответственно.

 

 

Среднее значение ̅ прибыли равно

 

̅ = р1 [(1- α1) П11- α1П12]+ р2 [(1- α2) П22- α2 П21]

 

Понятно, что ̅

является функцией от величин α1

и α2, которые связаны между

собой. Например, при рассмотрении простых конкурирующих гипотез о математических ожиданиях в условиях нормального закона распределения имеют

место соотношения, из которых следует: [ ( ) ( )],

где Ф-1 — символ функции, обратной к функции Лапласа.

Таким образом, ̅ зависит только от α1, и можно искать экстремальное значение ̅ . Для дальнейшего рассмотрения задаются параметры: П11, П12, П21, П22, р1, р2, n, σ,

m1, m2.

Зная зависимость α21), а следовательно при заданных остальных значениях - ̅( ), смотрим, при каких значениях α1 (а следовательно и α2) среднее значение прибыли ̅ принимает максимально возможное значение.

Следует заметить, что в выражении для ̅ размерную величину П11 можно вынести за скобки. Это дает возможность при оптимизации критерия использовать относительные значения прибыли (потери) для имеющихся четырех ситуаций и применять экспертные подходы. Кроме того, критерий оптимальности необязательно трактовать в таких случаях как экономический, он может носить и другой характер.

12

12. Критические области для гипотез

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области – гипотезу отвергают, если области принятия гипотезы – гипотезу принимают.

Для случаев многомерного выборочного пространства справедливо следующее обозначение критической области:

13

13. Формула полной вероятности при проверке сложных гипотез

Простая гипотеза ( ) – если в её условиях известен закон распределения выборочного значения (в общем случае – закон распределения выборочного вектора).

Сложная гипотеза – закон распределения неизвестен Формула полной вероятности:

Пусть событие A может происходить только с одним из несовместных событий

. Здесь события

можно называть гипотезами. Тогда формула полной

вероятности будет иметь вид:

( ) ∑

(

) (

), то есть вероятность события A вычисляется как сумма

произведений вероятности каждой гипотезы ( ) на вероятность события A при

этой гипотезе

(

).

 

Пусть неизвестный параметр θ в условиях гипотезы Н может принимать конечное

число значений

с вероятностями

 

соответственно. Тогда вероятность

попадания

результатов

эксперимента

в

критическую область

W равна

(применяем формулу полной вероятности):

 

 

 

[

]

∫ ∑

(

)

∫ ̅( )

 

(

) – плотность распределения выборочного вектора, когда

;

̅( ) – усреднённая плотность распределения выборочного вектора (усреднение ведётся по возможным значениям параметра = это есть редукция);

х – вектор,

.

Если параметру

ставится в соответствие плотность распределения ( является

непрерывной случайной величиной), то формула полной вероятности также даёт возможность вычислить вероятность ошибки первого рода:

( )[∫

(

)

]

. Изменение

порядка

интегрирования

позволяет получить окончательную формулу:

 

 

̅ (

)

,

где ̅ (

) ∫ (

)

– усреднённая

по значениям

параметра

 

плотность

распределения

выборочного вектора в

условиях гипотезы Н. Также проводится редукция противоположной гипотезы ̅. Усреднение закона распределения неизвестного параметра называется Вальдовской редукцией сложной параметрической гипотезы к простой.

14

14. Проверка многих гипотез

 

 

 

 

Пусть проверяется много гипотез

. Для них принято

, где

вероятность ошибки j-го рода для i-ой

гипотезы.

Можно

представить в

виде

матрицы:

(

).

 

 

 

 

Должны быть известны вероятности появления гипотез:

. Следует ввести

критерий оптимальности: ̅(

) ∑

, где

– значение качества.

Необходимо разбить оптимальное пространство на области. От этого разбиения будут зависеть вероятности . Хорошо бы ввести вспомогательный параметр К,

каждое из возможных значений

которого определяло бы соответствующую

область пространства

.

Тогда из системы уравнений

̅

можно было

 

 

получить нужное оптимальное разбиение выборочного пространства. Однако неизвестна конфигурация областей . Кроме того, эти области не должны пересекаться. Проще самим их выбрать несложной формы, например, разделять пространство прямыми.

15

15. Стоимость риска

Риск - возможность появления неблагоприятного случайного события.

Простейшей количественной характеристикой риска является вероятность наступления рассматриваемого неблагоприятного события, однако порой трудно сказать, является ли известное значение вероятности большим или нет Пример: если дождь может испортить вам дорогую одежду, то даже самое

маленькое значение вероятности появления дождя следует воспринимать как существенное.

Также стоит добавить понятие веса (стоимости) ошибки и определять оптимальное значение оценки исходя из условия минимальных средних потерь при многократном принятии решений.

Цель анализа риска заключается в том, чтобы использовать имеющиеся ресурсы во избежание потерь, связанных с наступлением неблагоприятного события.

Ошибки разных знаков могут иметь разные последствия.

Пример: Тепловыделяющая сборка охлаждается теплоносителем с определенной температурой. Если температура будет больше граничной, то вода закипит, образуется воздушная прослойка и ТВС начнет плавиться, что приведет к аварии на

ядерном реакторе и к

огромным потерям. А если температура будет меньше

заданного диапазона,

то реактор не дорабатывает -

меньше денег за

электроэнергию. Но стоимость положительной ошибки (когда мы измеряем температуру, и она оказывается больше чем есть на самом деле) намного меньше, чем стоимость отрицательной (когда измеряется температура теплоносителя, и она меньше чем есть на самом деле).

Следует отметить, что в частном случае, когда функция стоимости ошибки имеет квадратичный вид ( ) , оптимальное решение всегда совпадает с математическим ожиданием случайной величины .

Вбольшинстве научных исследований в понятие «риск» наряду с вероятностью наступления неблагоприятного события вкладывается и другая, связанная с этим событием характеристика, - размер наносимого ущерба.

Это приводит к трактовке количественной меры риска как математического ожидания ущерба, определяемого на множестве возможных неблагоприятных событий.

Всоответствии с таким толкованием в качестве количественной меры риска целесообразно использовать показатель, одновременно учитывающий две характеристики неблагоприятного события – вероятность его наступления и величину причиняемого им ущерба

16

16. Учет ошибок первого и второго рода при проверке гипотез

Если из некоторых соображений выбрана критическая область W, вероятность попадания в которую отлична от нуля и единицы, то процедуре проверки гипотез соответствуют возможные ошибки: принять ̅, когда имеет место H (ошибка первого рода), и принять H, когда имеет место ̅ (ошибка второго рода). Ошибки первого и второго рода часто называют рисками поставщика и заказчика соответственно (или рисками изготовителя и покупателя). При определённых условиях можно говорить о вероятностях этих ошибок:

– вероятность ошибки первого рода, – вероятность ошибки второго рода.

Величины

и

, если они существуют, зависят от выбранной критической

области. Например,

если критическая область W совпадает со всем выборочным

пространством, то ошибка второго рода невозможна. Если же W является пустым множеством, то невозможна ошибка первого рода.

Задача построения процедуры проверки гипотез обычно сводится к выбору хорошей критической области, когда обеспечиваются приемлемые значения и .

Если критическая область полностью определена, то известны ошибки первого и второго рода:

∫ ( ) и ̅̅̅ ̅ ( ) . Оптимальность критической области в теореме Пирсона означает, что среди всех критических

областей, для которых имеет заданное значение (таких областей существует бесчисленное множество), минимальна для оптимальной критической области.

17

17.Стохастическая постановка задачи распределения средств

18.Анализ рисков в задаче распределения средств

18

19. Функция контроля технологического процесса

20. Понятие уставки и цель его введения

21. Расчет уставок при прямых измерениях

Ошибки разных знаков могут иметь разные последствия.

Пример: Тепловыделяющая сборка охлаждается теплоносителем с определенной температурой. Если температура будет больше граничной, то вода закипит, образуется воздушная прослойка и ТВС начнет плавиться, что приведет к аварии на

ядерном реакторе и к

огромным потерям. А если температура будет меньше

заданного диапазона,

то реактор не дорабатывает -

меньше денег за

электроэнергию. Но стоимость положительной ошибки (когда мы измеряем температуру, и она оказывается больше, чем есть на самом деле) намного меньше, чем стоимость отрицательной (когда измеряется температура теплоносителя и она меньше чем есть на самом деле).

Следует отметить, что в частном случае, когда функция стоимости ошибки имеет квадратичный вид ( ) , оптимальное решение всегда совпадает с математическим ожиданием случайной величины .

19