Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
СРВ САО ЛЕКЦИИ.doc
Скачиваний:
0
Добавлен:
09.01.2020
Размер:
3.53 Mб
Скачать

Контрольные вопросы

1. Каковы этапы структуризации экспериментальной информации при оценивании контролируемых параметров?

2. В чем разница между эйдетической и концептуальной интуициями?

3. В чем заключается принцип целостности объекта?

4. В чем заключается принцип эмерджентности системы?

5. Что такое синергизм системы?

6. В чем заключается современная концептуальная модель процесса оценивания контролируемого параметра?

7. Как определяется формальная модель оценивания контролируемого параметра?

8. Каковы компоненты математической постановки задачи оценивания?

9. Какова концептуальная модель задачи алгоритмизации?

10. Каковы основные свойства алгоритма обработки экспериментальной информации?

11. В чем смысл идентификационного и редукционного этапов задачи обобщенного оценивания?

Глава 2. Критерий качества задачи оценивания параметра

2.1. Определение качества задачи оценивания измеряемого параметра

Необходимыми компонентами математической постановки задачи оценивания измеряемых параметров являются: математическая модель измерения (ММИ); априорная и апостериорная информация; критерий оптимизации, а также ограничения, накладываемые на алгоритм оценивания вектора x и обеспечивающие его практическую реализуемость [3, 88].

При редукции экспериментальных данных возникает не только задача о точности или согласованности результатам измерения y модели, принятой в математической постановке задачи оценивания, но и задача возможности ее использования при редукции экспериментальных данных y. Надежность решения каждой из этих задач должна характеризоваться соответствующим риском [1]. Риск позволяет контролировать весь процесс интерпретации результатов измерения, включая диалог с оператором и вычисления на ЭВМ. В режиме диалога можно изменять и дополнять модель, основываясь на дополнительной информации по результатам редукции измерения, привлекать дополнительные измерения, т.е. риск формируемой в диалоге модели позволяет контролировать непротиворечивость привлекаемой информации и результата эксперимента.

Вычислительные погрешности, возникающие при редукции, влияют на совокупную надежность примерно так же, как погрешности в модели, привлекаемой для интерпретации. При этом критерием качества принимаемого решения выбирается риск [1, 76, 102], поскольку в используемом в этом случае апостериорном подходе основной характеристикой процедуры статистического вывода служит величина средних потерь среди тех экспериментов, которые закончились принятием одного и того же решения из пространства асимптотических решений [98].

В общем случае, для оценки надежности результатов измерения в темпе поступления измеряемой информации Y , количественной мерой потерь от принятия оценки вместо истинного значения x является функция потерь L(х, (Y0 )) [1, 83, 98], которая определяется разницей (х) и выборкой Y . При этом оценка не совпадает, за редким исключением, с истинным значением случайного процесса х. Поскольку наблюдения у несут в себе элементы случайности, то случайными будут и значения L(х, (Y0 )), поэтому для построения функционала (Y ) усредняют ее по множеству изменения процесса у у:

r(х, ) = Мy[L(х, (Y ))х] = (х, (Y ))p(Yx)dY , (2.1)

где p(Yх) – условная плотность распределения вероятностей.

Оценку в выражении (2.1) выбирают так, чтобы она соответствовала среднему значению х на множестве x, найденному с учетом вероятности появлений каждого значения х. Для этого используется средний риск – математическое ожидание условного риска r(х, ), взятое по х:

R( ) = Мхr(х, ) = (х, )p(x)dх, (2.2)

а критерием оптимизации оценивания выбирается критерий Байеса:

R( ) = R( б). (2.3)

Из равенства (2.2) следует, что для квадратичной функции потерь

R(px, |Y ) = х – )2p(x|Y )p(x)dх dY .

Для минимизации риска выбранной модели используют наиболее распространенный метод получения точечных оценок – метод максимального правдоподобия [1, 2], заключающийся в нахождении решающего правила (y) при Rnx, для которого любой y максимизирует по x значение плотности вероятности p(yx):

p(y; (y))  p(y; x) для всех x  x. (2.4)

Статистика (Y), которая удовлетворяет соотношению (2.4.), является оценкой максимального правдоподобия параметра x. В соответствие с принципом максимального правдоподобия, реализовавшееся на экспериментальной реализации х вектора наблюдений Y значение оценки максимального правдоподобия (Y) принимается за приближенное значение неизвестного параметра x. В терминах (Y) и L(Y; x) соотношение (2.4) эквивалентно тому, что с вероятностью Р = 1

L(Y; (Y)) = L(Y; x). (2.5)

Соотношение (2.5) и объясняет происхождение термина «оценка максимального правдоподобия». При регулярном семействе P = {p(y; x), x  x}, для определения оценки максимального правдоподобия (Y), находят решение уравнения правдоподобия L(Y; x) = 0. Поскольку для любой положительной функции g(x) и функции lng(x) экстремумы совпадают, то решают уравнение

(Y; x) = 0, (2.6)

где (Y; x) = lnL(Y; x) – информант вектора Y.

В соответствии с выражением (2.4), может существовать не одна, а несколько оценок максимального правдоподобия параметра x, что встречается в нерегулярных случаях, т. е. либо L(Y; x) не является дифференцируемой, либо множество Г(y) = {y: p(y; x) = 0} зависит от y. Поиск таких оценок становится труднее, но они обычно являются более точными в смысле минимизации квадратичного риска, поскольку из множества x выделяются точки с нарушенными условиями регулярности, что является информацией о плотности f(y; x) вектора наблюдений Y.