- •Часть I. Общие положения
- •Глава 3. Априорная неопределенность и возможные способы
- •3.2. Неполное статистическое описание данных наблюдения. Параметрическое описание априорной неопределенности
- •Эмпирический подход в задачах с априорной неопределенностью. Обучение
- •3.3.1 Простое обучение
- •3.3.2. «Рабочеподобное» обучение
- •Часть II. Методы синтеза информационных систем в условиях
- •4.2. Существенная и несущественная априорная неопределенность
- •4.3. Понятие оптимальности в условиях априорной неопределенности
- •4.3.1. Равномерно наилучшее решение
- •4.3.2. Принцип асимптотической оптимальности
- •4.3.3. Минимаксиминный принцип (минимакс минимального среднего риска)
- •4.3.4. Принцип минимума усредненного риска
- •4.3.5. Минимаксный принцип
- •4.4. Соотношения между правилами решения, полученными на основе различных принципов предпочтения
- •4.5. Использование достаточных статистик
- •Глава 5. Минимаксный подход
- •5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
- •5.2. Полное незнание априорного распределения
- •5.3. Ограниченные сведения о множестве допустимых значений
- •5.4. Ограниченные сведения о статистических характеристиках
- •Г л а в а 6. Адаптивный байесов подход
- •6.1. Общие положения
- •6.2. Адаптивный байесов подход при параметрической априорной неопределенности
- •6.3. Случаи, когда множества решений u и параметров l непрерывны
- •6.4. Соответствие адаптивного байесова правила решения принципам оптимальности в условиях априорной неопределенности
- •6.4.1. Принцип предпочтения, связанный с равномерно наилучшим правилом решения
- •6.4.2. Принцип асимптотической оптимальности
- •6.4.3. Минимаксиминный принцип
- •6.4.4. Принцип минимакса
- •6.5. Принцип минимума усредненного риска
- •6.5.1. Случай одинаковой совокупности параметров при разных значениях
- •6.5.2. Случай разных совокупностей параметров при разных значениях
- •6.6. Выводы
6.3. Случаи, когда множества решений u и параметров l непрерывны
Прежде чем переходить к решению второго из поставленных в § 6.2 вопросов, рассмотрим важный частный случай, когда множества решений и u значений параметров l непрерывны и имеют одинаковую структуру.
Как отмечалось выше, в этом случае решение и может быть интерпретировано как оценка параметра l, а правило решения u = u(x) ставит в соответствие каждому значению х значение этой оценки. Будем считать, что функция потерь является симметричной функцией разности
u - l, тогда апостериорный риск
(6.3.1)
Пусть
плотность совместного распределения
вероятности
дважды
дифференцируема по
и
при
любых значениях
,
,
тогда
(6.3.2)
где
,
- решение уравнения
(6.3.3)
(6.3.4)
взятые
со знаком минус матрицы, составленные
из вторых производных логарифма
плотности
в точке
,
,
которые подобно
и
зависят
только от х;
-
оператор градиента по компонентам
;
,
-
операторы градиента, ставящие в
соответствие той функции, на которую
действуют такие операторы, вектор-строку
частных производных этой функции по
всем компонентам
или
.Не
написанные в показателе экспоненты
(6.3.2) члены имеют третий и более высокий
порядок относительно разностей
и
.
Роль этих членов тем меньше, чем больше
объем данных наблюдения х;
по мере его увеличения совместное
распределение вероятности
при
заданном х
и величины
из
(6.3.3) асимптотически приближаются к
нормальному распределению вероятности.
Используя это асимптотическое
приближение, получаем
,
(6.3.5)
,
(6.3.6)
где
-как
всегда матрица, обратная матрице
;
-некоторая
неотрицательная функция, зависящая
только от х.
Из
выражения для апостериорного риска
(6.3.5) следует, что оптимальная байесова
оценка
параметра
имеет
вид
(6.3.7)
Действительно,
благодаря свойствам функции потерь
g(u
- l)
выражение
(6.3.6) дифференцируемо по u
под знаком интеграла, при этом
- нечетная функция своего аргумента и,
следовательно, при подстановке u
= u0(x,
)
из
(6.3.7) градиент
обращается
в нуль, то есть обеспечивается минимум
апостериорного риска.
Из
выражения (6.3.6) следует, что оценка
максимального правдоподобия параметра
,
определяемая
как решение уравнения (6.2.15), совпадает
с величиной
*,
являющейся решением уравнения (6.3.3).
Поэтому адаптивное байесово правило
решения принимает вид
(6.3.8)
Тем
самым уравнение (6.3.3) дает полное решение
задачи - оно определяет наилучшее в
условиях априорной неопределенности
решение задачи оценивания l
и дает оценку максимального правдоподобия
для параметра
,
описывающего
неопределенность априорных знаний о
законах распределения вероятности х
и l.
Покажем,
что правило решения (6.3.8) удовлетворяет
требованию (6.2.12) равномерно наилучшего
приближения к оптимальному байесову
решению с известным значением
.
Ограничимся
для простоты случаем квадратичной
функции потерь
![]()
Вычисляя
значения апостериорного риска (6.3.5) при
,где
-какая
либо оценка
,и
при
и беря
их разность, получаем следующее
выражение для функции
(6.3.9)
где
- симметричная квадратная матрица того
же порядка, что и вектор
,
не
зависящая от
и
,
но,
возможно, зависящая от х.
Величина
разности средних рисков адаптивного
и оптимального при известном
байесовых
правил решения
будет
при этом равна
(6.3.10)
где для сокращения записи обозначено
(6.3.11)
Математическое
ожидание матрицы
представляет
собой информационную матрицу Фишера
для совокупности параметров g.
Из
выражения (6.3.10) видно, что задача
нахождения минимаксной оценки
,
обеспечивающей
выполнение требования (6.2.12), в данном
случае с точностью до обозначений
совпадает с рассмотренной в § 5.2. Из
полученного там решения следует, что
минимаксная оценка параметра g
есть
g*(x)
и,
следовательно, правило решения (6.3.8)
действительно обеспечивает равномерно
наилучшее приближение к минимальному
байесову среднему риску для известного
значения g.
