- •Часть I. Общие положения
- •Глава 3. Априорная неопределенность и возможные способы
- •3.2. Неполное статистическое описание данных наблюдения. Параметрическое описание априорной неопределенности
- •Эмпирический подход в задачах с априорной неопределенностью. Обучение
- •3.3.1 Простое обучение
- •3.3.2. «Рабочеподобное» обучение
- •Часть II. Методы синтеза информационных систем в условиях
- •4.2. Существенная и несущественная априорная неопределенность
- •4.3. Понятие оптимальности в условиях априорной неопределенности
- •4.3.1. Равномерно наилучшее решение
- •4.3.2. Принцип асимптотической оптимальности
- •4.3.3. Минимаксиминный принцип (минимакс минимального среднего риска)
- •4.3.4. Принцип минимума усредненного риска
- •4.3.5. Минимаксный принцип
- •4.4. Соотношения между правилами решения, полученными на основе различных принципов предпочтения
- •4.5. Использование достаточных статистик
- •Глава 5. Минимаксный подход
- •5.1. Минимаксное правило решения при наличии априорной неопределенности относительно параметров X
- •5.2. Полное незнание априорного распределения
- •5.3. Ограниченные сведения о множестве допустимых значений
- •5.4. Ограниченные сведения о статистических характеристиках
- •Г л а в а 6. Адаптивный байесов подход
- •6.1. Общие положения
- •6.2. Адаптивный байесов подход при параметрической априорной неопределенности
- •6.3. Случаи, когда множества решений u и параметров l непрерывны
- •6.4. Соответствие адаптивного байесова правила решения принципам оптимальности в условиях априорной неопределенности
- •6.4.1. Принцип предпочтения, связанный с равномерно наилучшим правилом решения
- •6.4.2. Принцип асимптотической оптимальности
- •6.4.3. Минимаксиминный принцип
- •6.4.4. Принцип минимакса
- •6.5. Принцип минимума усредненного риска
- •6.5.1. Случай одинаковой совокупности параметров при разных значениях
- •6.5.2. Случай разных совокупностей параметров при разных значениях
- •6.6. Выводы
5.3. Ограниченные сведения о множестве допустимых значений
Аналогичные предыдущим результаты получаются в том случае, когда априорная информация относительно , ограничена знанием только множества допустимых значений . При этом наименее предпочтительное распределение, естественно, обращается в нуль для , а минимаксное решение в довольно широких условиях совпадает с оценкой максимального правдоподобия, вычисленной при нахождении максимума функции правдоподобия по ограниченному множеству значений . Рассмотрим для примера достаточно важный и широко распространенный на практике случай, о котором шла речь в § 3.1, когда допустимое множество значений ={1, ... ... n} ограничено совокупностью гиперповерхностей в n-мерном пространстве, задаваемых с помощью соотношения
,
(5.3.1)
где
f(
)
- некоторая векторная функция f(
)={f1(
),
...,
fn(
)}
векторного
параметра
={
1,
.,
n},
(m<n),
который
может принимать любые значения в
m-мерном
евклидовом пространстве.
В этом случае функция правдоподобия для интересующих нас значений , где множество задается с помощью (5.3.1),
(5.3.2)
является фактически функцией только параметра а. Подобно этому функция потерь
(5.3.3)
тоже является функцией параметра a. Поэтому, если для параметра a существует такая достаточная статистика z = z(x), что аналогично (5.2.2)
(5.3.4)
и для решения u(x) = f(z(x)) функция потерь (5.3.3) может быть представлена в виде
(5.3.5)
где g2(z - а) - симметричная функция разности z - а, то совершенно аналогично § 5.2 доказывается, что правило решения
(5.3.6)
является
минимаксным правилом - минимаксной
оценкой вектора
(соответственно достаточная статистика
z(x)
является минимаксной оценкой векторного
параметра
).
Наименее предпочтительное распределение
в данном случае - равномерное распределение
на множестве ,
заданном соотношением (5.3.1).
Достаточная
статистика z(x),
как следует из (5.3.4), является также
оценкой максимального правдоподобия
и может быть найдена, из соотношения
(5.3.7)
в
котором максимизация по
производится для всех возможных
значений
,
принадлежащих m-мерному
евклидову пространству.
Важным частным случаем рассматриваемой задачи является случай, когда множество - совокупность некоторых гиперплоскостей n-мерного пространства .. При этом функции f(a) линейные, то есть
(5.3.8)
где F = ||Fik|| - некоторая матрица порядка (n x m), а оптимальная минимаксная оценка , имеет вид
(5.3.9)
где
*(х)
- оценка максимального правдоподобия
параметра
.
Представление (5.3.5) .для функции потерь в этом случае автоматически имеет место, если g(u,) - произвольная симметричная функция разности u - .
Ход рассуждений при получении решений (5.3.6), (5.3.9) совсем не требовал, чтобы пространство значений было конечномерным. Очевидно, полученные результаты справедливы и тогда, когда это пространство имеет более сложную структуру. Например, пусть нас интересует задача оценки функции (t) на интервале (t1, t2), причем этот интервал может быть и бесконечным. В этом случае множество значений - функциональное пространство. В свою очередь, функция (t) может быть векторной, то есть (t) = {(1)(t),…, (l)(t)}, где l - число компонент этой векторной функции. Ограничения на множество возможных значений , (5.3,1) при этом принимают вид
(5.3.10)
где
f
- скалярная либо векторная (f
= {f(1),…,
f
(l))},
функция
времени и параметра
={
1,
... ...
n},
а решение - оценка функции (t):
(5.3.11)
где
*
=
*(x)
= z(x)
- оценка максимального правдоподобия
для параметра
,
получаемая из соотношения
(5.3.12)
Таким
образом, решение (5.3.11) дает оптимальный
минимаксный алгоритм фильтрации
(построения оценки функций времени)
для широкого класса задач, в которых
искомые в процессе фильтрации функции
могут быть описаны с помощью зависимости
(5.3.10), содержащей произвольное число
полностью неизвестных параметров {
1,
... ...
m}.
Примеры подобного описания на практике
весьма многочисленны: траектория
движения объекта, для которого
дифференциальные уравнения движения
известны, а начальные условия неизвестны;
процессы, соответствующие уравнениям
движения, которые содержат какие-либо
неизвестные параметры или коэффициенты,
и т. д.
