Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математические методы принятия решений

..pdf
Скачиваний:
3
Добавлен:
13.11.2023
Размер:
22.94 Mб
Скачать

а (?(•) задано априори или с помощью вспомогательных процедур оценки.

Пример 1. Пусть имеем два класса т\ и m 2, P(wi) = р \, Р(а>2) = = 1 —р\ — априорные вероятности. Найти оценки параметров функ­ ций плотности вероятности.

Каждая функция плотности характеризуется средним значени­ ем mi и дисперсией а?, т. е.

р(х | (ùi) ~ р(х | m t, of, (ûi), i= 1,2.

Совместная функция плотности характеризуется параметрами 0 = = {mi; m 2; o f; а \), и pi задано следующим образом:

р(х 10,pi) =р\р{х | m b of, coi) + (1 - p i)p (x I т 2, о\, о>2). (6.22)

Необходимо найти оценки параметров 0 и pi по классифицирован­ ным обучающим наблюдениям х \ ,х 2, ■■■, хп, имеющим плотность распределения р(х \0,pi).

Учитывая условие (6.22), аналитически определим моменты:

M (x) = p im i

+ (1 -pi)m 2= p i(m i - m 2 ) + m2,

 

M(x2) = p i( m j

+ a 2) + (1 - p i X m j + o2),

(6.23)

M(x3) = p i ( m 2

+ 3 m i a 2) + (l - p i ) ( m 2 + З т г о 2).

 

Теперь те же значения моментов вычислим по результатам на­ блюдений xi,X2, . . . , х п, подставим их в систему (6.23), из кото­ рой найдем искомые параметры. Как правило, параметры последо­ вательно оцениваются посредством оценок моментов совместных распределений. В случае, когда aj и а\ неизвестны и не равны друг другу, необходимо знать моменты смешанного распределения бо­ лее высокого порядка для получения достаточных функциональных связей между неизвестными параметрами.

Обычно неоднозначность решения следует ожидать при сов­ местном решении нелинейных уравнений, полученных в результате применения метода моментов. Единственное решение может быть получено только в случае, когда имеется дополнительная информа­ ция о параметрах.

12 — 4077

Пример 2. Пусть в примере 1 m 2 = 0, о\ = 02 = о. Требуется оценить р ь о, тп\.

Из системы (6.23) имеем

М(х) = р \г п \, Щ х 2) = р \т \ + а 2, М(х3) = р \(т ] + 3raia2),

откуда относительно т \ получим квадратное уравнение

тп\ 3M(x)mi + ЗМ(х2) —

= 0.

Единственное решение этого уравнения будет при р \ = 2/3, когда дискриминант

9М2(ж) - 12М(ж2) + 4 ^ ^ = m?(3pi - 2)2 М(х)

равен нулю. В других случаях решение будет не единственно.

§ 6.9. Математическая постановка задачи учета погрешности признаков

Как показано в предыдущих параграфах, в традиционных мето­ дах (алгоритмах) решения задач распознавания образов не в полной мере учитывается статистическая природа наблюдений (рис. 6.6).

Рис.

6.6. Оценки условной плотности вероятности

признака С

при

плотности вероятности

f ( x ) наблюдаемых значений

х г = £* + Ьг,

 

n i / n

= p ( l i , 6 | < ^ ) + £г

 

В частности, в процедурах классификации образов функции услов­ ных плотностей вероятности векторов признаков и результаты на­ блюдений, по которым ведется классификация образов, являются

соответственно детерминированными функциями и детерминиро­ ванными величинами.

Когда функции и величины содержат ошибки, получаем сме­ щенные оценки, например, разделяющих функций и, как следствие, увеличение числа неверных решений. Полный учет статистических характеристик наблюдаемых векторов признаков в задачах приня­ тия решения приведет к уменьшению числа ложных решений.

Пусть D — пространство решений d, О — пространство обра­ зов (о (или пространство параметров в статистических задачах принятия решения), R пространство потерь, которые могут быть получены в результате решения d и исхода (образа) to. Каждый образ и>е П характеризуется вектором признаков Ç, а также счита­ ются известными для каждого класса образов соj, j = 1, 2, ... ,m , многомерные условные функции плотности вероятностей векторов признаков р(2[ | со7), которые оцениваются по результатам наблюде­ ний векторов признаков £. Координаты векторов £ в силу различных случайных помех не наблюдаются, а наблюдаются случайные вели­ чины х, связанные с \ следующим соотношением: х = Ç + 8, где 8 — случайная аддитивная помеха с известным законом распределения. В частности, во многих случаях можно считать, что 8 подчиняется многомерному нормальному закону распределения с нулевым мате­ матическим ожиданием и известной ковариационной матрицей 82/ (I — единичная матрица).

В рассмотренных традиционных методах решения статистиче­ ских задач распознавания образов (статистических задач принятия решения) с фиксированным объемом выборки можно выделить два этапа: на первом этапе по результатам наблюдений случай­ ного вектора признаков х\, х г , ..., х п получают оценки плотностей условных распределений в виде р(х \ u>j) и функции распределения образов P(<Oj), j = 1, 2, ... ,m ; на втором этапе, считая известны­ ми р(х | <x>j) и P(oj), j = 1, 2, . . . , т, наблюдаемый вектор х относят к некоторому классу (Oj, j = 1,2,..., т (рис. 6.7).

На рис. 6.7 L(d, Wj) — функция ущерба от принятия решения d, когда выбран объект от,; P(tOj) — априорная вероятность появления объекта CÙJ. Классификация проводится путем минимизации веро­ ятности ошибочного распознавания, в процессе которой получается решающее правило 8(х).

Рис. 6.7. Блок-схема традиционной процедуры обучения системы и рас­ познавания образов

В традиционных методах на втором этапе условные распределе­ ния р(х | (ùj), j = 1, 2, . . . , т, являются детерминированными функ­ циями, а случайная величина (вектор) х детерминированной вели­ чиной (вектором). В силу этого получаемые разделяющие функции также являются детерминированными. В действительности следу­ ет оценить «истинные значения» признаков \ и функций p(Ç | оу,), j = 1, 2, . . . , т, которые в процессе обработки результатов наблюде­ ний X], Х2, ..., хп должны иметь интервальные оценки, а если вид функций р(£ | (ùj) был выбран априори, то должны быть указаны ин­ тервальные оценки их параметров и самих функций. Соответствен­ но, должны быть представлены интервальные оценки разделяющих функций и наблюдавшейся перед классификацией случайной вели­ чины х.

Задача классификации объектов с учетом интервальных оце­ нок исходных данных усложняется, но уменьшается число ложных распознаваний. Учет интервальных оценок разделяющих функций

и наблюдавшихся перед классификацией величин чрезвычайно ва­ жен в практических приложениях, когда координаты вектора при­ знаков достаточно близки для различных объектов, а точность из­ мерения этих признаков соизмерима с разностью значений призна­ ков. Например, при радиолокационных измерениях характеристик различных типов самолетов точность измерения соизмерима с раз­ ностью значений этих характеристик.

Вобщем случае байесовский риск (который определяет раз­ деляющую функцию) относительно мало чувствителен к ошибке (приращению) в выборе значения априорного распределения P(<l>J), j = 1,2, ... , т. Если функция байесовского риска кусочно линейна, то приращение байесовского риска равно нулю, когда приращение распределения P(cùj) содержится в интервале линейности функции байесовского риска. Поэтому далее априорное распределение Р(ы*) мы часто рассматривать не будем.

Вдействительности измеренные значения вектора признаков

имеют две компоненты: истинное значение \ и помеху 8, т. е. х =

= !; + 8. Неучет помехи 8 приводит к смещенным оценкам всех

характеристик, в расчете

которых участвует значение х. Кроме

этого, необходимо учесть

интервальные оценки всех рассчитыва­

емых

функций и величин: р(Е, \ ь>j) и ошибок первого

и второго

рода

(в традиционных методах этого не делают), что

приводит

к появлению зон неопределенности в принятии решений даже при фиксированном объеме выборки. Наблюдаемые значения при­ знаков х И в процедуре идентификации также содержат помеху, и идентификацию объектов следует проводить по оценке истин­ ного значения £н, а не по наблюдаемому значению х„. Определить оценку величины можно, используя только всю информацию, по­ лученную на первом этапе. Таким образом задача идентификации практически не разделяется на независимые этапы, а имеет общую схему (рис. 6.8).

На рис. 6.7 и 6.8 прямоугольниками с надписью ПК обозна­ чены процедура обработки результатов наблюдений и ее алгоритм; на рис. 6.8 утолщенной обводкой прямоугольников обозначены бло­ ки, которых либо нет в традиционных методах, либо эти блоки претерпевают существенные изменения по сравнению с традици­ онным подходом.

Рис. 6.8. Блок-схема единой процедуры обучения системы и распознавания образов

Из алгоритмов распознавания образов, представленных в блоксхеме, приведенной на рис. 6.8, видно, что изменяются конкретные значения оцениваемых функций и параметров по сравнению с тра­ диционными алгоритмами (а это приводит и к иным практическим выводам) и появляется область неопределенности, когда идентифи­ кацию объектов, в принципе, произвести невозможно.

Ниже будет показано, что в процессах принятия, решений да­ же при фиксированном объеме выборки появляются зоны неопре­ деленности, в которых необходимо применять процедуры методов последовательного принятия решений. Естественно, что учет по­ грешности наблюдаемых значений признаков приведет к измене­ нию верхних и нижних останавливающих границ и среднего числа наблюдений до принятия решений и в последовательных методах принятия решений.

Отсюда приходим к математической постановке задачи. Введем некоторые обозначения. Каждый объект в задаче рас­

познавания образов характеризуется вектором признаков £. В экс­ перименте из-за помех вместо величины \ наблюдается случай­ ная величина х = £ + 5. Для величины х может быть задана как плотность распределения вероятности признаков (для непрерывных случайных величин), так и функция вероятности (для дискретных случайных величин).

Пусть до принятия решения d, принадлежащего множеству ре­ шений D, задано параметрическое пространство исходов П и для всех со е П задана обобщенная плотность распределения вероятно­ сти р(со) (где Ü — пространство образов со или пространство па­ раметров со в статических задачах решения). Задана вещественная функция полезности u(co, d) или функция потерь L(со, d) = —и(со, d) на произведении ü х D пространств.

Пусть S — выборочное пространство возможных значений на­ блюдаемого признака \ исхода со, когда значение признака не на­ блюдается, а наблюдается случайная величина х, связанная со зна­ чением признака Ç соотношением х = 2; + 8, где 8 — аддитивная помеха, плотность распределения /(х ) которой и числовые ха­ рактеристики плотности распределения предполагают известны­ ми, в частности это может быть нормальный закон распределения

с математическим ожиданием М(5) = 0 и дисперсионной матрицей 0 (8) = а 2/, где I — единичная матрица.

Пусть задано с точностью до значений параметров парамет­ рическое семейство условных обобщенных вероятностных плот­ ностей (о.в.п.) р(£, 0 1со), w e î î . При неизвестных о. в.п. p(i, 0 1со) должно быть задано параметрическое семейство разделяющих

функций /i(£, 0).

Пусть выбрана из класса решающих функций Д функция ср(£),

определяющая для

любого возможного значения £ е S решение

d(t) е D и минимизирующая функцию среднего риска

p(co,d©) = M{L(co,d(0)} =

 

=

J | Ц со,

9 1со)р(со) dp&) dv(co), (6.24)

 

a s

 

где для всех соеП

функция

L(co, d(Q) измерима и интегрируема

на множестве S.

 

 

Требуется по выборке фиксированного объема результатов на­ блюдений х или в методах последовательного принятия решений

найти:

 

 

1) точечные и

интервальные оценки параметров

0 условных

о. в. п. р(£, 0 1со),

а также точечные и интервальные

оценки са­

мих условных о. в. п. р(£, 0 | со); при неизвестных о. в. п. р(£, 0 1со) — точечные и интервальные оценки параметров 0 и разделяющих функций h(i, 0);

2)точечные и интервальные оценки решающих функций ср(£);

3)оценки X «истинных» значений вектора признаков £, по кото­ рым впоследствии принимается решение d e D.

После этого необходимо произвести идентификацию наблюда­ емого объекта, т. е. поставить в соответствие наблюдаемому зна­

чению вектора признаков х некоторый образ со., и определить при этом точечные и интервальные оценки суммарной ошибки и ошибок первого и второго рода, возникающих при принятии ре­ шения d e D .

В соотношении (6.24) запись выражений ф (£ ) и dv(£) означа­ ет, что интеграл р(со, d(£)) понимается как обычный интеграл для

непрерывных случайных величин \ и со и как сумма для дискрет­ ных величин. При любом наборе (со, d ) ü х D функция L(со, d) представляет собой потери для лица, принимающего решение d при исходе со.

В отличие от этой постановки в традиционной постановке за­ дачи распознавания образов не учитывают помехи 8, величины \ и х отождествляют, не определяют интервальные оценки функ­ ций р ( £ , 0 | со), h(i, 0) и <p(Ç), не определяют оценки \ и интервальные оценки ошибок первого и второго рода (а и Р). Отсутствие уче­ та помех 8 и оценок \ приводит к смещенным точечным оценкам р ( £ , 0 | со), h(i, 0) и ср(£ ), к неверным интервальным оценкам и к лож­ ным практическим выводам.

Г л а в а 7

МЕТОДЫ РЕГРЕССИОННОГО И КОНФЛЮЭНТНОГО АНАЛИЗА

КАК ИНСТРУМЕНТ В ПРОЦЕДУРАХ ПРИНЯТИЯ РЕШЕНИЙ

§7.1. Понятие регрессии. Основные определения

При определении вида функции плотности распределения ве­ роятности распознаваемых классов или разделяющих (решающих) функций в качестве исходных данных используют выборки, полу­ ченные в результате конкретных экспериментов. Как любые экс­ периментальные значения, исходные данные содержат ошибки, которые существенно влияют на результаты решений задач. По­ скольку рассматриваемые алгоритмы учета погрешностей исходных данных будут применяться к различным функциям: условным плот­ ностям вероятности, разделяющим (решающим) функциям, то из­ меренные значения признаков обозначим переменной х, а значения оцениваемых функций — у(х). Будем считать, что общий вид оце­ ниваемых функций априори известен, но надлежит найти точечные

иинтервальные оценки свободных параметров этих функций, по ко­ торым можно определить точечные и интервальные оценки самих функций.

Модели, позволяющие учитывать ошибки в значениях функций

иаргументов, рассматриваются в [8, 9, 16, 20-24, 30, 40, 87, 94-96, 99, 100, 102-104, 106, 108, 109]. Наиболее часто [2, 14, 45, 76, 80, 93] встречается постановка задачи определения оценок вектора па­ раметров 0 модели

Vi = f(xi, 6)

+ Zi, г = 1, 2, . . . , n,

 

где Ej — случайная ошибка,

имеющая нормальное

распределение

с параметрами М(е0 = 0, D(ej) = о?, Dfo, еj) = 0,

г, j = 1, 2, . . . , n.

Соседние файлы в папке книги