
- •Н.Н. Апраушева элементарный курс
- •Решений
- •Научное издание
- •Н.С. Гумилев
- •Глава 1. Элементы теории эвристических решений (эр)
- •§1. Строгие и эвристические методы пр
- •§2. Общая структура процесса принятия решения
- •§3. Центральная проблема теории эр
- •§4. Краткая история развития эр
- •Глава 2. Принятие решений в распознавании образов
- •§ 1. Понятие о распознавании образов, классификации
- •§2. Условия применимости математических
- •§3. Критерий оптимальной классификации
- •§4. Основные условия, гарантирующие оптимальную
- •§ 5. Алгоритмы классификации в режиме с обучением
- •§6. Классификация как задача статистической
- •§7. Алгоритмы автоматической классификации (ак)
- •§8. Предварительное обнаружение классов
- •Глава 3. Общая математическая теория принятия решений
- •§1. Принятие решений в условиях неопределенности
- •§ 2. Принятие решений в условиях риска
- •§3. Принятие решений при проведении эксперимента
- •§4. Принятие решений при проведении
- •Ррпт – резко различающиеся плотности точек,
§6. Классификация как задача статистической
проверки гипотез
Рассматривается классификация в режиме с обучением. Для простоты и наглядности положим k = 2, p = 2. Классы 1 , 2 представлены своими обучающими выборками (2.9). Кроме того, известен закон распределения вероятностей значений признаков в каждом классе, т.е. заданы функции распределений вероятностей [4]:
,
.
Предположим, что
,
,
где f1(X), f2(X) – функции плотностей вероятностей в классах 1 , 2 соответственно (рис. 2.10).
Наблюдаемый объект
может принадлежать только одному из
двух классов 1
или 2 .
Необходимо сформулировать правило, по
которому вектор X был бы
отнесен к 1 или
к 2 с минимальной
вероятностью ошибки классификации Pош.
В сформулированных выше условиях задача классификации сводится к задаче статистической проверки двух гипотез H1 и H2,
,
.
В процессе принятия решения возможны ошибки 1-го и 2-го родов. Вероятность ошибки 1-го рода – вероятность отклонить гипотезу Н1 в то время, когда она истинна. Вероятность ошибки 2-го рода – вероятность принять гипотезу Н2 в то время, когда истинной является гипотеза Н1. Эти два вида ошибок часто неодинаково важны для лица, принимающего решение. Поэтому вводятся цены ошибок 1-го и 2-го рода. Пример из гидролокации: пусть 1 – множество сигналов, создаваемых подводной лодкой, 2 – множество других морских сигналов, не создаваемых подводной лодкой. Ошибка 1-го рода – пропустить сигнал подводной лодки (пропуск цели), ошибка 2-го рода – принять морской шум за сигнал подводной лодки (ложная тревога). В этом случае ошибка 1-го рода имеет бóльший вес, чем ошибка 2-го рода.
Пусть c1 – цена ошибки 1-го рода, c2 – цена ошибки 2-го рода, 1 – априорная вероятность класса 1, 2 – априорная вероятность класса 2, 1+2=1 (1 – вероятность того, что любое наблюдение Х1 без учета функции распределения F1(X)). Проекция линии пересечения поверхностей f1(x) и f2(x) на плоскость R делит ее на две полуплоскости R1 и R2,
R=R1
R2,
R1
R2=
.
Тогда, если
наблюдаемый вектор XR1,
то X будет отнесен к классу
1, а если X
,
то X будет отнесен к классу
2. Вычислим
вероятность правильной и неправильной
классификаций вектора X.
Если X1,
то вероятность его правильной классификации
равна
,
а вероятность его неправильной классификации равна
.
(2.20)
Аналогично, если X2, то вероятности его правильной и неправильной классификации равны соответственно
,
.
(2.21)
Вероятность ошибки 1-го рода задается формулой (2.20), вероятность ошибки 2-го рода – формулой (2.21). В соответствии с теорией статистических решений целесообразно ввести решающее правило
классификации, минимизирующее риск [4]
.
Используя выражения (2.20), (2.21), имеем
.
(2.22)
Так как
,
R2 = R
\ R1,
то первый интеграл в выражении (2.22) представим в виде
.
(2.23)
На основании равенства (2.23) выражение (2.22) преобразуется к виду
.
Так как
,
то необходимым условием минимума функции
является
отрицательность подынтегральной
функции,
.
Из последнего выражения имеем
,
или
.
(2.24a)
Правая часть в (2.24а) –– коэффициент подобия
,
который является
постоянным для данного выбора с1,
с2. Если
,
то Т=1 . Если имеет место неравенство
(2.24а), то наблюдаемый вектор Х относится
к классу 1.
Если выполняется неравенство
,
(2.24б)
то наблюдаемый вектор Х относится к классу 2. Если выполняется равенство
,
(2.24в)
то наблюдаемый вектор Х относится к одному из классов 1, 2. Уравнение (2.24в) –– уравнение границы классов 1, 2. Сформулированное решающее правило относится к так называемым правилам Байеса [4,7].
Провести классификацию
наблюдаемого вектора Х можно и по другому
правилу, по максимуму его апостериорной
вероятности. При условиях нашей задачи
можно вычислить апостериорную вероятность
,
принадлежности вектора Х к классу i
[7]:
.
Тогда вектор Х
относится к тому классу
,
для которого значение апостериорной
вероятности максимально. (2.7). Это правило
не учитывает цен ошибок 1–го и 2–го
родов
.
К описанной здесь
методике удается свести многие
практические задачи, формулируя их в
терминах статической теории решений.
Полезность этой теории и ее методов
ограничивается допущением, что плотности
вероятностей
известны. В некоторых случаях это
действительно имеет место.
Если функции
неизвестны, то получают их оценки
по обучающим выборкам аппроксимационными
метода-ми [4,7]. Распознание базируется
на сопоставлении уже полученных оценок
для исследуемого объекта Х пространства
R по правилам [2.24].
Байесовское решающее правило принимает простой вид в случае, когда –– плотности вероятностей нормальных распределений с равными ковариационными матрицами и различными векторами средних значений i [7,9] :
.
В этом случае уравнением границы (2.24в) является линейная функция. Прологарифмировав равенство (2.24в),
,
(2.25)
и проведя в его левой части умножения матриц, после приведения подобных членов с учетом (2.25) получим линейное уравнение
.
Первое слагаемое в левой части последнего равенства называется линейной дискриминантной функции Фишера [9],
.
Неравенство (2.24а) в этом случае принимает вид
Область наилучшей классификации определяется так:
,
(2.26а)
.
(2.26б)
В случае неизвестных
параметров распределений
находят их оптимальные оценки по
обучающим выборкам (2.9) [7]:
,
(2.27а)
,
(2.27б)
.
(2.27в)
Оценка ковариационной
матрицы
в (2.27в) получена по двум обучающим
выборкам (2.9). Оценки параметров в (2.27)
используются в правилах классификации
(2.26). Области наилучшей классификации
определяются неравенствами
,
.
Формирование
правил классификации для
принципиально не отличаются от
рассмотренной нами ситуации двух
классов. Классификационные функции
принимают вид [4,7]
i,s
= 1,2,…,k.
Области оптимальной классификации определяются из неравенств
Классификационная
функция
связана с i-м и s-м
классами. Так как каждая такая функция
линейна, то область Ri
ограничена гипер-плоскостями (рис. 2.11
) .
Линейная дискриминантная функция (ЛДФ) широко используется в медицинской диагностике (МД). Сотни коллективов во всем мире работают над проблемой автоматизации МД. Испытаны различные математические методы, разные эвристические подходы, моделирующие деятельность врача. По ряду соображений наиболее перспективным методом в решении такой задачи является использование ЛДФ [10].
Для удобства в выражениях (2.26) введем обозначения:
,
.
Тогда неравенство (2.26) – правило классификации примет вид
,
где X=(x1,x2,…,xp) – симптомы, признаки отдельного пациента, W’ – коэффициенты, учитывающие диагностическую ценность признаков. Для исследуемого пациента Х имеем
.
Чтобы отнести
пациента Х к одному из классов 1
(рак) или к 2
(не рак) достаточно сравнить полученное
значение (Х,W’) с пороговым
значением
и
принять решение:
1, если (,W’)> a ,
2, если (,W’) a.
Значение параметров W, a вычисляются по картам обследования пациентов в поликлинике из класса 1 и класса 2.