- •4.1. Синтез байесовских решающих функций
- •4.2. Непараметрические оценки решающих функций
- •4.3. Непараметрические алгоритмы распознавания образов коллективного типа
- •4.4. Синтез и анализ непараметрического решающего правила, основанного на оценках плотностей вероятности
- •4.5. Частотные алгоритмы распознавания образов в пространстве дискретных признаков
- •4.6. Непараметрический алгоритм классификации, основанный на частотном методе распознавания образов
- •4.7. Многоуровневые системы распознавания образов
- •4.8. Непараметрические алгоритмы распознавания образов с учётом взаимосвязи между признаками
- •4.9. Нелинейные непараметрические коллективы решающих правил в задачах распознавания образов
- •4.11. Непараметрические алгоритмы распознавания образов, основанные на рандомизированном методе их идентификации
- •4.12. Непараметрические алгоритмы классификации множеств случайных величин
- •Литература
- •Дополнительная литература
- •Контрольные вопросы
- •Контрольные упражнения
Глава 4. |
статистические МЕТОДЫ РАСПОЗНАВАНИЯ ОБРАЗОВ |
Основное внимание в данной главе уделяется проблемам синтеза и анализа алгоритмов распознавания образов в условиях неполной информации о вероятностных характеристиках классов. Для преодоления априорной неопределённости используются непараметрические оценки условных плотностей вероятности распределении признаков сигналов о состоянии классифицируемых объектов. Сигналом называют вектор входных переменных . Получаемые при этом алгоритмы распознавания образов являются непараметрическими. С учётом специфики непараметрических алгоритмов распознавания образов рассматриваются вопросы их оптимизации, оценки эффективности и минимизации описания как путём формирования наборов информативных признаков сигнала, так и с позиций алгоритмического подхода.
4.1. Синтез байесовских решающих функций
Рассмотрим объект (рис. 4.1) с входом , который может быть вектором , и выходом – скаляр. Выходная переменная является дискретной случайной величиной.
Рис. 4.1. Объект исследования.
Существует некоторая неизвестная зависимость между входом и выходом . Необходимо оценить данную зависимость, построив модель .
Пусть дана выборка статистически независимых наблюдений случайной величины , распределённых с неизвестной плотностью , где – «указания учителя» о принадлежности ситуации к тому либо иному классу .
Под классом понимается совокупность наблюдений, связанных между собой каким либо свойством или целью.
Необходимо построить решающее правило , позволяющее в автоматизированном режиме принимать решение о принадлежности новых ситуаций к классам .
При наличии двух классов (рис. 1) принимает значения и . Если классифицируемые объекты характеризуются двумя признаками, то двуальтернативная задача распознавания образов иллюстрируется рис. 4.2, где – разделяющая поверхность (решающая функция) между классами и .
Рис. 4.2. Задача распознавания образов в двухмерном случае
Для последующего анализа построим плотности вероятности классов в одномерном случае (рис. 4.3).
Рис. 4.3. Задача распознавания образов в одномерном случае
Определим некоторую границу на оси и запишем решающее правило
Тогда ошибка распознавания первого класса составит
и для второго класса
.
Общая ошибка распознавания, например, при равенстве априорных вероятностей классов
.
Для определения наилучшей границы найдём минимум суммарной ошибки по параметру
.
Возьмём производную полученного критерия по параметру и приравниваем к нулю. Производная от интеграла соответствует значению подынтегрального выражения в точке
.
В итоге получаем
.
Оптимальная граница находится в точке пересечения двух классов. Полученная разделяющая поверхность между классами называется байесовской решающей функцией и имеет вид
. (4.1)
Исходя из этого, решающее правило будет иметь вид:
Решающее правило, соответствующее данной байесовской разделяющей поверхности, называется правилом максимального правдоподобия.
Далее рассмотрим ситуацию когда, априорные вероятности классов разные. Пусть – общее количество наблюдений; – количество наблюдений первого класса; – количество наблюдений второго класса.
Рис. 4.4. Задача распознавания образов для случая
Тогда частота появления точек первого и второго класса будет соответствовать
.
Поэтому, если , то ошибка распознавания второго класса будет больше, т.к. точки второго класса появляются в области пересечения классов чаще.
Ошибка для первого класса определяется выражением
и для второго класса
.
Исходя из этого, запишем суммарную ошибку
.
Найдём минимум суммарной ошибки по границе и получим байесовскую разделяющую поверхность
. (4.2)
Тогда решающее правило, соответствующее данной разделяющей поверхности, будет иметь вид
и называется правилом максимума апостериорной вероятности.