Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Картфак-пособие.doc
Скачиваний:
3
Добавлен:
01.03.2025
Размер:
2.57 Mб
Скачать

8.3. Параметрические методы классификации.

В непараметрических методах классифицируются не все точки изображения, а только те, сигнатуры которых попадают в ограниченные нами области признакового пространства. Остальная часть признакового пространства образует области отказов от распознавания. Что же делать с такими точками?

Мы, конечно, можем отнести все эти точки в класс отказов и назвать его «прочие объекты». Однако иногда требуется сплошная классификация, то есть все пиксели должны быть куда-то отнесены. В этом случае применяются так называемые параметрические методы, в которых используются определенные предположения о характере статистического распределения сигнатур в классах и соответствующие параметры такого распределения.

В таком случае аналитическое решение задачи удобнее искать, записав d(x) отдельно для каждой пары соседних классов: d12(x), d13(x) и т.д. Уравнение разделяющих функций d(x)ks=0 для пары классов k, s тогда можно преобразовать к виду

rk(x)-rs(x)=0,

или, иначе, rk(x)=rs(x),

а неравенства, ограничивающие область решения для k-го класса, представить в виде rk(x)>rs(x) . В такой постановке построение алгоритма распознавания при заданном наборе классов {Ak} сводится к выбору К решающих функций rk(x), по которым на области (k) выполняется условие

rk(x)>rs(x) для всех sk, k,s=1,..., K.

Тогда задача классификации конкретного вектора-образа х сводится к вычислению rk(x) для всех k=1,...,K и нахождению :

rs(x)=  x As.

В пакетах тематической обработки обычно используется предположение, что закон распределения сигнатур классов является гауссовым (нормальным). Плотность нормального распределения имеет вид:

График плотности нормального распределения p(x) в одномерном случае со средним значением m=0 и среднеквадратическим отклонением σ=1 показан на рис.20. Заметим, что площадь под графиком между двумя пунктирами (на уровне одного σ) P0.683, на уровне двух σ - P0.845, на уровне трех σ - P0.999. Эти величины имеют большое значение при оценке ожидаемой величины ошибки классификации.

Если шкала значений x дискретна, что имеет место для яркостей пикселей, то каждое значение p(xi) есть вероятность появления конкретного значения xi.

Характер распределения p(x) можно визуально оценить, построив гистограмму изображения по объекту или группе объектов определенного класса. Напомним, что гистограмма показывает количество пикселей n(xi) для каждого значения xi. Если гистограмму n(xi) нормировать к общему числу N пикселей, по которому построена гистограмма, то при достаточно большом количестве пикселей величина n(xi)/N как раз и даст нам эмпирическое (приблизительное) значение p(xi).

Для многомерного нормального распределения график плотности p(x) представляет собой в общем случае «гиперколокол» с вектором средних значений m, сечения которого в разных направлениях имеют разные значения σ. Поэтому рассеяние вокруг среднего значения описывается ковариационной матрицей

C=M[(xi-mi)(xj-mj)], i=1,…n,j=1,…,n. (19)

Здесь М[] обозначает среднее значение, которое обычно рассчитывается по доступной статистической выборке.

С рез такого многомерного «гиперколокола» p(x) параллельно гиперплоскости аргументов x представляет собой гиперэллипсоид рассеяния с центром m. На рис.21 показан пример таких сечений для функций распределения спектральной яркости трех классов на диаграмме рассеяния в красном и ближнем ИК диапазонах.

Нормальное распределение в одномерном случае полностью описывается двумя численными характеристиками (параметрами) – средним значением m и среднеквадратическим отклонением . Их называют, соответственно, первым и вторым моментами распределения. Соответствующее многомерное распределение описывается вектором средних m и ковариационной матрицей C.

К параметрическим методам классификации можно условно отнести и неконтролируемую классификацию, поскольку в ней используется, по меньшей мере, один параметр статистического распределения признаков внутри каждого класса – вектор их средних значений m.