Скачиваний:
201
Добавлен:
01.05.2014
Размер:
645.12 Кб
Скачать

Метод сегментации на основе кластер-анализа

Данный метод является естественным обобщением метода пороговой обработки . Если в случае классической пороговой обработки речь идет о преобразовании полей числовых значений, то алгоритмы кластер-анализа позволяют осуществлять похожую операцию над векторными полями. Второй аспект состоит в использовании оптимальных статистических решающих правил при назначении той или иной точке изображения метки . Это немаловажное обстоятельство освобождает от необходимости подсчета конкретных значений порогов.

Задача сегментации, трактуемая как поиск кластеров в пространстве характеристических признаков, имеет следующую формальную постановку. Пусть - исходное сегментируемое (в общем случае векторное) случайное поле, аK – число областей сегментации. При этом каждой точке изображения (x,y) поставлен в соответствие вектор характеристических признаков

.

Обозначим через p(Z) плотность распределения вероятностей случайного поля. Предполагается, что p(Z) представляет собой конечную разделимую смесь распределений и определяется соотношением

,

где - числовые коэффициенты; -плотность распределения вероятностей j-й составляющей смеси.

Содержательно эти коэффициенты можно интерпретировать как априорную вероятность события {точка изображения принадлежит j-й области} и как закон распределения точек, принадлежащих j-й области изображения соответственно. Задача сводится к статистической оценке коэффициентов и функций по выборке

.

После получения оценок и разметка точек области может происходить по правилу: точка изображения ,имеющая вектор признаков ,получает метку ,если

.

Бытрый алгоритм кластер-анализа изображений

Пусть выборка представляет собой исходное группируемое множество данных. Элемент выборки -скалярная числовая характеристика j-й точки изображения. В силу эффекта квантования элементов во всех практических задачах исследователь имеет дело не с выборкой Z, а с выборкой квантованных значений

,

в которой каждый элемент принадлежит множеству

,

где L – число уровней квантования. Неизбежное квантование обрабатываемых на ЭВМ данных приводит к их агрегатированию так, что информация о Z сосредотачивается в двух множествах: Z* и N. При этом множество представляет собой гистограмму значений и -число элементов Z, равных .

Алгоритм основан на предположении, что группируемая выборка данных имеет плотность вероятностей:

где i - вектор параметров i-й составляющей смеси; =(1,...,k) - составной вектор параметров; Pi - нормировочные коэффициенты. При этом смесь предполагается смесью нормальных распределений, и отсюда:

Таким образом, процесс группировки состоит из этапа оценки векторного параметра  и коэффициентов Pi и этапа разбиения выборки на группы с использованием байесовского решающего правила. Описание алгоритма на псевдокоде достаточно хорошо отражает структуру вычислений.

Входным множеством данных у алгоритма является двойка {Z*, N}. Кроме этого, перед началом работы устанавливают значения следующих параметров: K - число групп; i (0) - начальное значение математического ожидания элементов i-й группы; ni(0) - начальное значение количества элементов i-й группы; i(0) - начальное значение параметра, оценивающего “размер” i-й группы; i = 1,2,...,K.

Удобно задавать

Процедура оценки параметров проводит последовательную по l = 1,2,...,L обработку пар значений {zl*,Nl}.

Прокомментируем кратко осуществляемые операции алгоритма. Установка начальных значений параметров групп приводит к тому, что первые К элементов множества Z* формируют параметры групп по формулам, регламентируемым процедурой «Формирование группы j». Каждый последующий элемент из Z* либо относится в ближайшую группу, либо приводит к формированию новой группы. Важно отметить, что при l>K процессу формирования группы предшествует процесс слияния двух ближайших групп в одну (процедура «Объединение групп p и q»). Параметр i - «размер» группы - является эмпирическим, и его введение в процесс оценивания позволяет сделать алгоритм более помехоустойчивым. В случае, когда число групп заранее известно, выбор параметра К не вызывает затруднений. В противном случае важно задавать К «с запасом» так, чтобы выполнялось К>K*, где К* - истинное число групп в выборке .

Выполнение этого неравенства приведет к тому, что в процессе оценки параметров появятся и так называемые «ложные» группы с малыми значениями Pi. Это обстоятельство позволит на этапе классификации сохранить в целом правильное разбиение выборки Z.

Алгоритм сегментации на основе кластер-анализа на псевдокоде

begin

  1. Инициализация

  1. for i:=1 to L do

begin

  1. if (NL=0) then goto lab1

lab2:

  1. Вычислить rk(l)

  2. Вычислить ri(l)

  3. if (ei(l)>ri(l)) then

begin

  1. Отнести ZL в группу i

goto lab1

end

else

begin

  1. Поиск свободной группы

  2. if (Найдена свободная группа j) then

begin

  1. Формирование группы j

goto lab1

end

else

begin

Вычислить rpq(l)

if (rpq(l)>ri(l)) then

begin

  1. Отнести ZL в группу i

  1. Скорректировать ei

end

else

begin

  1. Объединить группы p,q

goto lab2

end

end

end

lab1:

end.

  1. Вычислить оценки Pi,Si

Соседние файлы в папке Lecture11