Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лабораторная_работа№5.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
380.93 Кб
Скачать

Алгоритм выделения связных компонент

В алгоритме выделения связных компонент задается входной параметр R и в графе удаляются все ребра, для которых «расстояния» больше R. Соединенными остаются только наиболее близкие пары объектов. Смысл алгоритма заключается в том, чтобы подобрать такое значение R, лежащее в диапазон всех «расстояний», при котором граф «развалится» на несколько связных компонент. Полученные компоненты и есть кластеры.

Для подбора параметра R обычно строится гистограмма распределений попарных расстояний. В задачах с хорошо выраженной кластерной структурой данных на гистограмме будет два пика – один соответствует внутрикластерным расстояниям, второй – межкластерным расстояния. Параметр R подбирается из зоны минимума между этими пиками. При этом управлять количеством кластеров при помощи порога расстояния довольно затруднительно.

Алгоритм минимального покрывающего дерева

Алгоритм минимального покрывающего дерева сначала строит на графе минимальное покрывающее дерево, а затем последовательно удаляет ребра с наибольшим весом. На рис. 1 изображено минимальное покрывающее дерево, полученное для девяти объектов. Рис. 1. Минимальное покрывающее дерево, полученное для девяти объектов

Путём удаления связи, помеченной CD, с длиной равной 6 единицам (ребро с максимальным расстоянием), получаем два кластера: {A, B, C} и {D, E, F, G, H, I}. Второй кластер в дальнейшем может быть разделён ещё на два кластера путём удаления ребра EF, которое имеет длину, равную 4,5 единицам.

Послойная кластеризация

Алгоритм послойной кластеризации основан на выделении связных компонент графа на некотором уровне расстояний между объектами (вершинами). Уровень расстояния задается порогом расстояния c. Например, если расстояние между объектами  , то  .

Алгоритм послойной кластеризации формирует последовательность подграфов графа G, которые отражают иерархические связи между кластерами: , где Gt = (V, Et) — граф на уровне сt,

, сt – t-ый порог расстояния,

m – количество уровней иерархии,

G0 = (V, o), o – пустое множество ребер графа, получаемое при t0 =1,

Gm = G, то есть граф объектов без ограничений на расстояние (длину ребер графа), поскольку tm =1.

Посредством изменения порогов расстояния {с0, …, сm}, где 0 = с0 < с1 < …< сm = 1, возможно контролировать глубину иерархии получаемых кластеров. Таким образом, алгоритм послойной кластеризации способен создавать как плоское разбиение данных, так и иерархическое.

Нейронная сеть Кохонена

Нейронные сети Кохонена или самоорганизующиеся карты Кохонена (Kohonen’s Self-Organizing Maps) предназначены для решения задач кластеризации, когда обучающая последовательность образов отсутствует. Соответственно отсутствует и фиксация ошибки, на минимизации которой основаны алгоритмы обучения, например, алгоритм обратного распространения ошибки (Backpropagation).

Сеть Кохонена – это двухслойная нейронная сеть, содержащая входной слой (слой входных нейронов) и слой Кохонена (слой активных нейронов).

Слой Кохонена может быть: одномерным, двумерным или трехмерным.

В первом случае активные нейроны расположены в цепочку. Во втором случае они образуют двухмерную сетку (обычно в форме квадрата или прямоугольника), а в третьем случае они образуют трехмерную конструкцию.

В силу отсутствия обучающей последовательности образов, для каждого из которых известна от учителя принадлежность к тому или иному кластеру, определение весов нейронов слоя Кохонена основано на использовании алгоритмов классической классификации (кластеризации или самообучения).

Рис.2. Пример топологической карты сети Кохонена

На рис. 2 приведен пример топологической карты сети Кохонена, содержащей входной слой и слой Кохонена. Нейроны входного слоя служат для ввода значений признаков распознаваемых образов. Активные нейроны слоя Кохонена предназначены для формирования областей (кластеров) различных классов образов. Каждый нейрон слоя Кохонена также соединен с соседними нейронами.

Поясним основной принцип работы сети Кохонена. Введем следующие обозначения (рис. 2):

(5.1)

– вектор весовых коэффициентов j-го нейрона слоя Кохонена,

(5.2)

– входной вектор или вектор значений признаков некоторого образца.

На стадии обучения (точнее самообучения) сети входной вектор Xc попарно сравнивается со всеми векторами Wj всех нейронов слоя Кохонена. Вводится некоторая функция близости (например, в виде эвклидова расстояния). Активный нейрон с номером слоя Кохонена, для которого значение функции близости d (X, Wc) между входным вектором X, характеризующим некоторый образ, и вектором Wc максимально, объявляется «победителем». При этом образ, характеризующийся вектором X, относится к классу, который представляется «нейроном-победителем». В результате осуществляется преобразование n-мерного входного пространства Rn на m-мерную сетку (слой Кохонена).

Следует подчеркнуть, что это отображение реализуется в результате рекуррентной (итеративной) процедуры самообучения (Unsupervised Learning). Отличительная особенность этого отображения – формирование кластеров. По завершении процесса самообучения на стадии реального использования сети Кохонена неизвестные входные образы относятся к одному из выявленных кластеров.

Сведения из теории вероятностей.

Случайная величина появляется как результат множественной реализации случайных событий , каждая из которых имеет вероятность появления . Очевидно, эти события могут группироваться вокруг определенных значений. При этом можно говорить о плотности распределения этих значений, плотности вероятностей .

Плотность распределения случайной величины несет исчерпывающую информацию о случайных величинах. Вместе с тем, на практике часто используют моменты этих распределений, характеризующих то или иное свойство.

Моменты -го порядка случайной величины выражаются значением

.

Моментом 1-го порядка является математическое ожидание случайной величины

.

Кроме моментов используют также и центральные моменты:

.

Центральный момент 2-го порядка – это дисперсия

.

Равномерное распределение. При равномерном распределении случайная величина может принимать значения, принадлежащие лишь отрезку , причем вероятности попадания в любые внутренние интервалы одинаковой ширины равны. Тогда плотность вероятности

Гауссово (нормальное) распределение. Гауссова плотность вероятности

,

содержащая два числовых параметра - математическое ожидание и - дисперсию.

Данный закон является широко распространенным, часто и обоснованно используется в теории систем. В соответствии с теоремой Шермана нормальный закон является наилучшей аппроксимацией неизвестного распределения. Важность закона подтверждается центральной предельной теоремой теории вероятностей, в соответствии с которой случайная величина , образованная как сумма -большого числа других случайных величин , соизмеримых друг с другом, каждая из которых имеет произвольное распределение, имеет распределение, приближающееся к нормальному закону.

Математическая модель размещения радиоэлектронных средств (РЭС)

В качестве модели размещения РЭС СС в пространстве можно использовать модель Монте-Карло. Идея метода Монте-Карло состоит в следующем: производится “розыгрыш” – моделирование случайного явления с помощью некоторой процедуры, дающей случайный результат.

Конкретное осуществление процесса складывается каждый раз по-иному. Произведя такой “розыгрыш” большое число раз, получим статистический материал – множество реализаций случайного явления, который можно обрабатывать методами математической статистики.

Суть данной задачи состоит в том, чтобы в области ограниченной территории выбрать случайно распределенные излучающие элементы с плотность распределения , где - количество РЭС.

Моделирование случайного размещения РЭС целесообразно осуществлять путем генерирования координат РЭС с различными законами распределения. Наиболее возможными законами распределения являются:

1. Равномерное распределение с плотностью распределения

, (5.3)

где и - пределы изменения случайной величины;

- координаты .

2. Нормальное распределение с плотностью распределения

, (5.4)

где и математическое ожидание, и среднеквадратическое отклонение соответственно.