Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

LR-2

.pdf
Скачиваний:
9
Добавлен:
16.12.2022
Размер:
1.07 Mб
Скачать

Методические указания по выполнению лабораторной работы № 2 по дисциплине

«Системы искусственного интеллекта» для бакалавров образовательных программ:

11.03.01 «Радиотехника», 11.03.02 «Инфокоммуникационные технологии и системы связи»

Цель лабораторной работы – изучение методов кластерного анализа в системах искусственного интеллекта.

1. Задание

Каждый студент выполняет индивидуальный вариант данного практикума в соответствии с исходными данными, представленными в п. 3.

До начала выполнения лабораторной работы необходимо изучить основные теоретические положение, представленные в п. 2 данного практикума и рекомендованную литературу.

Подготовить ответы на контрольные вопросы, приведенные в п. 4.

Выполнение исследований в лаборатории

1.1 Запустить программу DVeiw

1.2 Выбрать в вкладке «Данные» «Открыть файл связи (*.UDL)»Lab1.udl

1.3 В окне «Входные данные для анализа» выбрать «АРСООбучающая выборка».

1.4 Выбрать следующие поля выборки для анализа: 1Len, 1Type, 2Len, 2Type, PriorObject, sType и нажать кнопку «Продолжить».

1.5 Во вкладке «Анализ» основного окна выбрать «Кластерный анализ».

1.6 В отобразившемся окне выбрать «Метод объединения» и «Метрика» в соответствии с индивидуальным вариантом. В поле «Использовать метки объектов из поля» указать поле PriorObject. Нажать кнопку «Ок». На экране отобразится окно анализа. После завершения анализа нажать кнопку «Ок».

1.7 По результатам анализа отобразится окно «Кластерный анализ». Путем перебора шагов кластеризации установите минимальное количество кластеров, при котором распознавание типа сигналов производится правильно.

1.8 Закройте окно кластерного анализа. Во вкладке «Анализ» основного окна выбрать «Карта Кохонена». В открывшемся окне нажать «Новая карта».

1.9 В окне «Параметры новой карты» выбрать параметры 1Len, 1Type, 2Len, 2Type, sType. В поле классов указать PriorObject. Число

конкурирующих нейронов по умолчанию 20. Нажать кнопку «Ок».

1.10 В открывшемся окне нажать «Обучить карту». В диалоговом окне выбрать "Использовать нормировку". В окне обучения установить параметры:

структура конкурирующего слоя – одномерная; алгоритм обучения – PLSOM;

начальный радиус обучения – 4,0; минимальный радиус обучения – 1,0; число эпох – 1000.

Нажать кнопку «Ок». Зафиксировать результаты обучения (количество кластеров, среднюю дисперсию).

1.11Нажать кнопку «Распознать выборку». Зафиксировать результаты распознавания во вкладке «Показать таблицу». Зафиксировать количество найденных кластеров и количество ошибок.

1.12Провести пп. 1.8-1.11 для 500, 100, 50 и 10 эпох обучения при прочих неизменных параметров. Построить график зависимости доли корректно распознанных объектов от числа эпох обучения. Сделать вывод о влиянии количества эпох обучения на качество распознавания объектом нейронной сетью.

1.13Провести пп. 1.8 – 1.12 для алгоритма обучения «Классический» с параметрами:

первая константа скорости – 10; вторая константа скорости – 2; Начальный радиус обучения – 1; скорость изм. рад. обучения – 0.

Построить график зависимости доли корректно распознанных объектов от числа эпох обучения. Сделать вывод о влиянии количества эпох обучения на качество распознавания объектом нейронной сетью.

Сравнить эффективность методов обучения карт Кохонена.

1.14Сделать выводы о преимуществах и недостатках изученных методов кластерного анализа.

2. Теоретические сведения

В отличие от задач классификации, кластерный анализ не требует априорных предположений о наборе данных, не накладывает ограничения на представление исследуемых объектов, позволяет анализировать показатели различных типов данных (интервальных данных, частот, бинарных данных). При этом необходимо помнить, что переменные должны измеряться в сравнимых шкалах.

Кластерный анализ позволяет сокращать размерность данных, делать ее наглядной.

Кластерный анализ может применяться к совокупностям временных рядов, здесь могут выделяться периоды схожести некоторых показателей и определяться группы временных рядов со схожей динамикой.

Кластерный анализ параллельно развивался в нескольких направлениях, таких как биология, психология, др., поэтому у большинства методов существует по два и более названий. Это существенно затрудняет работу при использовании кластерного анализа.

Задачи кластерного анализа можно объединить в следующие группы: а) разработка типологии или классификации; б) исследование полезных концептуальных схем группирования

объектов; в) представление гипотез на основе исследования данных;

г) проверка гипотез или исследований для определения, действительно ли типы (группы), выделенные тем или иным способом, присутствуют в имеющихся данных.

Как правило, при практическом использовании кластерного анализа одновременно решается несколько из указанных задач.

Самоорганизующиеся карты – это одна из разновидностей нейросетевых алгоритмов. Основным отличием данной технологии от нейросетей, обучаемых по алгоритму обратного распространения, является то, что при обучении используется метод обучения без учителя, то есть результат обучения зависит только от структуры входных данных. Алгоритм функционирования самообучающихся карт (Self-Organizing Maps, SOM) представляет собой один из вариантов кластеризации многомерных векторов. Примером таких алгоритмов может служить алгоритм k-ближайших средних. Важным отличием алгоритма SOM является то, что в нем все нейроны упорядочены в некоторую структуру (обычно двумерную сетку). При этом в ходе обучения разные нейроны модифицируются в различной степени. За счет этого SOM можно считать одним из методов проецирования многомерного пространства в пространство с более низкой размерностью. При использовании этого алгоритма вектора, схожие в исходном пространстве, оказываются рядом и на полученной карте.

Создание классификатора сигналов на базе самоорганизующейся карты Кохонена можно разделить на следующие этапы:

1.выбор структуры карты и задание начальных параметров алгоритма обучения;

2.инициализация карты;

3.обучение.

2.1 Выбор структуры карты и задание начальных параметров алгоритма обучения

При реализации классического алгоритма SOM заранее задается конфигурация сети (структура выходного слоя), а также количество нейронов

всети. Если количество нейронов превышает количество примеров в обучающей выборке, то успех использования алгоритма SOM в значительной степени зависит от выбора начального радиуса обучения. То есть, начальный радиус обучения влияет на способность обобщения при помощи полученной карты.

Нейроны выходного (конкурирующего) слоя карты Кохонена могут быть упорядочены в виде одномерной или двумерной структуры. При двумерной организации выходного слоя возможно упорядочивание нейронов

втетрагональную или гексагональную сетку. Структура выходного слоя влияет на функцию соседства и силу связи нейронов, что может оказывать существенное влияние на результат работы самоорганизующейся карты. На рисунке 1 изображены гексагональная (а) и тетрагональная (б) структуры выходного слоя карты Кохонена.

Рисунок 1 – Различные топологии выходного слоя карты Кохонена

Из рисунков видно, что число соседей нейрона-победителя при гексагональной и тетрагональной структуре выходного слоя существенно отличается. Приведём сводную таблицу количества нейронов-соседей с разными расстояниями d от нейрона-победителя до этих нейронов.

Структура

Соседей с d=1

Соседей с d=2

Соседей с d=3

Всего соседей с

d≤3

 

 

 

 

Одномерная

2

2

2

6

Двумерная

6

12

18

36

гексагональная

 

 

 

 

Двумерная

8

16

24

48

тетрагональная

 

 

 

 

Из таблицы видно, что одномерная структура выходного слоя предполагает минимальное число нейронов-соседей, что при обучении обуславливает относительно медленное формирование кластерных центров и тенденцию к образованию большего числа кластеров, чем истинное. Обе представленные двумерные структуры выходного слоя (гексагональная и тетрагональная) отличаются большим числом нейронов-соседей. Это обуславливает более сильную связь между нейронами, чем при одномерной структуре. Усиление связи между нейронами, в сою очередь, при обучении приводит к ускорению формирования кластерных центров и ослабляет тенденцию к образованию избыточного количества кластеров.

2.2 Инициализация карты Кохонена

Перед началом обучения КК необходимо проинициализировать весовые коэффициенты нейронов. Существует три основных способа инициализации начальных весов:

инициализация случайными значениями;

инициализация примерами. В данном случае в качестве начальных значений задаются значения случайно выбранных примеров из обучающей выборки;

линейная инициализация. В этом случае веса инициализируются значениями векторов, линейно упорядоченных вдоль линейного

Соседние файлы в предмете Системы искусственного интеллекта