Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Контрольная работа.doc
Скачиваний:
18
Добавлен:
15.09.2014
Размер:
609.28 Кб
Скачать

Решение

Задаем значения и заносим их в Таблицу 1:

5

5

8

4

2

2

Таблица 1

Для решения задачи любым из предложенных способов нам понадобятся следующие формулы:

(скалярное умножение векторов);

- абсолютное значение вектора (норма).

Во всех случаях нас интересует минимальное расстояние.

а) Для Евклидова расстояния используем формулу:

Получим:

Евклидово расстояние

3,16227767

4,24264069

Таблица 2

Образ "ближе" к .

б) Для направляющих косинусов используем формулу:

Получим:

Направляющие косинусы

для

0,9486833

для

1

Таблица 3

Образ "ближе" к .

в) Для расстояния Танимото используем формулу:

Получим:

Расстояние Танимото

0,857142857

0,526315789

Таблица 4

Образ "ближе" к .

Ответ: При использовании метрик Евклидова расстояния и направляющих косинусов браз "ближе" к , при использовании метрики расстояния Танимото образ "ближе" к .

2.2. Задана обучающая последовательность, характеризующая некоторое распределение образов на два класса.

Задать произвольно (в диапазоне значений 0 - 10 ) три "своих" образа (, ,).

Определить, к каким классам относятся заданные три вектора.

а) Решить задачу с применением методов ближайшего соседа и сравнения с эталоном (при этом использовать метрику Евклидова расстояния).

б) Решить задачу с использованием метода линейной разделяющей функции и одного из алгоритмов обучения.

Исходные данные и результаты свести в таблицу.

Отобразить распределение образов в Евклидовом пространстве (на плоскости).

Сделать выводы

Решение

(при решении задачи будем использовать MS Excel)

Задаем три "своих" образа и заносим их в Таблицу 1 :

Талица 1

Класс

Метод ближай-

шего соседа

Метод сравнения с эталоном

Метод линейного разделения

4

1

0

2

1

0

5

2

0

1

2

0

1

3

0

7

3

1

9

4

1

7

4

1

6

5

1

7

6

1

-

7

2

-----

1

1

1

-

3

3

-----

0

0

0

-

2

9

-----

1

1

1

а)

Метод ближайшего соседа:

При решении задачи классификации методом ближайшего соседа необходимо каждый "свой" образ сравнивать со всеми образами обучающей последовательности.

3,16227766

2,236068

8,24621125

5,099019514

2,236068

8

2

2,236068

7,61577311

6

2,236068

7,07106781

6,08276253

2

6,08276253

1

4

7,81024968

2,828427125

6,082763

8,60232527

2

4,123106

7,07106781

3,16227766

3,605551

5,66

4

5

5,83

Таблица 2

Получаем, что и относятся к классу "1", а к классу "0".

Метод сравнения с эталоном:

При решении задачи классификации методом сравнения с эталоном, необходимо сначала вычислить этот эталон (т.е. найти среднее по каждой из координат).

Вычислим эталоны для каждого класса:

Класс "0"

Класс "1"

2,6

1,8

7,2

4,4

Таблица 3

Далее для каждого "неклассифицированного" объекта вычислим расстояние до эталона, используя метрику Евклидова расстояния:

До эталона класса " 0"

До эталона класса "1"

4,404543109

2,408319

1,264911064

4,427189

7,224956747

6,942622

Таблица 4

Получаем, что и относятся к классу "1", а к классу "0".

б)

При решении задачи классификации методом линейной разделяющей функции необходимо «построить» разделяющую линию, т.е. найти коэффициенты .

, где

- i-информационный признак;

-коэффициент соответствующего признака.

У нас , т.е формула гиперплоскости сводится в двухмерном пространстве к прямой .

Для нахождения коэффициентов и воспользуемся алгоритмом обучения нейронной сети с учителем, основанном на правиле Розенблатта (дельта-правило).

Дельта()-правило: , где

- эталонное значение выходного сигнала нейрона (Если поданный на вход сети вектор относится к классу "0", то . Если к классу "1", );

- коэффициент скорости обучения , ;

и - номера соответственно текущей и следующей итераций;

- номер входа.