Решение
Задаем значения и заносим их в Таблицу 1:
5 5
8 4
2 2
Таблица 1
Для решения задачи любым из предложенных способов нам понадобятся следующие формулы:
(скалярное умножение векторов);
- абсолютное значение вектора (норма).
Во всех случаях нас интересует минимальное расстояние.
а) Для Евклидова расстояния используем формулу:
Получим:
-
Евклидово расстояние
3,16227767
4,24264069
Таблица 2
Образ "ближе" к .
б) Для направляющих косинусов используем формулу:
Получим:
-
Направляющие косинусы
для
0,9486833
для
1
Таблица 3
Образ "ближе" к .
в) Для расстояния Танимото используем формулу:
Получим:
-
Расстояние Танимото
0,857142857
0,526315789
Таблица 4
Образ "ближе" к .
Ответ: При использовании метрик Евклидова расстояния и направляющих косинусов браз "ближе" к , при использовании метрики расстояния Танимото образ "ближе" к .
2.2. Задана обучающая последовательность, характеризующая некоторое распределение образов на два класса.
Задать произвольно (в диапазоне значений 0 - 10 ) три "своих" образа (, ,).
Определить, к каким классам относятся заданные три вектора.
а) Решить задачу с применением методов ближайшего соседа и сравнения с эталоном (при этом использовать метрику Евклидова расстояния).
б) Решить задачу с использованием метода линейной разделяющей функции и одного из алгоритмов обучения.
Исходные данные и результаты свести в таблицу.
Отобразить распределение образов в Евклидовом пространстве (на плоскости).
Сделать выводы
Решение
(при решении задачи будем использовать MS Excel)
Задаем три "своих" образа и заносим их в Таблицу 1 :
Талица
1
Класс
Метод
ближай- шего
соседа
Метод
сравнения с эталоном
Метод
линейного разделения
4 1 0
2 1 0
5 2 0
1 2 0
1 3 0
7 3 1
9 4 1
7 4 1
6 5 1
7 6 1 - 7 2 ----- 1 1 1 - 3 3 ----- 0 0 0 - 2 9 ----- 1 1 1
а)
Метод ближайшего соседа:
При решении задачи классификации методом ближайшего соседа необходимо каждый "свой" образ сравнивать со всеми образами обучающей последовательности.
|
|
|
|
|
3,16227766 |
2,236068 |
8,24621125 |
|
5,099019514 |
2,236068 |
8 |
|
2 |
2,236068 |
7,61577311 |
|
6 |
2,236068 |
7,07106781 |
|
6,08276253 |
2 |
6,08276253 |
|
1 |
4 |
7,81024968 |
|
2,828427125 |
6,082763 |
8,60232527 |
|
2 |
4,123106 |
7,07106781 |
|
3,16227766 |
3,605551 |
5,66 |
|
4 |
5 |
5,83 |
Таблица 2
Получаем, что и относятся к классу "1", а к классу "0".
Метод сравнения с эталоном:
При решении задачи классификации методом сравнения с эталоном, необходимо сначала вычислить этот эталон (т.е. найти среднее по каждой из координат).
Вычислим эталоны для каждого класса:
-
Класс "0"
Класс "1"
2,6
1,8
7,2
4,4
Таблица 3
Далее для каждого "неклассифицированного" объекта вычислим расстояние до эталона, используя метрику Евклидова расстояния:
|
До эталона класса " 0" |
До эталона класса "1" |
4,404543109 |
2,408319 |
|
1,264911064 |
4,427189 |
|
7,224956747 |
6,942622 |
Таблица 4
Получаем, что и относятся к классу "1", а к классу "0".
б)
При решении задачи классификации методом линейной разделяющей функции необходимо «построить» разделяющую линию, т.е. найти коэффициенты .
, где
- i-информационный признак;
-коэффициент соответствующего признака.
У нас , т.е формула гиперплоскости сводится в двухмерном пространстве к прямой .
Для нахождения коэффициентов и воспользуемся алгоритмом обучения нейронной сети с учителем, основанном на правиле Розенблатта (дельта-правило).
Дельта()-правило: , где
- эталонное значение выходного сигнала нейрона (Если поданный на вход сети вектор относится к классу "0", то . Если к классу "1", );
- коэффициент скорости обучения , ;
и - номера соответственно текущей и следующей итераций;
- номер входа.