- •Стохастические, линвистические методы распознавания образов иерархическая группировка
- •Содержание:
- •Распознавание самолетов
- •Вероятностный подход Введение
- •Применение
- •Байесовская процедура распознавания
- •Лабораторная работа № 6. Байесовская процедура распознавания, обеспечивающая минимальную вероятность ошибки классификации
- •Цель работы
- •Теоретические сведения
- •Задание
- •4. Порядок выполнения работы
- •5. Литература
- •Лабораторная работа №7. Байесовский классификатор в случае образов, характеризующихся нормальным распределением
- •Цель работы
- •Теоретические сведения
- •Задание
- •Порядок выполнения работы
- •5. Литература
- •Контрольные вопросы
- •Иерархическая группировка Введение
- •Определение иерархии
- •Построение иерархии
- •Пример построения иерархической группировки
- •Лабораторная работа № 8. Иерархическая группировка
- •Цель работы
- •Задание
- •Применение
- •Общее представление
- •Задание 1
- •4. Задание 2
- •5. Порядок выполнения работы
- •Литература
- •Контрольные вопросы
Лабораторная работа № 6. Байесовская процедура распознавания, обеспечивающая минимальную вероятность ошибки классификации
Цель работы
Научиться составлять решающие функции с помощью байесовской процедуры распознавания, обеспечивающей минимальную вероятность ошибки классификации.
Теоретические сведения
Рассмотрим частный случай байесовской процедуры распознавания, когда потери от принятия любого неверного решения одинаковы (любое неверное решение одинаково нежелательно). В этом случае потери L(di=i,j) можно представить в виде
Условный риск получаем в виде
а это не что иное, как условная вероятность принятия решения при условии, что Х=х.
Величина R(d(x)=(x) / x) = 1 – P((x) / x) представляет собой условную вероятность принятия ошибочного решения при условии Х=х, если используется решающее правило d(x)= (x).
Байесовская процедура распознавания реализует такое правило d = , которое минимизирует R(d = ): в данном случае минимизирует вероятность принятия ошибочного решения – вероятность неправильной классификации объекта. Она дает
т.е. диктует выбор решения di = i, если для всех j i P(i / x) > P(j / x).
Полученную байесовскую процедуру можно записать в виде
т.е. в данном случае имеем набор решающих функций
Если априорный закон распределения неизвестен, то считают появление любого класса равновероятным, т.е. принимают
P(j)=1/m, j=1,…,m
Согласно предположениям имеем
Байесовская процедура будет
Так так величины mij, ij i=1,…,n, j=1,…,m неизвестны, вычислим их оценки по имеющимся представителям классов – обучающей выборке:
где Nj – число значений xij , i=1,…,n в части обучающей выборки, отнесенной к классу j i=1,…,m, xlij – l -ое значение xij.
Можно показать, что используемые оценки состоятельные, несмещенные и эффективные.
Задание
Рассмотреть классы j j=1,…,m . С помощью предложенной выше байесовской процедуры выяснить, к какому классу принадлежат образы х. Вывести значения оценок mij, ij i=1,…,n, j=1,…,m , значения решающих функций P(х / i) для исследуемых образов. Сделать вывод о принадлежности образа определенному классу.
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (25; 0,80)
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (15; 0,85)
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (20; 0,65)
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (22; 0,65)
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (18; 0,55)
1 = {(15; 0,80), (16; 0,70), (13; 0,85)}
2 = {(25; 0,30), (26; 0,25), (27; 0,35), (0; 0,90)}
3 = {(23; 0,95), (21; 0,90), (22; 0,98)}
x = (14; 0,75)
