
- •Распознавание образов. Общие положения.
- •Объекты в распознавании образов
- •Классификация объектов. Понятие расстояния между объектами.
- •Две группы методов распознавания и их особенности.
- •Разделяющая функция. Решающее правило. Пример разделения на два класса.
- •Линейные разделяющие функции для n классов. 1-ый случай разделения
- •Линейные разделяющие функции для n классов. 2-ой случай разделения
- •Обучение в решении задачи классификации
- •Обучение с учителем и без учителя
- •11. Алгоритм класс-ции на базе контролируемого обучения (к-средних)
- •12. Алгоритм классификации на базе самообучения (Максимин)
- •13. Расстояние между классами (частный случай)
- •14. Расстояние между списками
- •15. Метод динамического программирования
- •16. Классификация объектов вероятностным подходом. Закон Бейеса.
- •17. Решающее правило при вероятностном подходе.
- •18. Разделение объектов на два класса при вероятностном подходе
- •19. Устройство автоматической классификации «Персептрон»
- •20. Критерий коррекции весовых коэф-в для классификации объектов
- •21. Алгоритм классификации объектов на n классов (Персептрон)
- •22. Метод потенциалов
- •23. Иерархическое группирование
- •24. Определение иерархии
- •25. Пример метода иерархической классификации
- •26. Постановка задачи синтаксического распознавания образов. Структурная схема системы распознавания. (V)
- •27. Понятия языка, строки, грамматики. Описание грамматики и ее компонентов.
- •28. Связь между автоматами и грамматиками при синтаксическом распознавании. (V)
- •29. Постановка задачи синтаксического распознавания образов. Грамматический разбор сверху вниз (привести пример) (V)
- •30. Постановка задачи синтаксического распознавания образов. Грамматический разбор снизу вверх (привести пример). (V)
- •31. Применение методов синтаксического распознавания для двумерных объектов. Использование языка описания изображений pdl (привести пример). (V)
- •32. Стохастические грамматики и языки (привести пример).
- •33. Алгоритм вывода цепочечных грамматик. (V)
- •3 Части построения Алгоритма:
- •34. Алгоритм вывода двумерных грамматик.(V)
- •35. Общие понятия систем распознавания
- •36. Проблематика задач создания систем распознавания
- •37. Формулировка задач создания систем распознавания и методы их решения. Задачи 1,2
- •38. Формулировка задач создания ср и их решение. Задачи 3,4
- •39. Формулировка задач создания ср и их решение. Задачи 5,6
- •40. Принципы классификации ср (1, 2)
- •Однородность информации для описания распознаваемых объектов и явлений
- •Способ получения апостериорной информации
- •41. Принципы классификации ср (3, 4)
- •Количество первоначальной априорной информации
- •Характер информации признаках распознавания
- •42. Обучающиеся и самообучающиеся ср (структурные схемы)
- •43. Биологические основы функционирования нейрона
- •44. Принципы построения и действия искусственной нейронной сети
- •45. Инс в виде многослойного персептрона
- •46. Решение задач с помощью нс на базе многослойного персептрона
16. Классификация объектов вероятностным подходом. Закон Бейеса.
Случайное событие – это такое, для которого невозможно предсказать его точный результат в каждом конкретном случае. Однако при большом числе реализаций эти события можно характеризовать средними результатами, стабильными и воспроизводимыми. В основе этих представлений лежит понятие вероятности.
Рассмотрим
опыт с несколькими возможными исходами,
каждый конкретный результат которого
в точности не предсказуем. Множество
всех исходов назовем
– пространство элементарных событий.
Событие А есть подмножество множества
(лучше
М),
обладающее некоторыми свойствами,
приводимыми ниже.
По определению вероятностью P(A) события А называют величину, удовлетворяющую трем аксиомам:
Здесь
через
обозначено
пустое множество. К этому можно добавить,
что
где
– событие, дополняющее А до
.
Если могут произойти два события – А и В, то можно говорить о трех различных вероятностях:
событие А происходит с вероятностью P(A),
событие В происходит с вероятностью P(В),
события А и В происходят одновременно с вероятностью P(A, В), ее называют вероятностью совместного события, или совместной вероятностью.
Пусть
(i=1,
2, … n)
и В – случайные события. Условную
вероятность того, что произойдет событие
,
при условии, что произошло событие В,
записывают так: P(Ai/B).
Это – апостериорная
вероятность.
Ее плотность обозначают p(Ai/B).
B
– известная (фактическая) величина, А
– случайная величина.
Значение
условной вероятности P(Ai/B)
можно вычислить по теореме
Бейеса:
поскольку
Действительно,
а при этом
Здесь
-
априорная вероятность события
.
Пример апостериорной плотности вероятности. Случай одномерного гауссового распределения:
Эта
плотность распределения является
функцией двух параметров:
– математическое ожидание и
– среднеквадратичное отклонение. Эти
параметры могут быть вычислены по N
опытам, в каждом из которых измеряются
величина
17. Решающее правило при вероятностном подходе.
С помощью понятия об апостериорных вероятностях можно подойти к разработке метода автоматической классификации.
Пусть
(В
конспекте М) –
сепарабельное пространство признаков,
а
–
вектор, представляющий к-ый
класс, сепарабельное пространство по
определению может быть разделено на
классы. Априорная вероятность того, что
данная реализация относится к классу
с номером к,
есть
Проблема
заключается в том, чтобы отнести
неизвестный предъявляемый объект
к одному из известных классов Ck
с минимальной
ошибкой. Для этого выполняют n
измерений в соответствии с признаками,
выбранными надлежащим образом. В
результате получают вектор измерений
,
для которого можно найти условную
вероятность или ее
плотность:
Решение об отнесении неизвестного объекта к классу с номером к можно считать оправданным, если для любого j выполняется условие:
Эти вероятности могут
быть вычислены согласно теореме Бейеса
по тем условным вероятностям
,
которые получаются непосредственно в
процессе измерений:
Откуда следует решающее правило:
Процесс
разделения на классы, как правило, связан
с некоторым риском. Правильной или
неверной классификации можно придать
определенную «цену». Введем решающее
правило d,
в соответствии с которым каждый
предъявляемый объект
по результатам измерений вызывает
действие di.
Оно определяется отнесением
к классу
.
Риск принятия решений.
Пусть
– условная цена
принятия решения
,
если известно, что объект принадлежит
классу
.
Среднее значение цены, связанной с
принятием решения
в
случае, когда предъявлен объект
,
определяет средний риск принятия данного
решения:
где правая часть равенства получена по
формуле Бейеса.
Средняя
цена для решающего правила d,
если известно, что предъявлен объект
,
есть
Пусть
– цена, связанная с решением отнести
к классу
,
если известно, что искомый класс есть
.
Функцию цены в этом случае представим
в следующем виде:
Для заданного средняя цена отнесения его к классу будет:
тогда
и решающее правило преобразуется к виду
поскольку
стремятся минимизировать цену
.
При этом вероятность ошибочного решения
или