
- •Распознавание образов. Общие положения.
- •Объекты в распознавании образов
- •Классификация объектов. Понятие расстояния между объектами.
- •Две группы методов распознавания и их особенности.
- •Разделяющая функция. Решающее правило. Пример разделения на два класса.
- •Линейные разделяющие функции для n классов. 1-ый случай разделения
- •Линейные разделяющие функции для n классов. 2-ой случай разделения
- •Обучение в решении задачи классификации
- •Обучение с учителем и без учителя
- •11. Алгоритм класс-ции на базе контролируемого обучения (к-средних)
- •12. Алгоритм классификации на базе самообучения (Максимин)
- •13. Расстояние между классами (частный случай)
- •14. Расстояние между списками
- •15. Метод динамического программирования
- •16. Классификация объектов вероятностным подходом. Закон Бейеса.
- •17. Решающее правило при вероятностном подходе.
- •18. Разделение объектов на два класса при вероятностном подходе
- •19. Устройство автоматической классификации «Персептрон»
- •20. Критерий коррекции весовых коэф-в для классификации объектов
- •21. Алгоритм классификации объектов на n классов (Персептрон)
- •22. Метод потенциалов
- •23. Иерархическое группирование
- •24. Определение иерархии
- •25. Пример метода иерархической классификации
- •26. Постановка задачи синтаксического распознавания образов. Структурная схема системы распознавания. (V)
- •27. Понятия языка, строки, грамматики. Описание грамматики и ее компонентов.
- •28. Связь между автоматами и грамматиками при синтаксическом распознавании. (V)
- •29. Постановка задачи синтаксического распознавания образов. Грамматический разбор сверху вниз (привести пример) (V)
- •30. Постановка задачи синтаксического распознавания образов. Грамматический разбор снизу вверх (привести пример). (V)
- •31. Применение методов синтаксического распознавания для двумерных объектов. Использование языка описания изображений pdl (привести пример). (V)
- •32. Стохастические грамматики и языки (привести пример).
- •33. Алгоритм вывода цепочечных грамматик. (V)
- •3 Части построения Алгоритма:
- •34. Алгоритм вывода двумерных грамматик.(V)
- •35. Общие понятия систем распознавания
- •36. Проблематика задач создания систем распознавания
- •37. Формулировка задач создания систем распознавания и методы их решения. Задачи 1,2
- •38. Формулировка задач создания ср и их решение. Задачи 3,4
- •39. Формулировка задач создания ср и их решение. Задачи 5,6
- •40. Принципы классификации ср (1, 2)
- •Однородность информации для описания распознаваемых объектов и явлений
- •Способ получения апостериорной информации
- •41. Принципы классификации ср (3, 4)
- •Количество первоначальной априорной информации
- •Характер информации признаках распознавания
- •42. Обучающиеся и самообучающиеся ср (структурные схемы)
- •43. Биологические основы функционирования нейрона
- •44. Принципы построения и действия искусственной нейронной сети
- •45. Инс в виде многослойного персептрона
- •46. Решение задач с помощью нс на базе многослойного персептрона
42. Обучающиеся и самообучающиеся ср (структурные схемы)
W – неизвестные распознаваемые объекты; У – учитель; ОО – обучающие объекты; ТС – технические средства, включающие в себя измерители признаков распознавания; АПРФ – алгоритм построения разделяющих функций; АО – априорное описание классов распознаваемых объектов; САУ – система автоматического управления (алгоритм) распознавания; АК – алгоритм классификации.
О С – объекты самообучения; ПК – правила классификации; АФК – алгоритм формирования классов.
Для обучающихся систем характерна ситуация, когда априорной информации не хватает для описания распознаваемых классов на языке признаков. Возможны случаи, когда информации хватает, однако делать упомянутое описание нецелесообразно или трудно.
Д ля самообучающихся систем характерна недостаточность информации для формирования описаний классов и алфавита классов. Определен только словарь признаков распознавания. Для организации процесса обучения задается набор правил, в соответствии с которым система сама вырабатывает классификацию. Для этих систем так же, как и для предыдущих, существует период обучения. Характерно наличие периода самообучения, когда системе предъявляются объекты обучающей последовательности, только при этом не указывается принадлежность их к каким-либо классам.
43. Биологические основы функционирования нейрона
Искусственные нейронные сети (ИНС) возникли на основе знаний о функционировании нервной системы живых существ. Они представляют собой попытку использования процессов, происходящих в нервных системах, для выработки новых технологических решений.
Нейрона имеет тело (сома), внутри которого располагается ядро. Из сомы выходят многочисленные отростки - многочисленные тонкие, густо ветвящиеся дендриты и более толстый, расщепляющийся на конце аксон.
Входные сигналы поступают в клетку через синапсы, выходной сигнал отводится аксоном через его многочисленные нервные окончания – колатералы, которые контактируют с сомой и дендритами других нейронов, образуя очередные синапсы. Синапсы могут находиться как на дендритах, так и на теле клетки.
Нервные клетки (нейроны) взаимодействуют и передают информацию в результате возбуждения, которое происходит в результате выделения вещества, называемого нейромедиатор.
В искусственной модели каждому входу клетки можно сопоставить численные коэффициенты (веса), пропорциональные количеству нейромедиатора, однократно выделяемого на синапсе.
В математической медели нейрона вх. сигналы умножаются на эти веса, чтобы корректно учитывать влияние каждого сигнала на состояние нейрона. Коэффициенты – целые положительные или отрицательные числа.
В человеческом мозге около 10^11 нейронов, каждый из которых выполняет функцию суммирования весовых коэффициентов сигналов, пришедших от других нейронов.
Огромное количество нейронов и взаимосвязей между ними приводит к тому, что ошибка одного из них оказывается несущественной.
Нейронная сеть – устойчивая система, в которой отдельные сбои не оказывают существенного влияния на работу всей системы.
Вторая особенность нейронной сети – высокая скорость функционирования, которая достигается благодаря параллельной обработке информации огромным количеством нейронов, соединенных параллельно.