- •Распознавание образов. Общие положения.
- •Объекты в распознавании образов
- •Классификация объектов. Понятие расстояния между объектами.
- •Две группы методов распознавания и их особенности.
- •Разделяющая функция. Решающее правило. Пример разделения на два класса.
- •Линейные разделяющие функции для n классов. 1-ый случай разделения
- •Линейные разделяющие функции для n классов. 2-ой случай разделения
- •Обучение в решении задачи классификации
- •Обучение с учителем и без учителя
- •11. Алгоритм класс-ции на базе контролируемого обучения (к-средних)
- •12. Алгоритм классификации на базе самообучения (Максимин)
- •13. Расстояние между классами (частный случай)
- •14. Расстояние между списками
- •15. Метод динамического программирования
- •16. Классификация объектов вероятностным подходом. Закон Бейеса.
- •17. Решающее правило при вероятностном подходе.
- •18. Разделение объектов на два класса при вероятностном подходе
- •19. Устройство автоматической классификации «Персептрон»
- •20. Критерий коррекции весовых коэф-в для классификации объектов
- •21. Алгоритм классификации объектов на n классов (Персептрон)
- •22. Метод потенциалов
- •23. Иерархическое группирование
- •24. Определение иерархии
- •25. Пример метода иерархической классификации
- •26. Постановка задачи синтаксического распознавания образов. Структурная схема системы распознавания. (V)
- •27. Понятия языка, строки, грамматики. Описание грамматики и ее компонентов.
- •28. Связь между автоматами и грамматиками при синтаксическом распознавании. (V)
- •29. Постановка задачи синтаксического распознавания образов. Грамматический разбор сверху вниз (привести пример) (V)
- •30. Постановка задачи синтаксического распознавания образов. Грамматический разбор снизу вверх (привести пример). (V)
- •31. Применение методов синтаксического распознавания для двумерных объектов. Использование языка описания изображений pdl (привести пример). (V)
- •32. Стохастические грамматики и языки (привести пример).
- •33. Алгоритм вывода цепочечных грамматик. (V)
- •3 Части построения Алгоритма:
- •34. Алгоритм вывода двумерных грамматик.(V)
- •35. Общие понятия систем распознавания
- •36. Проблематика задач создания систем распознавания
- •37. Формулировка задач создания систем распознавания и методы их решения. Задачи 1,2
- •38. Формулировка задач создания ср и их решение. Задачи 3,4
- •39. Формулировка задач создания ср и их решение. Задачи 5,6
- •40. Принципы классификации ср (1, 2)
- •Однородность информации для описания распознаваемых объектов и явлений
- •Способ получения апостериорной информации
- •41. Принципы классификации ср (3, 4)
- •Количество первоначальной априорной информации
- •Характер информации признаках распознавания
- •42. Обучающиеся и самообучающиеся ср (структурные схемы)
- •43. Биологические основы функционирования нейрона
- •44. Принципы построения и действия искусственной нейронной сети
- •45. Инс в виде многослойного персептрона
- •46. Решение задач с помощью нс на базе многослойного персептрона
46. Решение задач с помощью нс на базе многослойного персептрона
Для построения персептрона необходимо выбрать его параметры. Обычно - в процессе обучения.
Определить смысл, вкладываемый в компоненты входного вектора x. Вектор х должен содержать формализованное условие задачи.
Выбрать выходной вектор y, чтобы его компоненты содержали ответ поставленной задачи.
Выбрать вид нелинейности в нейронах (функцию активации). При этом желательно учесть специфику задачи, т.к. удачный выбор сократит время обучения.
Выбрать число слоев и нейронов в слое.
Задать диапазон изменения входов, выходов, весов и пороговых уровней, учитывая множество значений выбранной функции активации.
Присвоить начальные значения весам и пороговым уровням и доп. параметрам. Начальные значения не должны быть большими, чтобы нейроны не оказались в насыщении (на горизонтальном участке функции активации), иначе обучение окажется фиктивным: пороговые значения и веса будут достигнуты, а сеть не обучится. Начальные значения не должны быть и слишком малыми, чтобы выходы большей части нейронов не были равны нулю, иначе обучение замедлится.
Провести обучение, т.е. подобрать парам. сети так, чтобы задача реш. наилучшим образом.
Подать на вход сети усл. задачи в виде вектора x. Рассч. выходной вектор y – решение.
Нет правила для выбора параметров сети. Однако, больше нейронов и слоев - шире возможности сети, тем медленнее она обучается и работает и тем более сложной может быть зависимость вход-выход. Количество нейронов и слоев связано:
со сложностью задачи;
с количеством данных для обучения;
с требуемым количеством входов и выходов сети;
с имеющимися ресурсами: памятью и быстродействием машины, на которой моделируется сеть.
Поскольку Персептрон обучается с учителем, должно быть задано множество пар векторов {x, d}, где х – условие задачи, d – известное решение для этого условия. Кол-во элем. в обуч. мн-ве должно быть достат. для обуч. сети, чтобы под управлением алгоритма сформировать набор параметров сети, дающий нужное отображение X→Y. При этом количество элементов в обучающей выборке не регламентируется. Выберем один из векторов xs (S указывает на то, что х принадлежит обучающей выборке) и подадим его на вход сети. На выходе получится некоторый вектор ys. Тогда ошибкой сети можно считать E = |d – y| для каждой пары (х, d). Для оценки качества обучения выбирают суммарную квадратическую ошибку или среднюю относительную ошибку.
Приведем общую схему обучения персептрона:
Инициализировать веса и параметры функции активации в малые ненулевые значения;
Подать на вход один образ и рассчитать выход;
Посчитать ошибку Es, сравнив ds и ys.
Изменить веса и параметры функции активации так, чтобы ошибка Es уменьшилась.
Повторить шаги 2-4 до тех пор, пока ошибка не перестанет убывать или не станет достаточно малой.
