
- •Введение. Предмет курса, его задачи, структура.
- •Сигналы и их особенности
- •2. Ортогональные преобразования в задачах обработки сигналов и изображений. Основные свойства дискретного преобразования фурье
- •2.1. Ортогональность сигналов
- •2.2. Теорема Парсеваля
- •2.3. Ряд Фурье
- •2.4. Семейство преобразований Фурье
- •2.5. Дискретное преобразование Фурье (дпф)
- •3. Матричное представление корреляции и свертки
- •3.1. Теорема свертки
- •3.2. Теорема корреляции
- •3.3. Матричное представление корреляции и свертки
- •4. Техника быстрого преобразования фурье (бпф) и основные подходы к его реализации
- •5. Аргоритмы формирования ортогональных прямоугольных функций
- •Представление сигналов в виде функций уолша. Алгоритм быстрого преобразования уолша
- •7. Многомерные преобразования для обработки изображений. Простые вейвлеты. Масштабирующие функции и вейвлет – функции. Прямое и обратное вейвлет-преобразование
- •7.1. Обработка стационарных и нестационарных сигналов
- •7.2. Краткий обзор оконного преобразования Фурье
- •7.3. Основные положения вейвлет-анализа
- •8. Алгоритмы для вычисления преобразования хаара
- •8.1. Ортогональные функции Хаара
- •8.2. Быстрое преобразование Хаара
- •9. Стационарные случайные процессы
- •10. Функции спектральной плотности и определения спектров с помощью корреляционных функций
- •11. Определение спектров с помощью фильтрации
- •12. Цифровые методы анализа: оценивание кореляционных функций методом бпф, оценки спектральной плотности мощности и алгоритмы вычисления
- •13. Получение изображения. Основные понятия предварительной обработки изображений
- •14. Основные преобразования изображения
- •15. Основные взаимосвязи между пикселами изображения. Метрические свойства изображения
- •16. Методы пространственной и частотной области применительно к предварительной обработке изображений
- •17. Сегментация изображения посредством выделения границ областей
- •18. Основные свойства двумерного преобразования фурье
- •19. Основы фильтрации в частотной области
- •20. Сжатие данных
- •21. Выбор признаков и распознавание образов. Принцип обучения
- •22. Виды разделяющих функций. Классификатор по минимальному расстоянию
- •23. Структура системы распознавания образов с применением ортогональных преобразований. Принцип обучения в двухклассовой системе распознавания
- •24. Задача трех классов образов по критерию минимального расстояния
- •25. Метод отображения по алгоритму наименьших квадратов
- •26. Классификатор для распознавания трёх классов образов по критерию наименьшего среднеквадратичного расстояния
- •27. Классификатор для распознавания k классов образов по критерию наименьшего среднеквадратного расстояния
- •28. Модель нейронной сети. Обучающий алгоритм для перцептрона
- •29. Искусственные нейронные сети
- •29.1. Общие теоретические сведения
- •29.2. Нейронная сеть хопфилда
- •29.3. Многослойный персептрон
- •29.4. Сеть рбф
- •29.5. Конкурентная нейронная сеть
29.4. Сеть рбф
Сеть РБФ (радиальная базисная функция) является аналогом многослойного персептрона (рис. 29.8). Скорость обучения такой сети гораздо выше, причем допускается полностью аналитический подход к расчету весовых коэффициентов. Однако эти положительные моменты сопровождаются рядом недостатков, главным из которых является ухудшение точности аппроксимации. Сеть обладает хорошей обобщающей способностью только для ограниченного класса аппроксимируемых функций. В качестве классификатора такая сеть может с успехом применяться в случае хорошей кластеризации классов в пространстве признаков.
Рис. 29.8 Топология сети РБФ
Упрощение работы и обучения достигается за счет введения вместо скрытого слоя нейронов слоя РБФ ячеек. Классический закон, по которому такая ячейка функционирует, определяется формулой гауссового колокола:
, (29.29)
где x – входной вектор; t j – вектор, определяющий математическое ожидание (центр кластера в пространстве признаков) РБФ ячейки; j – среднеквадратическое отклонение или параметр, зависящий от величины разброса образов класса от его центра (рис. 29.8). В данном выражении евклидово расстояние между векторами x и t j вычисляется как
.
Обучение. РБФ ячейки обучаются путем подбора центра и отклонения каждой из них. Для классификатора в качестве центра выбирается центр кластера в пространстве признаков, компактно содержащего образы одного и того же класса. В простейшем случае, если класс задается одним идеальным образом, этот образ и будет являться вектором t – центром РБФ ячейки. Параметр разброса каждой ячейки выбирается в зависимости от величины радиуса кластера или расстояния до соседних центров. Ряд авторов рекомендует выбирать как половину расстояния до ближайшего центра ячейки, соответствующей другому классу. Количество РБФ ячеек выбирается таким образом, чтобы покрыть гауссовыми колоколами все классы.


Рис. 7.9. Примеры функций РБФ ячеек
с одинаковым центром и разным разбросом
Выходной слой РБФ сети обычно состоит из суммирующих ячеек
. (29.30)
Это позволяет при определенных условиях использовать систему линейных уравнений для определения весов выходного слоя. В других обстоятельствах можно использовать алгоритм градиентного спуска для настройки весов выходного слоя (функция активации в данном случае линейная). С учетом того, что обучается только выходной слой нейронной сети, а скрытый уже настроен, обучение такой сети проходит на порядок быстрее, чем аналогичного многослойного персептрона.
Формула (29.22) упрощается до
, (29.31)
поскольку функция активации в выходном слое сети РБФ линейная и ее производная равна 1. Для коррекции весовых коэффициентов выходных суммирующих ячеек используется только (29.31).
Контроль завершения алгоритма обучения производится аналогично.
Воспроизведение. Сеть функционирует по формулам (29.29) и (29.30).
Очевидно, что функция на выходе РБФ сети будет представлять собой суперпозицию гауссовых колоколов. В этом заключается ограничение данного класса классификаторов. Кроме этого, при неудачном выборе признаков большой проблемой является выбор количества РБФ ячеек, определение их центров и отклонения. С уменьшением числа РБФ ячеек улучшается обобщение данных сетью, но могут проявляться большие ошибки в эталонных точках.