
- •«Обработка изображений и распознавание образов» Визильтер Юрий Валентинович Методическое пособие-2010
- •Раздел 2. Распознавание образов. 184
- •Уровни и методы машинного зрения
- •Растровое изображение Изображение как двумерный массив данных
- •Алгебраические операции над изображениями
- •Физическая природа изображений
- •Изображения различных диапазонов длин волн
- •Изображения различной физической природы
- •Тип пикселя
- •Возможности и особенности системы Pisoft
- •Базовые средства просмотра и анализа изображений и видеопоследовательностей
- •Алгебра изображений
- •Геометрические преобразования изображений
- •Устройства оцифровки и ввода изображений
- •Линейки и матрицы, сканеры и камеры
- •Геометрия изображения
- •Цифровые и аналоговые устройства
- •Пространственное разрешение
- •Программное обеспечение
- •Обработка цветных изображений
- •Цветовая модель rgb
- •Цветовая модель hsv
- •Цветовая модель yuv
- •Цветовая сегментация изображения
- •Гистограмма и гистограммная обработка изображений
- •Профиль вдоль линии и анализ профиля
- •Проекция и анализ проекции
- •Бинаризация полутоновых изображений
- •Сегментация многомодальных изображений
- •Выделение и описание областей
- •Выделение связных областей на бинарных изображениях
- •1. Отслеживающие алгоритмы на примере алгоритма обхода контура.
- •2. Сканируюющие алгоритмы.
- •Оконная фильтрация изображений в пространственной области
- •Фильтрация бинарных изображений Модель шума «соль и перец»
- •Структура оконного фильтра
- •Логическая фильтрация помех
- •Бинарная медианная фильтрация
- •Бинарная ранговая фильтрация
- •Взвешенные ранговые фильтры
- •Анизотропная фильтрация
- •Расширение-сжатие (простая морфология)
- •Стирание бахромы
- •Нелинейная фильтрация полутоновых изображений
- •Ранговая оконная фильтрация
- •Минимаксная фильтрация
- •Задача выделения объектов интереса
- •Бинарные фильтры для выделения объектов
- •Метод нормализации фона
- •Скользящее среднее в окне
- •Гауссовская фильтрация
- •Преобразование Фурье. Линейная фильтрация в частотной области
- •Преобразование Фурье
- •Комплексное представление преобразования Фурье
- •Быстрое преобразование Фурье
- •Двумерное преобразование Фурье
- •Свертка с использованием преобразования Фурье
- •Фильтрация изображений в частотной области
- •Вейвлет-анализ
- •Пирамида изображений
- •Вейвлет-преобразование
- •Операторы вычисления производных
- •Операторы вычисления векторов градиентов
- •Операторы Марра и Лапласа
- •Постобработка контурного изображения Локализация края
- •Утончение контура
- •Сегментация полутоновых изображений
- •Пороговая и мультипороговая сегментация
- •Методы слияния, разбиения и слияния/разбиения областей
- •Способы описания выделенных областей
- •Текстурные признаки
- •1.6. Морфологические методы анализа сцен (по ю.П. Пытьеву) Методы обнаружения объектов, заданных эталонами
- •Согласованная фильтрация.
- •Корреляционное обнаружение.
- •Морфологический подход ю.П. Пытьева.
- •Форма изображения как инвариант преобразований изображений, отвечающих вариациям условий регистрации
- •Сравнение изображений по форме
- •Выделение отличий изображений по форме
- •Обнаружение объекта по его изображению и оценка его координат
- •*Морфология на базе кусочно-линейной интерполяции
- •Преобразование Хафа для поиска прямых
- •*Различные способы параметризации прямых
- •Преобразование Хафа для поиска окружностей
- •Анализ аккумулятора при поиске геометрических примитивов
- •Обобщенное преобразование Хафа
- •*Специализированная процедура голосования для поиска эллипсов
- •*Рекуррентное преобразование Хафа в скользящем окне
- •1.8. Математическая морфология (по ж. Серра)
- •Морфологические операции на бинарных изображениях
- •Морфологические операции на полутоновых изображениях
- •Морфологическое выделение «черт» и объектов
- •Морфологический спектр
- •Морфологические скелеты. Непрерывная бинарная морфология Непрерывная бинарная морфология
- •Непрерывное гранично-скелетное представление изображения
- •Обработка и использование скелета
- •*Обобщенные скелетные представления бинарных фигур
- •Алгоритмы утончения дискретного бинарного изображения
- •*Регуляризация скелетов
- •Типы нерегулярностей скелета
- •Устранение нерегулярностей
- •Регуляризация скелета по Тихонову
- •*Селективные морфологии
- •Метод оптических потоков
- •Дифференциальный подход
- •Корреляционный подход
- •Частотный подход
- •Корреляционное слежение.
- •Форматы хранения и передачи цифровых изображений
- •Методы сжатия цифровых изображений
- •Формат bmp
- •Формат pcx
- •Формат gif
- •Формат tiff
- •Формат jpeg
- •Форматы хранения и передачи цифровых видеопоследовательностей
- •Формат avi
- •Формат mpeg
- •Форматы mpeg 1 и mpeg 2
- •Формат mpeg 4
- •Форматы mpeg 7
- •Раздел 2. Распознавание образов.
- •Обучение с учителем. Детерминированные методы, основанные на «близости». Линейные решающие правила. Метод построения эталонов. Метод ближайшего соседа. Метод k ближайших соседей.
- •Линейные решающие правила
- •Метод построения эталонов
- •Методы ближайших соседей
- •Параметрические и непараметрические методы
- •Дискриминантные и моделирующие методы обучения
- •Способность распознавателя к обобщению. Регуляризация.
- •Байесовская теория решений. Случай двух классов. Классификаторы, разделяющие функции и поверхности решений. Вероятности ошибок. Разделяющие функции для случая нормальной плотности.
- •Дискриминантный анализ. Линейный дискриминант Фишера. Персептронная функция критерия. Линейный дискриминантный анализ (lda, дискриминант Фишера)
- •Персептрон Розенблатта
- •Байесовское объединение свидетельств
- •Структурное распознавание
- •Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
- •Нейросетевое распознавание
- •Нейронные сети ассоциативной памяти. Сети Хопфилда.
- •Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
- •Многослойные персептроны. Правило Хебба.
- •*Связь с байесовским распознаванием
- •Сети встречного распространения. Самоорганизующиеся сети.
Нейронные сети ассоциативной памяти. Сети Хопфилда.
Всплеск интереса к нейронным сетям был в свое время связан с распознающими сетями Хопфилда. Для них синаптическая карта симметрична (Xij=Xji), а функционирование происходит в непрерывном времени. Состояние i-го нейрона (оно же - выходной сигнал) i(t) меняется во времени согласно уравнению
,
где Ai=i Xij*ai - входной сигнал, приходящий от других нейронов.
Правая часть этого выражения представляет собой -H/i, где
.
Уравнение движения, таким образом, имеет вид
поэтому движение стремится к одному из локальных минимумов Н. Роль входного сигнала играют начальные состояния i.
"Программирование" ассоциативной сети на распознавание N эталонных образов осуществляется так. Пусть эталонам соответствует состояния сети iil, l=1,..,N.
Положим
.
Тогда функция H примет вид
Первое слагаемое в Н дает вклад в уравнение движения, сдвигающий i к +1 или -1 в зависимости от начального значения - положительные i он тянет к +1, отрицательные - к -1. Если записать вклад второго слагаемого в векторном виде, то получим:
.
Эта сумма сдвигает пропорционально векторам l, причем сдвиг больше для тех l, для которых больше по величине скалярное произведение (,l). Если предполагать, что величина |(,l)| имеет ярко выраженный максимум по l, то получим в итоге "похожим" на соответствующее l. Искажения будут связаны с наличием других и первого слагаемого в Н.
Сети данного типа хорошо зарекомендовали себя для работы с небольшими бинарными образами. Однако, при увеличении размерности изображения и появлении полутонов и сложных шумов распознающая способность сетей Хопфилда резко падает.
Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
В ходе обучения таких НС происходит минимизация целевой функции, оценивающей соответствие выходных сигналов входным. Если выбраны множество обучающих примеров и способ вычисления суммарной оценки, задача обучения нейронной сети превращается в задачу многомерной оптимизации, вообще говоря невыпуклой.
В процессе обучения множество обучающих примеров, и способ вычисления оценки могут меняться - на начальных этапах может быть разумно ограничиться небольшим набором примеров и одним способом оценивания, расширяя множество и меняя оценки в ходе обучения. Тем не менее, такая ситуация, когда заданы множество обучающих примеров и способ оценивания, возникает на всех этапах обучения.
Решать возникающие задачи оптимизации можно различными способами. Существует немало методов, не использующих производных. Так, например, движение в случайном направлении, а также различные модификации этого метода не требуют значительной дополнительной памяти (по сравнению с задачами функционирования). Но все же, методы использующие производные работают обычно быстрее.
Самое существенное достижение последних лет в этой области - открытие алгоритмов, позволяющих самой нейронной сети в акте двойственного функционирования вычислять направление наилучшего обучения.
Основную идею двойственного функционирования (или «обратного распространения ошибки») можно понять уже на простейшем примере. Рассмотрим вычисление производной сложной функции. Пусть заданы функции одной переменной f1,f2,..,fn. Образуем из них сложную функцию
F(x)=fn(fn-1(...f1(x)...)).
Можно представить вычисление F(x) как результат работы n автоматов, каждый из которых имеет один вход и выдает на выходе значение fi(A), где A - входной сигнал. Чтобы построить систему автоматов, вычисляющую F'(x), надо дополнить исходные автоматы такими, которые вычисляют функции fi'(A), где A - входной сигнал, и еще цепочкой из n-1 одинаковых автоматов, имеющих по два входа, по одному выходу и подающих на выход произведение входов.
Тогда формулу проиводной сложной функции
dF(x)/dx=fn'(fn-1(...(x)...)fn-1'(...(x)...)...
можно реализовать с помощью сети автоматов. Сначала вычисления в этой сети идут слева направо: на входы f1 и f1' подаются значения х; после вычислений f1 этот входной сигнал подается на входы f2 и f2' и т.д. В конце цепочки оказываются вычисленными все fi(fi-1(...f1(x)...)) и fi'(fi-1(...f1(x)...)).
Тем самым, для каждого автомата в цепи обратного функционирования, кроме самого правого, оказывается сформированным по одному значению входа, а у самого правого - оба, поэтому он может сработать и начать передачу сигнала справа налево. Это обратное движение есть последовательное вычисление попарных произведений и передача их налево. В конце получаем dF(x)/dx.
Эту схему можно обобщить и на случай сложных функций многих переменных. В нейронных сетях при обратном функционировании сумматоры заменяются точками ветвления, точки ветвления - сумматорами.
Преимущество этого метода обучения связано с тем, что вычисление шага градиентного обучения выполненяется параллельно, на структурах, аналогичных (двойственных) нейронным сетям. Это значительно ускоряет процесс обучения.