
- •«Обработка изображений и распознавание образов» Визильтер Юрий Валентинович Методическое пособие-2010
- •Раздел 2. Распознавание образов. 165
- •1.1. Задачи и приложения машинного зрения. Примеры практических приложений.
- •Уровни и методы машинного зрения
- •Растровое изображение Изображение как двумерный массив данных
- •Алгебраические операции над изображениями
- •Физическая природа изображений
- •Изображения различных диапазонов длин волн
- •Изображения различной физической природы
- •Тип пикселя
- •Возможности и особенности системыPisoft
- •Базовые средства просмотра и анализа изображений и видеопоследовательностей
- •Алгебра изображений
- •Геометрические преобразования изображений
- •Устройства оцифровки и ввода изображений
- •Линейки и матрицы, сканеры и камеры
- •Геометрия изображения
- •Цифровые и аналоговые устройства
- •Пространственное разрешение
- •Программное обеспечение
- •Обработка цветных изображений
- •Цветовая модельRgb
- •Цветовая модель hsv
- •Цветовая модель yuv
- •Цветовая сегментация изображения
- •Гистограмма и гистограммная обработка изображений
- •Профиль вдоль линии и анализ профиля
- •Проекция и анализ проекции
- •Бинаризация полутоновых изображений
- •Сегментация многомодальных изображений
- •Выделение и описание областей
- •Выделение связных областей на бинарных изображениях
- •1. Отслеживающие алгоритмы на примере алгоритма обхода контура.
- •2. Сканируюющие алгоритмы.
- •1.3. Фильтрация. Выделение объектов при помощи фильтров
- •Оконная фильтрация изображений в пространственной области
- •Фильтрация бинарных изображений Модель шума «соль и перец»
- •Структура оконного фильтра
- •Логическая фильтрация помех
- •Бинарная медианная фильтрация
- •Бинарная ранговая фильтрация
- •Взвешенные ранговые фильтры
- •Анизотропная фильтрация
- •Расширение-сжатие (простая морфология)
- •Стирание бахромы
- •Нелинейная фильтрация полутоновых изображений
- •Ранговая оконная фильтрация
- •Минимаксная фильтрация
- •Задача выделения объектов интереса
- •Бинарные фильтры для выделения объектов
- •Метод нормализации фона
- •Скользящее среднее в окне
- •Гауссовская фильтрация
- •Преобразование Фурье. Линейная фильтрация в частотной области
- •Преобразование Фурье
- •Комплексное представление преобразования Фурье
- •Быстрое преобразование Фурье
- •Двумерное преобразование Фурье
- •Свертка с использованием преобразования Фурье
- •Фильтрация изображений в частотной области
- •Вейвлет-анализ
- •Пирамида изображений
- •Вейвлет-преобразование
- •Операторы вычисления производных
- •Операторы вычисления векторов градиентов
- •Операторы Марра и Лапласа
- •Постобработка контурного изображения Локализация края
- •Утончение контура
- •Сегментация полутоновых изображений
- •Пороговая и мультипороговая сегментация
- •Методы слияния, разбиения и слияния/разбиения областей
- •Способы описания выделенных областей
- •Текстурные признаки
- •1.6.Морфологические методы анализа сцен (по ю.П. Пытьеву) Методы обнаружения объектов, заданных эталонами
- •Согласованная фильтрация.
- •Корреляционное обнаружение.
- •Морфологический подход ю.П. Пытьева.
- •Форма изображения как инвариант преобразований изображений, отвечающих вариациям условий регистрации
- •Сравнение изображений по форме
- •Выделение отличий изображений по форме
- •Обнаружение объекта по его изображению и оценка его координат
- •*Морфология на базе кусочно-линейной интерполяции
- •Преобразование Хафа для поиска прямых
- •*Различные способы параметризации прямых
- •Преобразование Хафа для поиска окружностей
- •Анализ аккумулятора при поиске геометрических примитивов
- •Обобщенное преобразование Хафа
- •*Специализированная процедура голосования для поиска эллипсов
- •*Рекуррентное преобразование Хафа в скользящем окне
- •1.8.Математическая морфология (по ж. Серра)
- •Морфологические операции на бинарных изображениях
- •Морфологические операции на полутоновых изображениях
- •Морфологическое выделение «черт» и объектов
- •Морфологический спектр
- •Морфологические скелеты. Непрерывная бинарная морфология Непрерывная бинарная морфология
- •Непрерывное гранично-скелетное представление изображения
- •Обработка и использование скелета
- •*Обобщенные скелетные представления бинарных фигур
- •Алгоритмы утончения дискретного бинарного изображения
- •*Регуляризация скелетов
- •Типы нерегулярностей скелета
- •Устранение нерегулярностей
- •Регуляризация скелета по Тихонову
- •*Селективные морфологии
- •1.9. Анализ движения. Выделение движущихся объектов. Разность кадров. Вычитание фона. Анализ оптических потоков. Слежение за движущимися объектами. Корреляционное слежение.
- •Обучение с учителем. Детерминированные методы, основанные на «близости». Линейные решающие правила. Метод построения эталонов. Метод ближайшего соседа. Методkближайших соседей.
- •Линейные решающие правила
- •Метод построения эталонов
- •Методы ближайших соседей
- •Параметрические и непараметрические методы
- •Дискриминантные и моделирующие методы обучения
- •Способность распознавателя к обобщению. Регуляризация.
- •Байесовская теория решений. Случай двух классов. Классификаторы, разделяющие функции и поверхности решений. Вероятности ошибок. Разделяющие функции для случая нормальной плотности.
- •Дискриминантный анализ. Линейный дискриминант Фишера. Персептронная функция критерия. Линейный дискриминантный анализ (lda,дискриминант Фишера)
- •Персептрон Розенблатта
- •Анализ свидетельств
- •Байесовское объединение свидетельств
- •Структурное распознавание
- •Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
- •Нейросетевое распознавание
- •Нейронные сети ассоциативной памяти. Сети Хопфилда.
- •Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
- •Многослойные персептроны. Правило Хебба.
- •*Связь с байесовским распознаванием
- •Сети встречного распространения. Самоорганизующиеся сети.
Анализ свидетельств
Пусть дан набор попарно независимых гипотез A, составляющих полную группу событий, и наблюдается некоторое событие B. Как известно, в этом случае формула Байеса имеет вид:
P(Ai/B)=[P(Ai)P(B/Ai)]/[{P(Ai)P(B/Ai)}].
Пусть теперь наблюдается изображение Im, и необходимо определить апостериорную вероятность некоторой гипотезы H относительно видимой сцены. Тогда формула Байеса принимает вид
P(H/Im)=[P(H)P(Im/H)]/[P(H)P(Im/H)+P(HС)P(Im/HС)], (*.7)
где HС - гипотеза "не H"; под событием (event) E(H) подразумевается событие "H - истинно".
Изображение Im здесь также рассматривается как событие или, точнее, должно рассматриваться событие E(Im), связанное с данным изображением. Далее будем считать, что в процессе анализа изображения Im происходит ряд событий, совокупность которых и составляет E(Im). Иными словами, если каждый существенный факт, установленный в ходе анализа изображения Im, есть событие ek, то
E(Im)=e1e2..eK, (*.8)
где K - общее число таких событий. Таким образом, для проверки любой гипотезы H относительно изображения Im необходимо вычислить выражение (7) с учетом (8).
Если предположить, что события {ek} независимы в совокупности, то из (.7) и (.8) следует
P(H/Im)=[P(H){P(ek/H)}]/[P(H){P(ek/H)}+P(HС){P(ek/HС)}], (.7’)
где {xk}=x1x2...xK.
Выражение (7’) дает возможность определить важное понятие "влияющего события" или "свидетельства". Пусть даны некоторое событие e и некотрая гипотеза H, причем P(e/H)=P(e/HC). Тогда из (.7’) следует, что
(P(e/H)=P(e/HC))(P(H/{Im\e})=P(H/{Ime})),
иными словами, наличие или отсутствие события e никак не влияет на апостериорную вероятность гипотезы H. Таким образом
Определение.1. Любое событие e, такое что P(e/H)(P(e/HC) является влияющим событием для гипотезы H.
В дальнейшем без потери общности будем считать, что произведение в формуле (.7’) берется не по всем событиям вообще, а только по совокупности влияющих событий для каждой исследуемой гипотезы.
Определение.2. Событийной вероятностной моделью изображения объекта называется набор PE(H)={{p(ek/H),p(ek/HC),ekE(Im)}, p(H)}, где Im - изображение, H - гипотеза о присутствии некоторого объекта на изображении, HC - ее дополнение; E(Im)={ek} - множество влияющих событий относительно гипотезы H, регистрируемых на данном изображении Im.
Вообще говоря, переход от изображения, представленного в виде дискретного двумерного числового поля Im={Imxy}, x=1..DimX, y=1..DimY, Imxy[0..2N-1] к представлению в виде множества событий E(Im)={ek} не является ни очевидным ни даже обоснованным. Попробуем его обосновать.
Пусть известна вероятностная модель изображения объекта PM(H)={p(Im/H), p(Im/HC), p(H)}. И пусть решение об обнаружении объекта принимается на основании значения апостериорной вероятности P(H/Im) в соответствии с выражением (.7). Пусть дан также набор событий E(Im)={ek}=func(Im), характеризуемый соответственно событийной моделью PE(H)={p(E(Im)/H), p(E(Im)/HC), p(H)}. При каких условиях решения, принятые на основании модели PE(H), будут в точности равны решениям, принятым на основании модели PM(H)? Очевидно, в том случае, когда
P(H/Im)=P(H/E(Im)), (.9)
то есть выражения (.7) и (.7’) дают одинаковый результат.
Определение.3. Пусть u и v - два описания изображения, причем u=u(v) - некоторая функция от v. Пусть также некоторый параметр x принимает свои значения на соответствующем множестве. Тогда u называется достаточной статистикой для v относительно параметра x или семейства распределений {p(v/x): xX}, если условная плотность p(v/u,x) не зависит от х.
В работе [1] доказано следующее достаточное условие достаточности статистики при проверке альтернативных гипотез:
Утверждение 1. Пусть u и v - два описания изображения, причем u=u(v). Пусть также дан некоторый набор альтернативных гипотез H={Hi:HiHj=}, составляющих полную группу событий. Тогда u будет достаточной статистикой для v относительно гипотез из H или семейства распределений {p(v/Hi): HiH}, если справедливо равенство P(Hi/v)=P(Hi/u) для всех HiH.
Определение.4. Пусть u и v - два описания изображения, причем u=u(v). Пусть H={H,HC} - набор альтернативных гипотез, составляющих полную группу событий. Тогда вероятностные модели P(v,H)={p(v/H),p(v/HC),p(H)} и P(u,H)={p(u/H),p(u/HC),p(H)}, связанные условием
P(H/v)=P(H/u)
будем называть адекватными относительно H.
Таким образом из введенных определений, утверждения 1 и условия (.9) следует, что переход от описания Im к описанию E(Im) является обоснованным только в том случе, когда E(Im) является достаточной статистикой для Im относительно гипотезы H. Только при этом условии вероятностные модели PE(H) и PM(H) будут адекватными.
Дадим следующую семантическую интерпретацию условию достаточности статистики вида “p(v/u,x) не зависит от х”. Пусть под множеством событий E(Im) понимается совокупность контурных точек вместе с их координатами, и гипотеза Hi состоит в том, что на изображении находится объект некоторой i-й формы. Конкретные значения пикселов зависят, очевидно, от условий регистрации (освещенность + параметры камеры), между тем, контурный препарат является инвариантным к этим условиям носителем искомой информации. В этом случае действительно при любом объекте Hi справедливо равенство p(Im/E(Im),Hi) =p(Im/E(Im)), где p(Im/E(Im)) - вероятность некоторой полутоновой “раскраски” контурного изображения, описывающая условия регистрации изображения, никак не зависящие от характера наблюдаемого объекта.
Полезным с практической точки зрения представляется также ввести следующее понятие:
Определение.5. Пусть u и v - два описания изображения, причем u=u(v). Пусть H={H,HC} - набор альтернативных гипотез, составляющих полную группу событий. Тогда вероятностная модель P(u,H)={p(u/H),p(u/HC),p(H)} называется загрублением модели P(v,H)={p(v/H),p(v/HC),p(H)}, если P(H/v)(P(H/u).
Использование загрубленных моделей может быть полезно на предварительном этапе тестирования гипотез, когда необходимо обеспечить только отсутствие ошибок второго рода (т.е. пропусков), и предполагается что ошибки первого рода (ложные обнаружения) будут отбракованы в дальнейшем.
Так или иначе, далее под обозначением P(H/Im) мы будем всегда понимать P(H/E(Im)), где E(Im) - событийное описание изображения.