
- •«Обработка изображений и распознавание образов» Визильтер Юрий Валентинович Методическое пособие-2010
- •Раздел 2. Распознавание образов. 184
- •Уровни и методы машинного зрения
- •Растровое изображение Изображение как двумерный массив данных
- •Алгебраические операции над изображениями
- •Физическая природа изображений
- •Изображения различных диапазонов длин волн
- •Изображения различной физической природы
- •Тип пикселя
- •Возможности и особенности системы Pisoft
- •Базовые средства просмотра и анализа изображений и видеопоследовательностей
- •Алгебра изображений
- •Геометрические преобразования изображений
- •Устройства оцифровки и ввода изображений
- •Линейки и матрицы, сканеры и камеры
- •Геометрия изображения
- •Цифровые и аналоговые устройства
- •Пространственное разрешение
- •Программное обеспечение
- •Обработка цветных изображений
- •Цветовая модель rgb
- •Цветовая модель hsv
- •Цветовая модель yuv
- •Цветовая сегментация изображения
- •Гистограмма и гистограммная обработка изображений
- •Профиль вдоль линии и анализ профиля
- •Проекция и анализ проекции
- •Бинаризация полутоновых изображений
- •Сегментация многомодальных изображений
- •Выделение и описание областей
- •Выделение связных областей на бинарных изображениях
- •1. Отслеживающие алгоритмы на примере алгоритма обхода контура.
- •2. Сканируюющие алгоритмы.
- •Оконная фильтрация изображений в пространственной области
- •Фильтрация бинарных изображений Модель шума «соль и перец»
- •Структура оконного фильтра
- •Логическая фильтрация помех
- •Бинарная медианная фильтрация
- •Бинарная ранговая фильтрация
- •Взвешенные ранговые фильтры
- •Анизотропная фильтрация
- •Расширение-сжатие (простая морфология)
- •Стирание бахромы
- •Нелинейная фильтрация полутоновых изображений
- •Ранговая оконная фильтрация
- •Минимаксная фильтрация
- •Задача выделения объектов интереса
- •Бинарные фильтры для выделения объектов
- •Метод нормализации фона
- •Скользящее среднее в окне
- •Гауссовская фильтрация
- •Преобразование Фурье. Линейная фильтрация в частотной области
- •Преобразование Фурье
- •Комплексное представление преобразования Фурье
- •Быстрое преобразование Фурье
- •Двумерное преобразование Фурье
- •Свертка с использованием преобразования Фурье
- •Фильтрация изображений в частотной области
- •Вейвлет-анализ
- •Пирамида изображений
- •Вейвлет-преобразование
- •Операторы вычисления производных
- •Операторы вычисления векторов градиентов
- •Операторы Марра и Лапласа
- •Постобработка контурного изображения Локализация края
- •Утончение контура
- •Сегментация полутоновых изображений
- •Пороговая и мультипороговая сегментация
- •Методы слияния, разбиения и слияния/разбиения областей
- •Способы описания выделенных областей
- •Текстурные признаки
- •1.6. Морфологические методы анализа сцен (по ю.П. Пытьеву) Методы обнаружения объектов, заданных эталонами
- •Согласованная фильтрация.
- •Корреляционное обнаружение.
- •Морфологический подход ю.П. Пытьева.
- •Форма изображения как инвариант преобразований изображений, отвечающих вариациям условий регистрации
- •Сравнение изображений по форме
- •Выделение отличий изображений по форме
- •Обнаружение объекта по его изображению и оценка его координат
- •*Морфология на базе кусочно-линейной интерполяции
- •Преобразование Хафа для поиска прямых
- •*Различные способы параметризации прямых
- •Преобразование Хафа для поиска окружностей
- •Анализ аккумулятора при поиске геометрических примитивов
- •Обобщенное преобразование Хафа
- •*Специализированная процедура голосования для поиска эллипсов
- •*Рекуррентное преобразование Хафа в скользящем окне
- •1.8. Математическая морфология (по ж. Серра)
- •Морфологические операции на бинарных изображениях
- •Морфологические операции на полутоновых изображениях
- •Морфологическое выделение «черт» и объектов
- •Морфологический спектр
- •Морфологические скелеты. Непрерывная бинарная морфология Непрерывная бинарная морфология
- •Непрерывное гранично-скелетное представление изображения
- •Обработка и использование скелета
- •*Обобщенные скелетные представления бинарных фигур
- •Алгоритмы утончения дискретного бинарного изображения
- •*Регуляризация скелетов
- •Типы нерегулярностей скелета
- •Устранение нерегулярностей
- •Регуляризация скелета по Тихонову
- •*Селективные морфологии
- •Метод оптических потоков
- •Дифференциальный подход
- •Корреляционный подход
- •Частотный подход
- •Корреляционное слежение.
- •Форматы хранения и передачи цифровых изображений
- •Методы сжатия цифровых изображений
- •Формат bmp
- •Формат pcx
- •Формат gif
- •Формат tiff
- •Формат jpeg
- •Форматы хранения и передачи цифровых видеопоследовательностей
- •Формат avi
- •Формат mpeg
- •Форматы mpeg 1 и mpeg 2
- •Формат mpeg 4
- •Форматы mpeg 7
- •Раздел 2. Распознавание образов.
- •Обучение с учителем. Детерминированные методы, основанные на «близости». Линейные решающие правила. Метод построения эталонов. Метод ближайшего соседа. Метод k ближайших соседей.
- •Линейные решающие правила
- •Метод построения эталонов
- •Методы ближайших соседей
- •Параметрические и непараметрические методы
- •Дискриминантные и моделирующие методы обучения
- •Способность распознавателя к обобщению. Регуляризация.
- •Байесовская теория решений. Случай двух классов. Классификаторы, разделяющие функции и поверхности решений. Вероятности ошибок. Разделяющие функции для случая нормальной плотности.
- •Дискриминантный анализ. Линейный дискриминант Фишера. Персептронная функция критерия. Линейный дискриминантный анализ (lda, дискриминант Фишера)
- •Персептрон Розенблатта
- •Байесовское объединение свидетельств
- •Структурное распознавание
- •Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
- •Нейросетевое распознавание
- •Нейронные сети ассоциативной памяти. Сети Хопфилда.
- •Многослойные персептроны. Оптимизационное обучение. Метод обратного распространения ошибки.
- •Многослойные персептроны. Правило Хебба.
- •*Связь с байесовским распознаванием
- •Сети встречного распространения. Самоорганизующиеся сети.
Байесовское объединение свидетельств
Определение.6. Свидетельством события e относительно гипотезы H называется значение условной вероятностной меры P(H/e).
Определение.7. Пусть дан некоторый набор альтернативных гипотез H={Hi:HiHj=}, составляющих полную группу событий, и известны априорные условные распределения {p(e/Hi),HiH}. Тогда байесовским свидетельством для события e относительно гипотезы Hi называется значение апостериорной вероятности P(Hi/e), вычисляемое на основе априорных распределений согласно формуле Байеса.
Определение.8. Пусть дано множество условно независимых событий E={ek} и известен соответствующий набор свидетельств относительно некоторой гипотезы H - {P(H/ek), ekE}. Правилом объединения свидетельств событий из E в пользу гипотезы H называется любая коммутативная и ассоциативная операция H:[0,1]x[0,1][0,1]. Результат объединения H(H/A)=H{P(H/ek), ekA }, AE будем называть суммарным свидетельством относительно операции H.
Определение.9. Пусть даны: некоторый набор альтернативных гипотез H={Hi:HiHj=}, составляющих полную группу событий, и множество условно независимых событий E={ek} вместе с соответствующим набором свидетельств {P(Hi/ek),HiH,ekE}. Байесовским правилом объединения свидетельств событий из E в пользу гипотезы H называется такое правило объединения свидетельств H, что, если {P(Hi/ek),HiH,ekE} - байесовские свидетельства, то Hi(H/A)=P(Hi/A), где P(Hi/A) - соответствующая байесовская апостериорная вероятность гипотезы Hi по свидетельству группы событий {ekA}, AE.
Заметим, что правило объединения свидетельств может оставаться байесовским даже если оно применяется для объединения небайесовских свидетельств. Конечно, при этом результат его применения не будет давать правильного байесовского значения, однако, значение результата было бы правильным, если бы свидетельства были бы байесовскими.
Как известно, существует единственное (с точностью до формы записи) байесовское правило объединения. В данной работе мы будем использовать следующую форму записи:
P(Hi/E={ek})=[P(Hi)k{P(Hi/ek)/P(Hi)}]/
j[P(Hj)k{P(Hj/ek)/P(Hj)}] (.10)
Соответствие выражения (.10) определению 2.9 проверяется непосредственной подстановкой в него байесовских выражений для апостериорной вероятности.
В последнее время вместо байесовского объединения свидетельств часто предлагают использовать метод Демпстера-Шафера.
Оба эти подхода, вообще говоря, основаны на теореме Байеса. Основная разница между ними заключается в следующем:
1) БП предполагает задание P(e/H), а ДШ опирается на P(H/e), где P(e/H) - условная вероятность свидетельства e при условии, что гипотеза H истинна, а P(H/e) есть апостериорная вероятность H при условии наблюдения e, выступающая непосредственно в качестве меры свидетельства события e в пользу гипотезы H.
2) при байесовском подходе формируется непосредственная оценка апостериорной вероятности гипотезы P(H/E), где E={ek} - совокупность свидетельств, а при подходе ДШ вычисляются мера доверия Bel(H/E) и достоверность Pls(H/E), являющиеся соответственно нижней и верхней границами P(H/E).
3) в подходе ДШ вводится в рассмотрение понятие достоверности свидетельтва P(e/E), которая может учитываться при формировании Bel(H/E) и Pls(H/E).
Доказана следующая связь между БП и ДШ: в том случае, когда PДШ(H/e) есть байесовская апостериорная вероятность, "eÎE: P(e/E)=1, и оценка P(H/E) может быть непосредственно сформирована, Bel(H/E)=PБП(H/E)=Pls(H/E). Иными словами, для описанной выше задачи тестирования простых альтернативных гипотез, подход ДШ включает БП как частный случай.
Источники по разделу:
1. Волошин Г.Я., МЕТОДЫ РАСПОЗНАВАНИЯ ОБРАЗОВ (конспект лекций), http://www.vvsu.ru/
2. А.Б.Мерков, О статистическом обучении, http://www.recognition.mccme.ru/pub/RecognitionLab.html/slt.html
3. Data Miner System & Scoring StatSoft, http://www.spc-consulting.ru/DMS/
4. http://redyar.samara.ru/stat/
РЕКОМЕНДУЕМАЯ ЛИТЕРАТУРА
Айзерман А.А., Браверман Э.М., Розоноэр Э.И. Метод потенциальных функций в теории обучения машин. – М.: Наука, 1970.
Волошин Г.Я., Бурлаков И.А., Косенкова С.Т. Статистические методы решения задач распознавания, основанные на аппроксимационном подходе. – Владивосток: ТОИ ДВО РАН, 1992.
Горелик А.Л., Скрипкин В.А. Методы распознавания. – М.: Высш. шк., 1977.
Дуда Р., Харт П. Распознавание образов и анализ сцен. – М.: Мир, 1976.
Загоруйко Н.Г. Методы распознавания и их применение. – М.: Сов. радио, 1972.
Загоруйко Н.Г., Ёлкина В.Н., Емельянов С.В., Лбов Г.С. Пакет прикладных программ ОТЭКС. – М.: Финансы и статистика, 1986.
Патрик Э. Основы теории распознавания образов. – М.: Сов. радио, 1980.
Фу К.С. Последовательные методы в распознавании образов и обучении машин. – М.: Наука, 1971.
Фу К.С. Структурные методы в распознавании образов. – М.: Мир, 1977.
2.2. Структурное описание и распознавание объектов на изображениях. Структурный подход. Элементы и отношения. Теория образов Гренандера. Структурно-лингвистическое распознавание. Порождающие грамматики. Распознавание цепочек символов. Сравнение графов. Автоматизированное конструирование алгоритмов обнаружения объектов на основе преобразований модельных описаний объектов.
Структурное описание и распознавание объектов на изображениях.
Структурный подход. Элементы и отношения. Теория образов Гренандера. Структурно-лингвистическое распознавание. Порождающие грамматики. Распознавание текстовых цепочек.
Выделение правильных геометрических фигур. Выделение искусственных объектов. Выделение первичных черт на изображениях: углы, отрезки, дуги, особые точки. Практические примеры: распознавание треков частиц, векторизация карт и чертежей.
Утончение. Скелетизация. Типы особых точек: узловые, концевые. Практические примеры: построение модели ДНК, выделение зданий на аэрофотоизображениях.