
- •Разработка и макетирование устройства распознавания пользователей бытовой техники
- •Содержание
- •1. Сравнительный анализ и выбор принципов построения сенсорной части устройства
- •2. Разработка интерфейса взаимодействия системы распознавания с пользователями
- •3. Обзор методов биометрической идентификации личности по лицу
- •3.1 Особенности и проблемы распознавания лиц
- •3.2Методыудалениефона
- •3.3. Обзор алгоритмов обнаружения лица человека на изображении
- •3.3.1. Эмпирические методы
- •Распознавание "сверху-вниз".
- •Распознавание "снизу-вверх".
- •3.3.2. Моделирование изображения лица
- •Неадаптивные методы
- •Моделирование класса изображений лиц с помощью метода главных компонент
- •Моделирование класса изображений лиц с помощью Факторного Анализа (Factor Analysis, fa)
- •Адаптивные методы
- •Линейный Дискриминантный Анализ (Linear Discriminant Analysis, lda)
- •Метод Опорных Векторов (Support Vector Machines, svm)
- •Искусственные Нейронные Сети (Neural Networks, nn)
- •Sparse Network of Winnows (sNoW) - «Разреженная сеть просеивающих элементов».
- •Скрытые Марковские Модели (Hidden Markov Models)
- •Active Appearance Models (aam) – «Активные модели внешнего вида»
- •Алгоритм Viola-Jones
- •3.4 Обзор методов распознавания лиц
- •3.4.1. Классификация методов распознавания
- •3.4.2. Методы, основывающиеся на анализе локальных признаков
- •Контурные (эластичные) модели лица (Flexible Appearance Models)
- •Сравнение эластичных графов
- •Методы, основанные на геометрических характеристиках лица
- •Сравнение эталонов
- •Метод наиболее информативных областей (нио)
- •Скрытые марковские модели
- •Морфинговые модели
- •3.4.3. Методы, основывающиеся на анализе глобальных признаков Дискриминантные методы
- •Линейный дискриминантный анализ
- •Анализ главных компонент
- •Анализ независимых компонент
- •Топографический независимый факторный анализ
- •Оптический поток
- •3.4.4. Общие методы Фильтры Габора
- •Моменты
- •Нейронные сети
- •3.4.5. Методы классификации
- •Статистические классификаторы
- •Классификаторы на основе построения разделяющих гиперповерхностей
- •Классификаторы, основанные на принципах потенциалов
- •Классификаторы экземпляров
- •Нейросетевые классификаторы
- •4. Выбор оптимальных методов решения задачи распознавания лиц
- •5. Определение набора тестов для проверки качества работы системы распознавания
- •5.1. Тестирование подсистемы удаления фона
- •5.2. Тестирование подсистемы обнаружения лиц
- •5.3. Тестирование подсистемы распознавания лиц
- •5.4. Face Databases
- •6. Разработка алгоритмического обеспечения комплекса.
Моделирование класса изображений лиц с помощью Факторного Анализа (Factor Analysis, fa)
Факторный анализ (ФА), как и многие методы анализа многомерных данных, опирается на гипотезу о том, что наблюдаемые переменные являются косвенными проявлениями относительно небольшого числа неких скрытых факторов. ФА, таким образом, это совокупность моделей и методов, ориентированных на выявление и анализ скрытых (латентных) зависимостей между наблюдаемыми переменными.
В контексте задач распознавания наблюдаемыми переменными обычно являются признаки объектов.
Цель ФА в контексте задачи обнаружения лиц - получить модель изображения лица (с обозримым числом параметров), с помощью которой можно провести оценку близости тестового изображения к изображению лица.
Факторный анализ можно рассматривать как обобщение метода главных компонент.
МГК и ФА являются мощными и удобными способами получения подпространства для эффективного представления класса объектов во многих случаях, однако они не являются оптимальными инструментами для моделирования многообразия изображений лиц.
Адаптивные методы
Описанные выше методы нуждаются также и в контрпримерах, Проблема нахождения репрезентативного набора изображений "не-лица" для успешной тренировки классификатора решается методом самонастройки - постепенном формировании набора контрпримеров по результатам проводимых тестов.
В общем виде задача классификации формулируется следующим образом.
Имеется: пространство векторов X ;
m-мерное евклидово пространство Rm векторов-признаков изображения;
пространство ответов Y={1,-1} , где yi =1 означает, что вектор xi соответствует изображению лица, а yj = -1 , что xj соответствует изображению "не-лица";
пространство F функций f: X→Y, или пространство функций-классификаторов. Требуется по некоторому обучающему набору (xi , yi) , i = 1,2,.., N найти
функцию f, так чтобы достигался минимум среднеквадратической ошибки:
(1)
Линейный Дискриминантный Анализ (Linear Discriminant Analysis, lda)
Задача Линейного Дискриминантного Анализа (ЛДА) - найти проекцию в пространство, в котором разница между различным классами объектов максимальна. Это требование формулируется как получение максимально компактных кластеров, соответствующих различным классам, удаленных на максимально возможное расстояние. С помощью ЛДА удается получить подпространство небольшой размерности, в котором кластеры изображений лиц и "не-лиц" пересекаются минимально. Производить классификацию в таком пространстве значительно проще.
Метод Опорных Векторов (Support Vector Machines, svm)
Цель тренировки большинства классификаторов - минимизировать ошибку классификации (1) на тренировочном наборе (называемую эмпирическим риском). С помощью метода опорных векторов можно построить классификатор, минимизирующий верхнюю оценку ожидаемой ошибки классификации (в том числе для неизвестных объектов, не входивших в тренировочный набор).
Применение метода опорных векторов к задаче обнаружения лица заключается в поиске гиперплоскости в признаковом пространстве, отделяющий класс изображений лиц от изображений "не-лиц".
Линейное разделения сложных классов (изображения лиц и "не-лиц") становится возможным при неявном проецировании векторов-признаков с помощью аппарата ядерных функций в пространство потенциально намного более высокой размерности. Этот способ не приводит к усложнению вычислений, что позволяет успешно использовать линейный классификатор для линейно неразделимых классов.
Итак, метод опорных векторов или SVM основан на том, что ищется линейное разделение классов. В этом случае функция решения
(2)
Производится
поиск параметров
и b.
Видно, что
-
уравнение разделяющей классы
гиперплоскости.
Проводя
параллельные гиперплоскости (рис. 2) ,
получим, что для проведения оптимальной
разделяющей гиперплоскости надо
максимизировать расстояние между этими
двумя плоскостями
,
с условиями, что между ними нет точек
данных, т.е.
.
Рисунок 2. Иллюстрация к разделению на классы
Методом
множителей Лагранжа эта задача сводится
к поиску коэффициентов :
(3)
с
ограничениями
Эта задача решается с помощью алгоритма последовательной оптимизации SMO (Sequential Minimal Optimization). Этот метод сводит решаемую задачу максимизации функции N-переменных к задаче с минимально возможным количеством α - с двумя - и является одним из наиболее эффективных методов обучения.