- •Обобщенная схема цифровой обработки сигналов
- •3. Основные типы сигналов и их математическое описание
- •2. Типовые дискретные сигналы
- •4. Дискретные экспоненциальные функции
- •Основные свойства дэф
- •5. Дискретное преобразование Фурье и его свойства
- •Свойства дпф[8]:
- •19. Линейная свертка
- •6. Циклическая свертка
- •22. Вычисление сверток при помощи дискретных преобразований
- •10. Корреляция и ее вычисление прямым методом и с помощью дискретных преобразований
- •Вычисление с помощью дискретных преобразований.
- •11. Алгоритм бпф с прореживанием по времени
- •13. Алгоритм бпф с прореживанием по частоте
- •14. Преобразование Уолша-Адамара и его свойства
- •2. Инвариантность к диадному сдвигу.
- •3. Теорема о свертке и корреляции.
- •28. Быстрое преобразование Уолша-Адамара
- •8. Преобразование Хаара
- •9. Вейвлет – преобразование
- •34. Рекурсивные и нерекурсивные цф
- •12. Передаточная функция цф
- •39. Структуры рцф
- •41. Структуры нцф
- •43. Частотные характеристики ких-фильтров и бих-фильтров
- •45. Параметры анализаторов спектра
- •33. Базовая структура анализатора спектра на основе дпф и бпф
- •36. Частотная характеристика анализатора спектра на основе дпф
- •35. Основные параметры весовых функций при спектральном анализе
- •21. Улучшение качества бинарных изображений
- •23. Утоньшение бинарных изображений
- •25. Связность в изображениях
- •26. Бинаризация полутоновых изображений
- •46. Логарифмическое и степенное преобразования для обработки полутоновых и цветных изображений
- •37. Кусочно-линейные функции преобразования для обработки полутоновых изображений
- •18. Принципы и особенности пространственной фильтрации изображений
- •15. Низкочастотная фильтрация изображений в пространственной области
- •48. Подчеркивание границ на полутоновых изображениях
- •16. Глобальные методы улучшения контраста полутоновых изображений
- •17. Линейные методы контрастирования изображений
- •47. Нелинейные методы контрастирования изображений
- •24. Обработка бинарных изображений на основе математической морфологии
- •27. Обработка полутоновых изображений на основе математической морфологии
- •31. Фильтрация изображений в частотной области
- •32. Требования к алгоритмам компрессии
- •2. Высокое качество изображений.
- •4. Высокая скорость декомпрессии.
- •44. Основные шаги стандарта сжатия jpeg
- •Квантование
- •Преобразование 8×8 матрицы дкп-спектра в линейную последовательность.
- •Получившиеся цепочки нулей подвергаются кодированию длин повторений.
- •Кодирование получившейся последовательности алгоритм Хаффмена.
- •49. Требования к мерам, вычисляющим сходство изображений
- •1. Метричность:
- •2. Нормализованность значений:
- •38. Функции схожести корреляционного типа
- •40. Обнаружение повернутых объектов на изображениях
- •50. Методы обнаружения движения в динамических изображениях
- •29. Классификация методов распознавания объектов изображений
- •30. Структурные методы распознавания объектов изображений
- •42. Нейронные сети и распознавание изображений на основе нейронных сетей
- •20. Сегментация изображений с помощью преобразования Хафа
30. Структурные методы распознавания объектов изображений
При структурном подходе объекты описываются не множеством числовых значений признаков x , а структурой объекта.
Иерархия предполагает описание сложных объектов с помощью более простых подобъектов. Те, в свою очередь, могут быть описаны с помощью подобъектов следующего уровня и т.д. Этот подход основан на аналогии между структурой объектов и синтаксисом языков. Он приемлем тогда, когда простейшие подобъекты вычленять и распознавать легче, чем изображение (объект) в целом. Правила композиции простейших (непроизводных) элементов при описании объекта в целом называют грамматикой языка описания объектов. Распознавание объекта состоит в распознавании непроизводных его элементов и синтаксическом анализе (грамматическом разборе) "предложения", описывающего данный объект.
Преимущество лингвистического подхода проявляется в том случае, если удаётся большое количество сложных объектов представлять с помощью небольшого множества непроизводных элементов и грамматических правил.
Грамматика языка описания объектов формируется на этапе обучения на основе обучающей выборки. Теоретической базой данного подхода является теория формальных языков и лежащих в их основе порождающих грамматик.
42. Нейронные сети и распознавание изображений на основе нейронных сетей
Нейронные сети, нейроны – простейшие нелинейные вычислительные элементы, которые организованы в виде сетей, напоминающих предположительный способ соединения нейронов в мозге человека.
Мак-Каллока и Питтса предложили модель нейрона в виде двоичного порогового устройства, а в качестве основы для моделирования нейронных систем - стохастические алгоритмы, в которых происходят внезапные переходы нейронов из состояния 0 в состояние 1 и наоборот. В середине 50-х - начале 60-х годов Розенблаттом был создан новый класс так называемых обучающихся машин, что пробудило значительный интерес исследователей и инженеров к теории распознавания образов. Причиной большого интереса к таким машинам, названным персептронами, было построение математических доказательств того факта, что при обучении персептрона с помощью линейно разделимых обучающих выборок (т.е. выборок образов, для которых разделяющей поверхностью может быть гиперплоскость) сходимость к решению достигается за конечное число итеративных шагов.
Последующие попытки увеличить мощность машин, подобных персептрону, за счет рассмотрения нескольких слоев таких устройств.
Б олее поздние результаты в области разработки новых алгоритмов обучения для многослойных персептронов существенно изменили положение дел. Основной метод, который часто называют обобщенным дельта-правилом обучения посредством обратного распространения ошибки, предлагает эффективный способ обучения многослойных машин.
Персептрон для двух классов
В самой простой форме, при обучении персептрона строится линейная дискриминантная функция, осуществляющая дихотомию двух линейно разделимых обучающих выборок. Рис. схематически показывает модель персептрона в случае двух классов образов. Выходной сигнал (реакция) этого элементарного устройства базируется на взвешенной сумме его входных сигналов, имеющей вид:
Функцию, которая отображает результат суммирования в конечный выходной сигнал устройства, иногда называют активирующей функцией.
Если d(x) > 0, пороговое устройство устанавливает на выходе персептрона сигнал +1, указывающий, что объект x опознан как принадлежащий классу ω1; при d(x) < 0 на выходе устанавливается сигнал -1. Если d(x) = 0, то объект x лежит на разделяющей поверхности между двумя классами, что является условием неопределенности.
Выходной сигнал порогового устройства на рис. 9.8 (а) зависит от знака функции d(x). Вместо того чтобы исследовать знак всей функции, можно сравнивать член с суммой в правой части уравнения со свободным членом.
Главная задача всегда состоит в нахождении вектора w по данной обучающей выборке образов каждого из двух классов.
Алгоритмы обучения
Данный алгоритм вносит изменения в вектор w только в тех случаях, когда рассматриваемый на к-ом шаге обработки обучающей последовательности объект классифицируется ошибочно. Корректирующий коэффициент с считается положительным и в данном случае постоянным. Такой алгоритм иногда называют правилом постоянного коэффициента коррекции.
Сходимость алгоритма наступает, когда обучающие выборки обоих классов целиком проходят через машину без единой ошибки. Алгоритм с постоянным коэффициентом коррекции сходится за конечное число шагов, если две используемые обучающие выборки являются линейно разделимыми.
Неразделимые классы
Метод обучения персептронов, известный как метод Уидроу-Хоффа или как дельта-правило наименьшего среднего квадрата, на каждом шаге обучения минимизирует ошибку между фактической и желаемой реакциями.