
- •I. Основные понятия
- •1. Изображение объекта. Виды изображений.
- •2. Образ (класс).
- •II Простейшие методы распознавания (сравнение с эталоном)
- •Вопрос 10. Общая характеристика простейших методов распознавания.
- •11. Метод совмещения с эталоном.
- •12. Метод зондов
- •22. Эвристический алгоритм максиминного расстояния.
- •23. Алгоритм к внутригрупповых средних.
- •24. Алгоритм isodata.
- •25. Достоинства и недостатки алгоритмов обучения без учителя.
- •V. Применение алгебры высказываний для решения задач распознавания
- •26. Изображающие числа и базис.
- •27. Восстановление булевой функции по изображающему числу.
- •28. Зависимость и независимость булевых функций.
- •30. Отыскание решений логического уравнения.
- •31. Техника решения логических уравнений с помощью булевых матриц.
- •32. Две задачи о замене переменных в булевых функциях.
- •33. Прямая и обратная логические задачи распознавания.
- •34. Пример логической задачи распознавания
- •37. Перцептрон и его мат. Модель
- •Вопрос 35. Алгоритм вычисления оценок (аво).
- •Вопрос 36. Основные идеи, лежащие в основе аво.
- •38. Алгоритм обучение перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •40. Итеративные процедуры распознав. На основе градиентных методов: минимизация одной ф-ии.
- •41. Итеративные процедуры распознав. На основе градиентных методов: совместная минимизация нескольких ф-ий.
- •42. Алгоритм обучения перцептрона как реализация спец. Стратегии совместной минимизации нескольких ф-ий с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных ф-ий.
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала.
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа.
- •VIII Стохастический подход к распознаванию образов
- •47. Элементы задачи решения.
- •48. Условный риск. Общий риск.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсона.
- •54 Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации.
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57 Правило ближайшего соседа как пример непараметрического метода
- •58. Основы мгуа.
- •59. Применение мгуа для решения задачи ро
- •70. Требование к вектору признаков
70. Требование к вектору признаков
1) Не включать неопределенные для рассмотрения объекта признаки
2) Не включать признаки, имеющие одно значение для объектов разных классов
3) Не включать признаки, которые не могут быть вычислены или измерены
4) Не включать признаки, которые статистически или функционально зависимы
5) Желательно, чтобы признаки были такими, что они принимают близкие значения для объектов одного класса и сильно отличались для объектов разных классов
6) Желательно минимизировать размерность вектора.
71.Среднеквадратичные расстояния между различными типами объектов в евклидовом пространстве
-расстояние
м/у 2-мя точками
-среднеквадратичное
расстояние от Х до
-
среднеквадратичное внутримножественное
расстояние
-среднеквадратичное
расстояние м/у двумя множествами.
72. Преобразование детерминированного вектора признаков, минимизирующих внутри классовое расстояние.
Это линейное преобразование (w,a), удовл. трем условиям:
1)
2)
3) Wkn>=0, k=1,n
73. Способы учета изменения межклассовых расстояний при минимизации внутриклассовых расстояний
1) условие: внутриклассовое расстояние должно быть <=A, а межклассовое >=B
Но для такой задачи решения может не оказаться. Тогда второе условие можно ввести в задачу как четвертое.
2) Перейти от диагонально матрицы wnk к матрице общего вида.
74. Сравнение стохастических признаков на основе «апостериорных» вероятностей.
Зная УЗР СВ Xk можно ввести следующие области
1 - объединение интервалов, в котором отличен от 0 ровно 1 УЗР СВ Xk
…
m - объединение интервалов, в котором отличен от 0 ровно m (т.е. все) УЗР СВ Xk
Мера полезности:
,
xk>xn если M(yk)< M(yn)
75. Сравнение стохастических признаков на основе их условных математических ожиданий и условных дисперсий.
Пусть
- внутриклассовая
изменчивость Xj
Критерий:
1) xj>xk если Dj<Dk
2) Пусть DJ=
xj>xk если DJ>Dk
3)
,
xj>xk
если j<k