Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

MRO(1) / 2011-2012_MRO_ВопросыЭкзамена

.rtf
Скачиваний:
6
Добавлен:
16.03.2015
Размер:
108.97 Кб
Скачать

ВОПРОСЫ

к экзамену по курсу "Методы распознавания образов"

ВОПРОСЫ по материалу осеннего семестра

  1. Постановка задачи распознавания образов. Классификация систем распознавания.

  2. Общее описание и качество классификатора. Риск и вероятность ошибочной классификации.

  3. Байесовский классификатор.

  4. Минимаксный классификатор.

  5. Классификатор Неймана-Пирсона.

  6. Байесовский классификатор для гауссовских векторов признаков. Расстояние Махаланобиса.

  7. Вычисление вероятностей ошибочной классификации в гауссовском случае для равных ковариационных матриц.

  8. Вычисление вероятностей ошибочной классификации для независимых признаков (случай n-большое, ЦПТ).

  9. Вычисление вероятностей ошибочной классификации для независимых признаков (случай n-мало, характ. функции).

  10. Вычисление вероятностей ошибочной классификации в гауссовском случае для неравных ковариационных матриц для 2-х классов (признаки зависимы).

  11. Байесовский классификатор для дискретных признаков – общий случай.

  12. Байесовский классификатор для дискретных независимых признаков.

  13. Байесовский классификатор для бинарных независимых признаков.

  14. Вычисление вероятностей ошибочной классификации для дискретного вектора признаков: общий случай и случай независимых бинарных признаков. Соотношения для границ вероятностей.

  15. Линейные классификаторы. Линейная разделяющая функция, минимизирующая вероятность ошибки.

  16. Линейная разделяющая функция, максимизирующая критерий Фишера.

  17. Обучаемые линейные классификаторы. Линейная разделяющая функция, минимизирующая среднеквадратическую ошибку решения.

  18. Модификации критерия минимальной среднеквадратической ошибки. Процедуры Хо-Кэшьяпа.

  19. Кусочно-линейные классификаторы. Обобщенные линейные разделяющие функции.

  20. Последовательная процедура обучения линейного классификатора. Алгоритм перцептрона для двух классов и его сходимость.

  21. Обобщение алгоритма перцептрона на случай многих классов.

  22. Стохастическая аппроксимация. Процедура Роббинса-Монро.

  23. Сходимость алгоритма Роббинса-Монро и методы ее ускорения.

  24. Общая схема построения линейных классификаторов, основанная на методе стохастической аппроксимации.

  25. Алгоритм корректирующих приращений.

  26. Последовательный алгоритм наименьшей среднеквадратической ошибки.

  27. Построение классификаторов, основанных на параметрическом оценивании плотности вероятностей.

  28. Непараметрическое оценивание плотности вероятностей. Оценка Парзена в одномерном случае и ее свойства.

  29. Оценка Парзена многомерной плотности вероятностей и ее свойства.

  30. Метод К ближайших соседей. Решающее правило ближайшего соседа и его эффективность для двух классов.

  31. Решающее правило K ближайших соседей и его эффективность для двух классов.

  32. Решающее правило, основанное на методе К ближайших соседей для многих классов и его эффективность.

  33. Непараметрическое оценивание плотности вероятностей. Метод гистограмм

  34. Разложение плотности вероятностей по базисным функциям. Построение систем ортонормированных функций многих переменных.

  35. Автоматическая классификация. Понятие кластера и простейший алгоритм выявления кластеров.

  36. Автоматическая классификация. Алгоритм максиминного расстояния для выявления кластеров. Алгоритм К внутригрупповых средних.

  37. Автоматическая классификация. Алгоритм ИЗОМАД (IsoData).

ВОПРОСЫ по материалу весеннего семестра

  1. П.к.о.в – общие сведения, замечания, пример для 2-х классов и вывод соотношений для останавливающих границ.

  2. П.к.о.в – общие сведения, вывод среднего числа наблюдений.

  3. Модифицированный п.к.о.в., частный случай для останавливающих границ. Среднее число наблюдений в модифицированном п.к.о.в.

  4. Модифицированный п.к.о.в., частный случай для останавливающих границ. Связь модифицированного п.к.о.в. и обычного п.к.о.в.

  5. П.к.о.в. и модифицированный п.к.о.в. для случая многих классов.

  6. Байесовская последовательная решающая процедура. Постановка задачи.

  7. Байесовская последовательная решающая процедура – обратная процедура конечного последовательного распознавания (без упорядочивания).

  8. Байесовская последовательная решающая процедура – пример расчета для процедуры конечного последовательного распознавания (без упорядочивания).

  9. Байесовская последовательная решающая процедура – обратная процедура конечного последовательного распознавания с упорядочиванием признаков. Пример.

  10. Байесовская последовательная решающая процедура – обратная процедура конечного последовательного распознавания с упорядочиванием признаков. Общее описание, подходы к упрощению и квазиоптимальные решения.

  11. Выбор признаков в случае одного распределения. Критерий минимума СКО и дискретное разложение Крунена-Лоэва (без доказательства утверждения о минимуме СКО). Процедура выбора.

  12. Выбор признаков в случае одного распределения. Критерий максимума разброса. Процедура выбора.

  13. Выбор признаков в случае одного распределения. Критерий максимума энтропии совокупности данных. Процедура выбора.

  14. Дискретное разложение Крунена-Лоэва и его свойства.

  15. Выбор признаков в случае двух распределений. Общие требования к показателям разделимости классов.

  16. Дискриминантный анализ. Общие определения, критерии разделимости и их свойства.

  17. Дискриминантный анализ. Выбор признаков, максимизирующих критерий J1. Процедура выбора.

  18. Дискриминантный анализ. Выбор признаков, максимизирующих критерий J2. Процедура выбора.

  19. Дискриминантный анализ. Выбор признаков, максимизирующих критерий J3. Процедура выбора.

  20. Дискриминантный анализ. Выбор признаков, максимизирующих критерий J4. Процедура выбора.

  21. Выбор признаков в случае двух распределений. Критерии, связанные с вероятностями ошибки: граница Чернова и расстояние Бхатачария.

  22. Выбор признаков в случае двух распределений. Дивергенция.

  23. Класс алгоритмов АВО. Конкретизация модели АВО. О синтезе алгоритмов, оптимальных в классе АВО. Достоинства и недостатки АВО.

  24. Класс алгоритмов АВО. Конкретизация модели АВО на примере синтеза алгоритма класса АВО. Пример построения АВО, имитирующего классификатор по ближайшему соседу.

  25. Алгебра алгоритмов распознавания Ю.И.Журавлева. Линейный и алгебраические замыкания.

  26. Алгебра алгоритмов распознавания Ю.И.Журавлева. Функциональные замыкания.

  27. Синтаксические методы распознавания. Введение, грамматики и языки. Вывод грамматики.

  28. Синтаксические методы распознавания. Деревья вывода, деревья решений, распознавание и способы разбора.

  29. Нейронные сети. Введение в НС. Построение искусственной НС.

  30. Нейронные сети. Теоремы существования решения в рамках НС.

  31. Слоистые (многослойные) НС и методы их обучения. Процедура обратного распространения.

  32. Модели нейронных сетей. MaxNet. Рекуррентные сети как ассоциативные запоминающие устройства. Ассоциативная сеть Хопфилда.

  33. Модели нейронных сетей. Другие приложения сети Хопфилда: нахождение минимума многочлена, решение СЛАУ. Замечение об ИНС, реализующей ассоциативную память.

  34. Модели нейронных сетей. Cеть Хемминга.

  35. Модели нейронных сетей. Самоорганизующаяся сеть Кохонена.

  36. Конструирование НС для решения нормальной системы дифференциальных уравнений.

  37. Применение степенных рядов для конструирования нейронных сетей.

Доцент кафедры геоинформатики, д.ф.-м.н. Мясников В.В. 14 март 2012 г.