
- •1. Задача распознавания и её формальное описание. Проблема распознавания.
- •Обсуждение задачи опознавания.
- •Общая постановка задачи.
- •Язык распознавания образов.
- •Априорные предположения — это записанные специальным образом, накопленные знания специалистов.
- •3. Исходные данные для задачи распознавания
- •2 . Геометрическая интерпретация задачи распознавания.
- •4. Структура таблицы «объекты-свойства»
- •6. Анализ данных с целью выбора постановки задач и методы решения.
- •5. Прямые и косвенные свойства в задачах распознавания.
- •7. Основные этапы анализа данных.
- •8. Анализ расположения объектов в пространстве свойств с целью выбора алгоритма распознавания.
- •9. Этапы решения задач распознавания.
- •10. Классификация алгоритмов распознавания.
- •15. Задача разбиения образа на однородные группы.
- •12. Область применения алгоритма Дискриминантная функция.
- •11. Алгоритм распознавания «Дискриминатная функция».
- •13. Мера сходства и ее свойства.
- •14. Метрика и ее свойства.
- •16. Алгоритм «Гол n»
- •26. Шкалы измерения свойств.
- •17.Способы вычисления типичного представителя в алгоритме «Гол n»
- •18. Решающее правило в алгоритме «Гол n»
- •20. Условия применения алгоритма «Гол 1»
- •22. Исследования представительности мо
- •21. Различия между алгоритмами “Гол n” и «Гол 1»
- •19. Алгоритм распознавания «Гол 1»
- •23. Распознавание с отказами и без отказов
- •24. Алгоритм распознавание «Энтропия»
- •25. Решающее правило в алгоритме «Энтропия»
- •30. Общая схема постановки и решения задачи распознавания.
- •28. Алгоритм распознавания «Тесты».
- •27. Алгоритм распознавания «Кора 3»
- •32. Основные понятия системы массового обслуживания.
- •40. Постановка задачи оптимизации при нескольких критериях.
- •41. Математическая модель многокритериальной задачи.
- •29. Алгоритм распознавания «Направление опробования»
- •31. Принципы построения и функционирования сппр.
- •32. Основные понятия системы массового обслуживания.
- •47. Способ лексикографической оптимизации.
- •48. Построение обобщенного критерия в многокритериальной задаче.
- •45. Способ указания нижних границ критериев.
- •42. Отношение доминирования по Парето
- •38. Модель производственных поставок.
- •39. Модель поставок со скидкой.
- •43. Геометрическая интерпретация доминирования по Парето
- •52. Логическая модель представления знаний
- •Продукционная модель представления знаний
- •Фреймовая модель представления знаний
- •Модель семантических сетей
- •Классификация систем Business-to-business (b2b-систем)
- •61. Понятие логистической системы
- •Основные отличия знаний от данных
- •Классификация информационно-поисковых систем
- •Основные модели представлений знаний
40. Постановка задачи оптимизации при нескольких критериях.
Есть система и несколько показателей, которые нас интересуют.
Выпуск плеера.
Цена – max
Качество – max
Затраты – min и т.д.
Любой исход характеризуется несколькими критериями. Эффект несравнимости исходов: если 2 критерия (цена, качество) => и есть 2 исхода, которые несравнимы.
Ценностная неопределенность.
41. Математическая модель многокритериальной задачи.
(D, f1… fn), где D – множество возможных исходов, fj – функции, заданные на D. Значение fj(a) характеризует значение j-ого критерия на a из D. Критерий назыв. Позитивным, если хотим его max, и негативным, если на min. По умолчанию все критерии считаются позитивными.
Пусть yj – мно-во всех возможных знач. Функции fj, тогда мно-во y = П yj, называют мно-вом векторных оценок. Одна векторная
j=1
оценка y принадл. Y – это вектор из n компонентов (y1… yn)
a – исход
Качество исхода характ. векторной оценкой (f1(a)… fn(a)) – вектор оценки.
29. Алгоритм распознавания «Направление опробования»
Общие сведения
Данный алгоритм используется для выделения перспективной последовательности объектов в общей совокупности, в условиях отсутствия материала обучения. Материал обучения заменяется априорными предположениями, полученными на основе знаний экспертов. Исходя из априорных предположений в исходной совокупности выделяется индексированная группа полезных объектов. Проводится тестирование и необходимая коррекция, если результаты неудовлетворительны.
Возможные задачи: Выбор наиболее отличившихся сотрудников для поощрения.
Поиск отклонений(мутаций) в исследуемых объектах.
Поиск человека с самой типичной внешностью, чтобы использовать как шпиона.
Поиск иголки в стоге сена.
Исходные данные: Допустим, что в данном районе исследований имеется
совокупность N=npust+npol, объектов, причем npust- пустые объекты, а npol- полезные.
На
всей совокупности объектов N замерены
косвенные свойства
, из которых формируют ТОС.
Замечание. Поскольку в алгоритме нет материала обучения, то столбец прямых свойств будет пустым, подразумевается, что все объекты принадлежат одному классу.
Шаг1: Введем априорные предположения:
- Число пустых объектов много больше числа полезных объектов. npol << npust
-
Полезные в среднем мало похожи друг на
друга, пустые наоборот.
-
Полезные в среднем более похожи между
собой,чем полезные и пустые.
Шаг2: Таким же способом как и в алгоритме Голотип-1, строим матрицы мер сходства по каждому свойству и общую матрицу мер сходства по всем свойствам.
Шаг3: Выбираем порог и разбиваем объекты на компоненты связности. В качестве порогового выбираем среднюю или среднюю максимальную меру сходства.
Замечание! Полученный порог, необходимо скорректировать (вручную) так, чтобы разбиение на группы соответствовало априорным предположениям (особое внимание уделить количеству получаемых групп).
Шаг4:
Из полученных групп, в силу априорных
предположений,
npol
<< npust
отбираем
только те, в которых количество объектов
.
N=18,
n
<=2 - Останутся только группы, в которых
меньше 2-х объектов
Шаг5: Выделяем голотипы оставшихся групп.
Голотипом является объект, который в среднем более всего похож на остальные объекты данной группы. В группах из одного объекта голотипом будет этот объект.
Шаг6: Рассчитываем типичность голотипов.
Для этого, рассчитываем меры сходства голотипов между собой:
Для каждого голотипа рассчитываем среднюю меру сходства(типичность) по формуле
,
H
– количество
голотипов.
Шаг7:
Упорядочиваем
голотипы по возрастанию
типичности
К
примеру
По
возрастанию типичности голотипы можно
разбить на три типа: краевые,
центральные
и срединные.
При
этом краевыми
называются такие компоненты связности,
голотипы которых занимают первые
мест
в упорядоченной последовательности.
Иначе говоря, краевыми компонентами
связности являются самые удаленные
компоненты (самые нетипичные), центральными
компонентами связности являются
компоненты, голотипы которых занимают
последние t
мест в упорядоченной последовательности(самые
типичные), а срединными
компонентами связности являются такие
компоненты, голотипы которых занимают
остальные места в упорядоченной
последовательности (между типичными и
нетипичными).
Шаг8: Построение стратегии.
Нашим
априорным предположениям соответствует
1-я чистая стратегия.
Первая
чистая стратегия заключается в
рассмотрении самых нетипичных голотипов
(голотипов, отвечающих краевым
компонентам связности). В первую очередь
выбирается для опробования голотип с
минимальным коэффициентом типичности,
затем голотип, стоящий рядом с ним и
т. д.
Вторая
чистая стратегия заключается в
рассмотрении самых типичных голотипов.
В этом случае в первую очередь выбирается
для опробования голотип с максимальным
коэффициентом типичности, затем голотип,
стоящий рядом с ним в упорядоченной
последовательности и т. д.
Третья
чистая стратегия заключается в
рассмотрении голотипов, отвечающих
срединным компонентам связности. В этом
случае в первую очередь опробуется
голотип, типичность которого наиболее
близка к средней типичности между
голотипами. Затем голотип, стоящий по
типичности рядом с ним и т. д.
Смешанная
стратегия заключается в выборе голотипов
для опробования следующим образом. В
первую очередь выбирается самый
нетипичный голотип, затем самый типичный,
затем первый из срединных голотипов,
затем снова нетипичный и т. д.
Заключение:
данный
алгоритм, как и предыдущие является
настраиваемым.
Вы выбираете априорные предположения,
пороговую меру сходства, размерность
групп и стратегию. Изменяя настраиваемые
параметры вы можете приближаться к
нужному результату.