- •Охарактеризуйте основные теоретические проблемы искусственного интеллекта.
- •Назовите основные сферы приложения искусственного интеллекта и охарактеризуйте их.
- •3.Дайте определения понятиям "знание" и "данные" и укажите их различие
- •4.Назовите основные признаки знаний и дайте им определения.
- •5.Логическая модель представления знаний (предикатная функция).
- •6. Семантические сети.
- •7.Фреймы и их свойства
- •8. Продукционное правило (структура).
- •12. Основные компоненты системы продукций и связь между ними.
- •13.Стратегии управления в системах продукций
- •14.Определение предложения (клаузы)
- •16.Основные этапы тождественных преобразований исходной формулы во множество предложений (Клауз)
- •17.Унификация (основные правила)
- •Другими словами, помня, что
- •18.Система доказательств в системе опровержения на основе резолюции
- •19.Вычисление коэффициентов определенности посылок и заключений.
- •20. Вычисление коэффициентов определенности для заключений, поддерживаемых множеством правил.
- •Перемножив все компоненты этой формулы, мы увидим, что
- •21.Основные принципы дедукции на основе байесовского подхода
- •22.Учет нескольких признаков при расчете вероятности гипотезы
- •23. Для чего и как рассчитывается цена свидетельств?
- •25.Формулировка задачи обучения
- •26. Основные направления в области обучения.
- •27. Типы задач обучения на примерах.
- •28. Итеративный алгоритм обучения на примерах.
- •29. Адаптация, основные понятия и определения.
- •30. Параметрическая адаптация.
- •31.Поисковая адаптация.
- •32.Структура общего алгоритма адаптивного процесса.
- •33.Коллективная адаптация.
- •34.Распознавание образов основные понятия и определения.
- •35.Типы решаемых задач в распознавании образов.
- •36.Классификация основных методов, используемых при распознавании образов.
- •37.Гипотеза компактности.
- •38.Детерминированные методы распознавания образов.
- •39.Статистический метод распознавания.
- •40.Структурные (лингвистические) методы распознавания.
30. Параметрическая адаптация.
В случае параметрической адаптации в процесс поиска намеренно вводится элемент случайности в виде случайного шага, т.е. случайного изменения адаптируемых параметров Р:
P[N+1]=P[N]+P[N+1],
где приращение P[N+1] определяется алгоритмом поиска.[8]
Такой случайный шаг может быть удачным или неудачным. “Формула удачи” проста и очевидна: должны быть выполнены заданные ограничения и одновременно эффективность объекта должна увеличится по сравнению с предыдущим состоянием объекта адаптации, т.е. он должен стать “лучше”. А неудачу легко зафиксировать по нарушению хотя бы одного из ограничений или по ухудшению эффективности объекта.
На удачу и неудачу можно реагировать по-разному – этим и различаются алгоритмы поиска.
Рассмотрим алгоритм случайного поиска с линейной тактикой. После удачного шага следует его повторение, т.е. шаг в том же направлении (по принципу “повторяй удачные действия”). А при неудаче следует снова сделать новый случайный шаг. Рекуррентная форма записи этого алгоритма имеет вид:
Алгоритм случайного поиска с нелинейной тактикой моделирует метод проб и ошибок, когда неудачный случайный шаг исправляется, т.е. производится обратный шаг. Работоспособность алгоритма обеспечивается за счет того, что используются только удачные случайные шаги, а неудачные исправляются с помощью операции возврата.
Рекуррентная формула алгоритма имеет вид:
Процесс адаптации можно реализовать на основе следующей эвристики.
Вводится характеристика степени “удачливости” направления в зависимости от числа удач и неудач. Чем она больше, тем более “удачливо” направление. При случайном шаге направления выбираются с вероятностью, пропорциональной величине этой характеристики.
Случайный поиск, снабженный такой адаптацией вероятностных свойств, обладает, как правило, повышенным быстродействием.
31.Поисковая адаптация.
Поисковый алгоритм решения задачи оптимизации вообще или случайного поиска в частности представляет собой последовательную процедуру, имеющую рекуррентный характер.[25]
Это означает, что процесс поиска состоит из повторяющихся этапов, каждый из которых представляет собой переход от одного решения к другому, лучшему, что и образует процедуру последовательного улучшения решения.
X[0] X[1] … X[N] X[N+1] …
В этой последовательности каждое последующее решение, как правило, в определенном смысле лучше, предпочтительнее предыдущего, т.е. X[N+1] X[N], N=0,1,2,…
Здесь знак означает предпочтение. Каждое последующее решение получается из предыдущего с помощью некоторого алгоритма поиска А, который указывает какие операции необходимо сделать при X[N], чтобы получить более предпочтительное решение X[N+1]: X[N+1]=А (X[N])
В стандартном поисковом алгоритме оптимизации А на каждом этапе выполняются два главных шага. На первом шаге собирается информация о поведении функции качества в районе точки X[N].
На втором шаге принимается решение о выборе характера изменений (направления), т.е. как, насколько, и каким образом изменить S и P, чтобы перейти к более предпочтительному решению X[N+1]. Иногда эти шаги неразделимы, но они обязательно присутствуют.
Чаше всего процедура сбора информации сводится к заданию ряда случайных изменений Xi и определению значения показателя F в новых точках X[N]+Xi. Решение, которое принимается на базе этой информации, заключается в том, чтобы сделать шаг в направлении уменьшения функции F.