
- •37. Перцептрон и его математическая модель.
- •Математическая модель перцептрона.
- •38. Алгоритм обучения перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •Теорема Новикова.
- •40, 41 Итеративные процедуры распознавания на основе градиентных методов: минимизация одной функции, минимизация нескольких функций.
- •Решение задачи оро.
- •Сходимость процедуры.
- •Решение двух случаев.
- •42. Алгоритм обучения перцептрона как реализация специальной стратегии совместной минимизации нескольких функций с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных функций
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа
- •47. Элементы задачи решения.
- •Байесовская теория решения.
- •48. Условный риск. Общий риск.
- •49. Постановка Байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания.
- •Типовая задача распознаванию образов.
- •50. Классификация с минимальной вероятностью ошибки.
- •Замечание.
- •51. Минимаксное решающее правило
- •Пусть теперь функция потерь неизвестна.
- •52. Процедура Неймана-Пирсона
- •Модель.
- •Процедура – экстремальная задача.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсмана
- •От противного.
- •Случай 2.
- •54. Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57. Правило ближайшего соседа как пример непараметрического метода распознавания: оценка вероятности ошибки классификации. Правило ближайшего соседа.
- •58, 59 Мгуа
- •2.3. Понятие и виды опорных функций
- •Критерий регулярности.
- •Критерий несмещенности.
- •2.6. Критерии остановки мгуа
- •60. Достоинства и недостатки
- •61. Постановка задач лингвистического распознавания
- •62. Три способа решения задачи
- •Классификация на основе синтаксического анализатора:
- •63. Задача восстановления грамматики по обуч выборке
- •Теорема о разрешимости задачи для информаторного представления.
- •Теорема о неразрешимости для текстуального представления.
- •68. Два класса алг восст грамм
- •69. Алг Фельдмана
- •Часть 1.
- •Часть 2.
- •Часть 3.
- •70. Требование к вектору признаков
- •71. Среднеквадратичное расстояние в евкл простр
- •72. Преобр детерм вект призн, миним внутрикласс расст
- •73. Способы учета изменен межкласс расст при миним внутрикласс раст
55. Оценка неизвестной плотности вероятности по априорной информации
Опыт – это осуществление некоторого комплекса условий, после которого имеет место некоторый исход. Опыт считается со случайным исходом, если неизвестно каков будет исход до непосредственного проведения опыта. Численная величина, измеряющая неопределенность опыта, называется энтропией и принято ее обозначать как H.
сформулировать и разъяснить принцип максимума энтропии, поставить задачу отыскания неизвестной плотности вероятности на основе этого принципа;
Принцип максимума энтропии утверждает, что если плотность распределения некоторой случайной величины неизвестна, то из логических соображений следует выбрать такую плотность распределения, которая обеспечивает максимизацию энтропии H случайной величины при учете всех известных ограничений.
|
|
|
Формула для энтропии совокупности
образов, где p(x |
)
– это плотность распределения случайной
величины x, а
–
указание принадлежности образа
определенному классу (дальше будем
обозначать просто p(x)):
Пусть априорная информация о случайной величине x задается в виде:
|
|
|
и
|
|
|
Постановка задачи: необходимо так
задать плотность распределения
,
чтобы величина энтропии при выполнении
ограничений (2) и (3), была максимальной.
Метод множителей Лагранжа – это
метод нахождения условного экстремума
функции f(x), где
,
относительно m ограничений
,
где
меняется от 1 до m.
Использование множителей Лагранжа
позволяет из (1) построить функцию
|
|
|
где
и
для
всех образов x.
Взяв частные производные от функции H1 по плотности распределения p(x), имеем
|
|
|
Приравняем подынтегральное выражение к нулю и выразим из этого уравнения p(x):
|
p(x)
= exp
|
|
Здесь множители Лагранжа следует выбирать так, чтобы они соответствовали априорной информации об образах x, содержащихся в ограничениях (2) и (3).
Исходя из полученного выражения, легко показать, что
если случайная величина отлична от нуля только в конечном интервале, следует выбирать равномерное распределение (см. примеры)
если случайная величина может принимать любое действительное значение, а единственными характеристиками считаются математическое ожидание и дисперсия, следует выбирать нормальное распределение(см. примеры)
56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
(экспериментальные==апостериорные? если нет то тогда это не то)
Пусть
– оценка плотности распределения
.
Нужно найти такую оценку, которая
обеспечила бы минимизацию среднеквадратичной
ошибки (интегрального квадратичного
показателя качества), определяемой как
|
|
|
где
– весовая функция. Воспользуемся
разложением
в ряд
|
|
|
где
- коэффициенты, подлежащие определению,
а
– множество заданных базисных функций.
После подстановки (8) в соотношение (7) получим
Требуется найти такие коэффициенты , которые обеспечат минимизацию интеграла вероятности ошибки .
дать общее решение задачи;
Необходимое условие
минимальности интеграла вероятности
ошибки
заключается в том, что
.
Взяв частную производную, получим
|
|
|
Правая часть
уравнения (9) по определению равна
математическому ожиданию функции
.
Математическое ожидание можно
аппроксимировать выборочным средним,
то есть
Подстановка этой аппроксимирующей оценки в уравнение (5) дает
|
|
|
Если
базисные функции
выбраны таким образом, что они ортогональны
весовой функции
,
то из определения ортогональности
следует, что
|
|
|
Подстановка (11) в уравнение (10) приводит к следующему соотношению, позволяющему вычислить искомые коэффициенты:
|
|
|
Если базисные
функции
ортонормированны,
то
для всех
.
Кроме того, поскольку члены
не зависят от
и, следовательно, для всех коэффициентов
одинаковы, то их можно исключить из
аппроксимирующего выражения без всякого
ущерба для классификационной мощности
коэффициентов. В таком случае
|
|
|
После того, как коэффициенты определены, с помощью формулы (4) формируется оценка плотности распределения .