
- •37. Перцептрон и его математическая модель.
- •Математическая модель перцептрона.
- •38. Алгоритм обучения перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •Теорема Новикова.
- •40, 41 Итеративные процедуры распознавания на основе градиентных методов: минимизация одной функции, минимизация нескольких функций.
- •Решение задачи оро.
- •Сходимость процедуры.
- •Решение двух случаев.
- •42. Алгоритм обучения перцептрона как реализация специальной стратегии совместной минимизации нескольких функций с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных функций
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа
- •47. Элементы задачи решения.
- •Байесовская теория решения.
- •48. Условный риск. Общий риск.
- •49. Постановка Байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания.
- •Типовая задача распознаванию образов.
- •50. Классификация с минимальной вероятностью ошибки.
- •Замечание.
- •51. Минимаксное решающее правило
- •Пусть теперь функция потерь неизвестна.
- •52. Процедура Неймана-Пирсона
- •Модель.
- •Процедура – экстремальная задача.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсмана
- •От противного.
- •Случай 2.
- •54. Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57. Правило ближайшего соседа как пример непараметрического метода распознавания: оценка вероятности ошибки классификации. Правило ближайшего соседа.
- •58, 59 Мгуа
- •2.3. Понятие и виды опорных функций
- •Критерий регулярности.
- •Критерий несмещенности.
- •2.6. Критерии остановки мгуа
- •60. Достоинства и недостатки
- •61. Постановка задач лингвистического распознавания
- •62. Три способа решения задачи
- •Классификация на основе синтаксического анализатора:
- •63. Задача восстановления грамматики по обуч выборке
- •Теорема о разрешимости задачи для информаторного представления.
- •Теорема о неразрешимости для текстуального представления.
- •68. Два класса алг восст грамм
- •69. Алг Фельдмана
- •Часть 1.
- •Часть 2.
- •Часть 3.
- •70. Требование к вектору признаков
- •71. Среднеквадратичное расстояние в евкл простр
- •72. Преобр детерм вект призн, миним внутрикласс расст
- •73. Способы учета изменен межкласс расст при миним внутрикласс раст
45. Теоремы о сходимости обучения классификации методом потенциальных функций.
Теорема 1: (О
свойствах сходимости алгоритма.) Пусть
векторы образов
удовлетворяют в пространстве
образов следующим условиям:
Потенциальная функция
ограничена
для всех
Существует решающая функция, представимая в виде
такая что
где
Обучающая выборка образов обладает следующими статистическими свойствами:
а) в обучающей последовательности выборочные образы проявляются независимо
б) если на k-ом шаге алгоритма обучения
решающая функция
не обеспечивает правильной классификации
всех образов
, то с положительной вероятностью
будет представлен образ
, корректирующий ошибку.
Тогда с вероятностью 1 можно определить конечное число шагов , таких, что кумулятивный потенциал
Другими словами последовательная
оппроксимация решающей функции
с вероятностью 1 сходится к решающей
функции
за конечное число предъявленных образов
обучающей выборки.
Теорема 2: (О скорости сходимости алгоритма) Пусть
бесконечная обучающая
последовательность множества
, причем
и
.
Допустим, что потенциальная функция
ограничена при
,
и существует решающая функция, представимая
разложением
и удовлетворяющая условиям
.
Тогда существует целое число
не зависящее от
выбора обучающей последовательности
и такое, что при использовании описанных
алгоритмов число коррекций не превышает
величины
Теорема 3:
(Условия прекращения алгоритма.) Пусть
процесс обучения прекращается, если
после осуществления
коррекций неправильной классификации
при предъявлении
следующих выборочных образов никакие
коррекции больше не производятся.
Другими словами процесс обучения
прекращается после предъявления
выборочных образов, где
определяется выражением
Таким образом, общее
число предъявлений образов, необходимое
для прекращения работы алгоритма,
увеличивается на 1 после каждой коррекции
неправильной классификации. Задача
заключается в определении числа
контрольных выборочных образов
,
необходимых для обеспечения заданного
качества процедуры обучения. Обозначим
через
вероятность совершения ошибки после
предъявления системе
выборочных образов. Тогда для любых
и
вероятность того, что
,
будет больше, чем
,
если
46. Достоинства и недостатки распознающих процедур перцептронного типа
Достоинства итеративных процедур обучения распознаванию на основе градиентных методов:
Возможность обучения при некоторых условиях безошибочной классификации;
Пригодность для разных видов классифицирующих функций;
Обучающая последовательность является произвольной; главное, чтобы она охватывала все классы;
Результаты обучения классификации не зависят от начального строения перцептрона.
Достоинства итеративных процедур обучения распознаванию на основе градиентных методов:
Для обучения сложной классификации может потребоваться перцептрон с большим количеством элементов;
Время обучения (длина обучающей последовательности) может оказаться большим;
Очень трудно проверить условие сходимости алгоритмов обучения перцептрона типа сформулированных в теореме Новикова и других теоремах, поэтому практически возможности обучения зависят лишь от выделенных ресурсов.
Стохастический подход к распознаванию образов