
- •37. Перцептрон и его математическая модель.
- •Математическая модель перцептрона.
- •38. Алгоритм обучения перцептрона
- •39. Сходимость алгоритма обучения перцептрона. Теорема Новикова.
- •Теорема Новикова.
- •40, 41 Итеративные процедуры распознавания на основе градиентных методов: минимизация одной функции, минимизация нескольких функций.
- •Решение задачи оро.
- •Сходимость процедуры.
- •Решение двух случаев.
- •42. Алгоритм обучения перцептрона как реализация специальной стратегии совместной минимизации нескольких функций с помощью градиентных методов.
- •43. Физическая интерпретация метода потенциальных функций
- •44. Кумулятивный потенциал. Алгоритм итеративного вычисления кумулятивного потенциала
- •45. Теоремы о сходимости обучения классификации методом потенциальных функций.
- •46. Достоинства и недостатки распознающих процедур перцептронного типа
- •47. Элементы задачи решения.
- •Байесовская теория решения.
- •48. Условный риск. Общий риск.
- •49. Постановка Байесовской задачи решения. Оптимальное решающее правило. Связь с задачей распознавания.
- •Типовая задача распознаванию образов.
- •50. Классификация с минимальной вероятностью ошибки.
- •Замечание.
- •51. Минимаксное решающее правило
- •Пусть теперь функция потерь неизвестна.
- •52. Процедура Неймана-Пирсона
- •Модель.
- •Процедура – экстремальная задача.
- •53. Схема доказательства оптимальности процедуры Неймана-Пирсмана
- •От противного.
- •Случай 2.
- •54. Обучение байесовской процедуры распознавания: оценка неизвестных параметров.
- •55. Оценка неизвестной плотности вероятности по априорной информации
- •56. Оценка неизвестной плотности вероятности с использованием экспериментальных данных.
- •57. Правило ближайшего соседа как пример непараметрического метода распознавания: оценка вероятности ошибки классификации. Правило ближайшего соседа.
- •58, 59 Мгуа
- •2.3. Понятие и виды опорных функций
- •Критерий регулярности.
- •Критерий несмещенности.
- •2.6. Критерии остановки мгуа
- •60. Достоинства и недостатки
- •61. Постановка задач лингвистического распознавания
- •62. Три способа решения задачи
- •Классификация на основе синтаксического анализатора:
- •63. Задача восстановления грамматики по обуч выборке
- •Теорема о разрешимости задачи для информаторного представления.
- •Теорема о неразрешимости для текстуального представления.
- •68. Два класса алг восст грамм
- •69. Алг Фельдмана
- •Часть 1.
- •Часть 2.
- •Часть 3.
- •70. Требование к вектору признаков
- •71. Среднеквадратичное расстояние в евкл простр
- •72. Преобр детерм вект призн, миним внутрикласс расст
- •73. Способы учета изменен межкласс расст при миним внутрикласс раст
Решение двух случаев.
Если имел место случай 2 (с функцией ), то тогда, начав с некоторой точки и применяя алгоритм градиентного спуска для функции , мы попадаем через некоторое количество шагов в окрестность точки . Таким образом, поставленная задача будет решена.
Если имел
место случай 1, то тогда мы должны
определить стратегию применения метода
градиентного спуска к функциям
такую, чтобы она обеспечивала отыскание
общей точки минимума.
Искомая стратегия такова:
На первом шаге мы
применяем один шаг алгоритма градиентного
спуска в точке
для функции
.
Полученное значение есть
.
На втором шаге мы
применяем один шаг алгоритма градиентного
спуска в точке
для функции
,
не выходя за пределы окрестности
.
Полученное значение есть
.
…
На
шаге мы применяем один шаг алгоритма
градиентного спуска в точке
для функции
,
не выходя за пределы окрестности
.
Полученное значение есть
(переобозначим и начнём сначала).
Иначе, можно записать стратегию так:
Выполняется один шаг алгоритма градиентного спуска в точке для функции . Результат выполнения –
.
Выполняется один шаг алгоритма градиентного спуска в точке для функции . Результат выполнения –
.
Выполняется один шаг алгоритма градиентного спуска в точке
для функции . Результат выполнения –
.
Выполняется один шаг алгоритма градиентного спуска в точке для функции . Результат выполнения –
.
Выполняется один шаг алгоритма градиентного спуска в точке
для функции
. Результат выполнения – .
Процесс останавливается, когда при прохождении всей последовательности функций значения вектора не меняются.
Отметим, что применение такой стратегии не гарантирует успех, даже если общая точка минимума функций существует.
Однако, для некоторых классов функций эта стратегия оказывается успешной.
42. Алгоритм обучения перцептрона как реализация специальной стратегии совместной минимизации нескольких функций с помощью градиентных методов.
Отметим, что применение такой стратегии (см. 40, 41)не гарантирует успех, даже если общая точка минимума функций существует.
Однако, для некоторых классов функций эта стратегия оказывается успешной. Покажем, что успехом применения такой стратегии является алгоритм обучения перцептрона (успех доказывается теоремой Новикова).
Укажем соответствия с введенными здесь обозначениями:
Для случая
с преобразованной обучающей
последовательностью
:
.
Функции
имеют следующий вид:
.
Отметим,
что все эти функции неотрицательны:
.
Отметим
также, что для любого
любая такая функции имеет единственный
минимум, равный
,
при
.
Напишем один шаг алгоритма градиентного спуска при фиксированном значении .
Тогда мы получаем знакомое правило на шаге:
Отметим,
что
.
Тогда конечный алгоритм запишется так:
При
начальных параметрах
мы получаем алгоритм обучения перцептрона.
Сходимость этого алгоритма гарантируется
теоремой Новикова.
43. Физическая интерпретация метода потенциальных функций
При построении систем классификации образов аналитическими методами первоочередной задачей является определение решающих функции, которые порождают в пространстве образов границы, отделяющие образы, принадлежащие различным классам.
Предположим, что требуется разделить два непересекающихся образа w1 и w2. Это значит, что в пространстве изображений существует, по крайней мере, одна функция, которая полностью разделяет множества, соответствующие образам w1 и w2. Эта функция должна принимать положительные значения в точках, соответствующих объектам, принадлежащим образу V1, и отрицательные - в точках образа V2. В общем случае таких разделяющих функций может быть много, тем больше, чем компактней разделяемые множества. В процессе обучения требуется построить одну из этих функций, иногда в некотором смысле наилучшую.
Метод потенциальных функций связан со следующей процедурой. В процессе обучения с каждой точкой пространства изображений, соответствующей единичному объекту из обучающей последовательности, связывается функция K(x, xk), заданная на всем пространстве и зависящая от xk как от параметра. Такие функции называются потенциальными, так как они напоминают функции потенциала электрического поля вокруг точечного электрического заряда. Изменение потенциала электрического поля по мере удаления от заряда обратно пропорционально квадрату расстояния. Потенциал, таким образом, может служить мерой удаления точки от заряда. Когда поле образовано несколькими зарядами, потенциал в каждой точке этого поля равен сумме потенциалов, создаваемых в этой точке каждым из зарядов. Если заряды, образующие поле, расположены компактной группой, потенциал поля будет иметь наибольшее значение внутри группы зарядов и убывать по мере удаления от нее.
Можно считать, что кластер, образованный выборочными образами, принадлежащими классу w1, образует «плато», причем выборочные образы размещаются на вершинах некоторой группы холмов. Подобную геометрическую интерпретацию можно ввести и для образов класса w2. Эти два «плато» разделены «долиной», в которой, как считается, потенциал падает до нуля. На основе таких интуитивных доводов создан метод потенциальных функций, позволяющий при проведении классификации определять решающие функции.