
- •Лекция 1. Общие сведения об интеллектуальных системах.
- •Лекция 2. Основные понятия нейробиологии. Нейроны. Нейронные сети.
- •Модель Маккаллока—Питтса
- •Другие модели.
- •Лекция 3. Конечные автоматы и нейронные сети.
- •Лекция 4. Машины Тьюринга.
- •Лекция 5. Рекурсивные множества и тезис Тьюринга. Идея эффективной процедуры.
- •Лекция 6. Регулярные и представимые события
- •Лекция 7. Нейронные сети. Методы обучения нейронных сетей
- •Обучение однослойного персептрона
- •Обучение многослойного персептрона
- •Обучение без учителя
- •Нейронные сети Хопфилда и Хэмминга
- •Лекция 8. Персептрон Розенблатта
- •Лекция 9. Теорема Новикова
- •Лекция 10. Постановка задач распознавания.
- •1. Принцип перечисления членов класса
- •2. Принцип общности свойств
- •3. Принцип кластеризации
- •1. Эвристические методы
- •2. Математические методы
- •3. Лингвистические (синтаксические) методы
- •Простая модель распознавания образов.
- •Лекция 11. Структура знания. Представление знаний об окружающей среде
- •Модель окружающей среды. Исходные понятия
- •Формальные и неформальные отношения.
- •Природа времени.
- •Лекция 12. Представление знаний и вывод на знаниях Данные и знания
- •Модели представления знаний
- •Вывод на знаниях
- •Нечеткие знания
- •Лекция 13. Введение в основы нечеткой логики
- •Лекция 14. Экспертные системы, базовые понятия
- •Лекция 15. Машинная эволюция
- •Лекция 16. Игровые программы.
- •Конец повторять
- •Лекция 17. Интеллектуальные системы в Интернет
- •Машины поиска.
- •Неспециализированные и специализированные поисковые агенты
- •Системы интеллектуальных поисковых агентов
- •Система marri
- •Оглавление.
Лекция 9. Теорема Новикова
Естественно, что
первый же вопрос, который возник при
изучении персептрона,— насколько
эффективен предложенный Розенблаттом
алгоритм построения разделяющей
гиперплоскости, т. е. всегда ли с помощью
этого алгоритма может быть построена
гиперплоскость, разделяющая два множества
векторов
и
.
Конечно, имеются в виду случаи, когда
такая гиперплоскость в принципе
существует.
В 1960 году американский
ученый А. Новиков показал, что если
последовательность, составленную из
всех элементов множеств
и
,
предъявить персептрону достаточное
число раз, то он, в конце концов, разделит
ее (конечно, если разделение с помощью
гиперплоскости в принципе возможно).
Это утверждение оказалось чрезвычайно
важным для развития теории обучающихся
программ. Использованные для его
доказательства понятия оказались
полезными и при установлении более
тонких свойств алгоритмов обучения.
Рассмотрим их подробнее.
Утверждение
Новикова относится к случаю, когда в
пространстве Y
существует гиперплоскость, проходящая
через начало координат и разделяющая
два множества векторов
и
,
т. е. когда существует такой вектор
,
что выполняются неравенства
|
(9.1) |
Здесь использовано обозначение
Рассмотрим множество
W,
состоящее из всех векторов
и
.
Тогда система неравенств (9.1) примет вид
.
Если обозначить
,
а
,
то условие
разделимости векторов
и
может быть формально выражено так:
.
Рис. 9.1.
Величине
может быть дана следующая геометрическая
интерпретация. Пусть, как на рис. 9.1,
множество векторов
обозначено крестиками, а множество
векторов
кружками.
Утверждение о том, что два множества
векторов разделимы гиперплоскостью,
проходящей через начало координат,
эквивалентно тому, что выпуклая оболочка
векторов
,
не содержит нуля или, что то же самое,
расстояние от начала координат до
выпуклой оболочки множестваW
отлично от нуля (Выпуклой
оболочкой множества называется
минимальное выпуклое множество,
содержащее эти элементы. В свою очередь
выпуклым множеством называется множество,
которое наряду с любыми двумя точками
содержит отрезок их соединяющий).
Величина
как раз и равна расстоянию от выпуклой
оболочки множестваW
до начала координат.
Особенность
алгоритма персептрона, состоящая в том,
что разделяющая гиперплоскость
проходит через начало координат, не
является серьезным ограничением при
построении произвольной разделяющей
гиперплоскости (в том числе и не проходящей
через начало координат). Если для
разделения классов необходима
гиперплоскость, не проходящая через
начало координат, то достаточно расширить
пространство Y,
добавив к векторам
и
,
еще одну координату и положить ее равной
1. Тогда нетрудно видеть, что в новом
пространстве множества разделимы
гиперплоскостью, проходящей через
начало координат. Итак, пусть расстояние
от начала координат до выпуклой
оболочки множестваW
отлично от нуля и равно
,
а расстояние от начала координат до
конца самого далекого вектора этого
множества равноD.
Тогда, как показал
Новиков, после многократного предъявления
обучающей последовательности,
составленной из элементов множеств
{у}
и {},
будет проведено не более
исправлений коэффициентов.
Докажем теорему Новикова в несколько более общей формулировке.
Теорема 9.1. Пусть
дана произвольная бесконечная ограниченная
по модулю последовательность векторов
,
принадлежащих множествам
и
.
Пусть существует гиперплоскость,
проходящая через начало координат и
разделяющая множества
и
,
т.е. существует единичный вектор
такой, что
для всех
,
для всех
и
,
Тогда при использовании персептронной процедуры построения разделяющей гиперплоскости с начальными вершинами элемента, равными нулю, число исправлений ошибок не превзойдет числа
.
Эта теорема
утверждает, что если существует
гиперплоскость, разделяющая множества
и
,
то персептрон после конечного числа
исправлений ошибок построит разделяющую
гиперплоскость.
Доказательство.
Рассмотрим
новую последовательность
,
которая отличается от исходной тем, что
векторы
,
принадлежащие
,
заменены на
.
Тогда как работа персептрона может быть
описана так. Обозначим через
вектор, координатами которого являются
весаR-элемента
после просмотра i
членов
последовательности.
Если очередной вектор опознается правильно, т.е.
,
то изменения настройки не происходит, т.е.
.
Если же произошла ошибка, т.е.
|
(9.2) |
производится исправление:
.
Начальный вектор
.
Оценим модуль
вектора
послеk
исправлений. Если в момент i+1
произошло исправление, то
.
Учитывая (9.2), а
также то обстоятельство, что
,
имеем
.
Таким образом, если к моменту t произошло k исправлений, то
|
(9.3) |
поскольку
.
Далее по условию
теоремы существует единичный вектор
такой, что для всехi
.
Оценим величину
(,
).
В начальный момент (
,
)=0.
Если в момент времениi+1
происходит
исправление, то
.
В противном случае
.
Таким образом, если к моменту t
произошло k
исправлений, то
|
(9.4) |
В силу неравентва Коши
и следовательно справедливо неравенство
|
(9.5) |
Сопоставляя (9.2) и
(9.4), убеждаемся, что эти неравенства
могут одновременно выполнятся только
при
.
Следовательно,
число исправление не превосходит ,
после чего все остальные члены
последовательности будут опознаваться
правильно. Теорема доказана.