Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
1_1_001.docx
Скачиваний:
137
Добавлен:
17.09.2019
Размер:
1.4 Mб
Скачать

30. Структурные методы распознавания объектов изображений

При структурном подходе объекты описываются не множеством числовых значений признаков x , а структурой объекта.

Иерархия предполагает описание сложных объектов с помощью более простых подобъектов. Те, в свою очередь, могут быть описаны с помощью подобъектов следующего уровня и т.д. Этот подход основан на аналогии между структурой объектов и синтаксисом языков. Он приемлем тогда, когда простейшие подобъекты вычленять и распознавать легче, чем изображение (объект) в целом. Правила композиции простейших (непроизводных) элементов при описании объекта в целом называют грамматикой языка описания объектов. Распознавание объекта состоит в распознавании непроизводных его элементов и синтаксическом анализе (грамматическом разборе) "предложения", описывающего данный объект.

Преимущество лингвистического подхода проявляется в том случае, если удаётся большое количество сложных объектов представлять с помощью небольшого множества непроизводных элементов и грамматических правил.

Грамматика языка описания объектов формируется на этапе обучения на основе обучающей выборки. Теоретической базой данного подхода является теория формальных языков и лежащих в их основе порождающих грамматик.

42. Нейронные сети и распознавание изображений на основе нейронных сетей

Нейронные сети, нейроны – простейшие нелинейные вычислительные элементы, которые организованы в виде сетей, напоминающих предположительный способ соединения нейронов в мозге человека.

Мак-Каллока и Питтса предложили модель нейрона в виде двоичного порогового устройства, а в качестве основы для моделирования нейронных систем - стохастические алгоритмы, в которых происходят внезапные переходы нейронов из состояния 0 в состояние 1 и наоборот. В середине 50-х - начале 60-х годов Розенблаттом был создан новый класс так называемых обучающихся машин, что пробудило значительный интерес исследователей и инженеров к теории распознавания образов. Причиной большого интереса к таким машинам, названным персептронами, было построение математических доказательств того факта, что при обучении персептрона с помощью линейно разделимых обучающих выборок (т.е. выборок образов, для которых разделяющей поверхностью может быть гиперплоскость) сходимость к решению достигается за конечное число итеративных шагов.

Последующие попытки увеличить мощность машин, подобных персептрону, за счет рассмотрения нескольких слоев таких устройств.

Б олее поздние результаты в области разработки новых алгоритмов обучения для многослойных персептронов существенно изменили положение дел. Основной метод, который часто называют обобщенным дельта-правилом обучения посредством обратного распространения ошибки, предлагает эффективный способ обучения многослойных машин.

Персептрон для двух классов

В самой простой форме, при обучении персептрона строится линейная дискриминантная функция, осуществляющая дихотомию двух линейно разделимых обучающих выборок. Рис. схематически показывает модель персептрона в случае двух классов образов. Выходной сигнал (реакция) этого элементарного устройства базируется на взвешенной сумме его входных сигналов, имеющей вид:

Функцию, которая отображает результат суммирования в конечный выходной сигнал устройства, иногда называют активирующей функцией.

Если d(x) > 0, пороговое устройство устанавливает на выходе персептрона сигнал +1, указывающий, что объект x опознан как принадлежащий классу ω1; при d(x) < 0 на выходе устанавливается сигнал -1. Если d(x) = 0, то объект x лежит на разделяющей поверхности между двумя классами, что является условием неопределенности.

Выходной сигнал порогового устройства на рис. 9.8 (а) зависит от знака функции d(x). Вместо того чтобы исследовать знак всей функции, можно сравнивать член с суммой в правой части уравнения со свободным членом.

Главная задача всегда состоит в нахождении вектора w по данной обучающей выборке образов каждого из двух классов.

Алгоритмы обучения

Данный алгоритм вносит изменения в вектор w только в тех случаях, когда рассматриваемый на к-ом шаге обработки обучающей последовательности объект классифицируется ошибочно. Корректирующий коэффициент с считается положительным и в данном случае постоянным. Такой алгоритм иногда называют правилом постоянного коэффициента коррекции.

Сходимость алгоритма наступает, когда обучающие выборки обоих классов целиком проходят через машину без единой ошибки. Алгоритм с постоянным коэффициентом коррекции сходится за конечное число шагов, если две используемые обучающие выборки являются линейно разделимыми.

Неразделимые классы

Метод обучения персептронов, известный как метод Уидроу-Хоффа или как дельта-правило наименьшего среднего квадрата, на каждом шаге обучения минимизирует ошибку между фактической и желаемой реакциями.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]