Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
252212353-Voprosy-Dlya-Podgotovki-k-Ekzamenu.doc
Скачиваний:
32
Добавлен:
29.03.2016
Размер:
9.56 Mб
Скачать
  1. История развития теории искусственного интеллекта

  2. Априорный выбор оптимального математического обеспечения подсистем планирования действий интеллектуальных информационных агентов на основе регрессионного анализа

  3. Систематизация формализаций теории искусственного интеллекта

  4. Априорный выбор оптимального математического обеспечения подсистем планирования действий интеллектуальных информационных агентов на основе нейронных сетей

  5. Направления интеллектуализации систем и технологий

  6. Признаки классификации и виды нейросетевых моделей

В зависимости от топологии нейронные сети подразделяются на:

  1. одно- и многоуровневые (рис. 6, рис. 7);

  2. с обратными связями и без них.

INCLUDEPICTURE "http://www.uran.donetsk.ua/~masters/2005/kita/tkachenko/library/stuff01/img/pic06.gif" \* MERGEFORMATINET

Рисунок 6 – Структура однослойной сети прямого распространения

Таблица 1

Функции активации нейронов

INCLUDEPICTURE "http://www.uran.donetsk.ua/~masters/2005/kita/tkachenko/library/stuff01/img/pic05.gif" \* MERGEFORMATINET

INCLUDEPICTURE "http://www.uran.donetsk.ua/~masters/2005/kita/tkachenko/library/stuff01/img/pic09.gif" \* MERGEFORMATINET

Рисунок 7 – Обобщенная структура двухслойной нейронной сети (с одним скрытым слоем)

Связи между слоями могут иметь различную структуру.

В однолинейный сетях каждый нейрон нижнего слоя связан с одним нейроном верхнего слоя.

Если каждый нейрон нижнего слоя соединен с несколькими нейронами верхнего слоя, то получается пирамидоидальная сеть.

Воронкообразная схема предусматривает связь каждого узла верхнего слоя со всеми узлами нижнего уровня.

Чтобы решить конкретную задачу с помощью нейронной сети, нужно выбрать нужный тип соединений нейронов, определить вид передаточных функций элементов и подобрать весовые коэффициенты межнейронных связей.

Нейронные сети Кохонена

Нейронные сети Кохонена считаются отдельным классом нейронных сетей, основным элементом которых является слой Кохонена. Слой Кохонена состоит из адаптивных линейных сумматоров («линейных формальных нейронов»). Как правило, выходные сигналы слоя Кохонена обрабатываются по правилу «победитель забирает всё»: наибольший сигнал превращается в единичный, остальные обращаются в ноль.

По способам настройки входных весов сумматоров и по решаемым задачам различают много разновидностей сетей Кохонена. Наиболее известные из них:

  • Сети векторного квантования сигналов[, тесно связанные с простейшим базовым алгоритмом кластерного анализа (метод динамических ядер или K-средних);

  • Самоорганизующиеся карты Кохонена (Self-Organising Maps, SOM);

  • Сети векторного квантования, обучаемые с учителем (Learning Vector Quantization).

Слой Кохонена состоит из некоторого количества INCLUDEPICTURE "http://upload.wikimedia.org/math/7/b/8/7b8b965ad4bca0e41ab51de7b31363a1.png" \* MERGEFORMATINET параллельно действующих линейных элементов. Все они имеют одинаковое число входов INCLUDEPICTURE "http://upload.wikimedia.org/math/6/f/8/6f8f57715090da2632453988d9a1501b.png" \* MERGEFORMATINETи получают на свои входы один и тот же вектор входных сигналов INCLUDEPICTURE "http://upload.wikimedia.org/math/d/e/e/dee7e9c1adca72bf2a83ee182fc0b403.png" \* MERGEFORMATINET. На выходе INCLUDEPICTURE "http://upload.wikimedia.org/math/3/6/3/363b122c528f54df4a0446b6bab05515.png" \* MERGEFORMATINET-го линейного элемента получаем сигнал

INCLUDEPICTURE "http://upload.wikimedia.org/math/f/7/2/f723972add6b02c8f66c8e4188703b82.png" \* MERGEFORMATINET

где INCLUDEPICTURE "http://upload.wikimedia.org/math/e/b/2/eb2e1b859181594a32b6f9d853b6cc2c.png" \* MERGEFORMATINET — весовой коэффициент INCLUDEPICTURE "http://upload.wikimedia.org/math/8/6/5/865c0c0b4ab0e063e5caa3387c1a8741.png" \* MERGEFORMATINETго входа INCLUDEPICTURE "http://upload.wikimedia.org/math/3/6/3/363b122c528f54df4a0446b6bab05515.png" \* MERGEFORMATINETго нейрона, INCLUDEPICTURE "http://upload.wikimedia.org/math/0/4/c/04ceed9f4eaa1706785c2dd375492b02.png" \* MERGEFORMATINET— пороговый коэффициент.

После прохождения слоя линейных элементов сигналы посылаются на обработку по правилу «победитель забирает всё»: среди выходных сигналов INCLUDEPICTURE "http://upload.wikimedia.org/math/0/f/b/0fb734d9f37222c4626ec4c6c6490ea3.png" \* MERGEFORMATINET ищется максимальный; его номер INCLUDEPICTURE "http://upload.wikimedia.org/math/d/1/8/d18b17a66b61c87e464af986b0ac9e7e.png" \* MERGEFORMATINET. Окончательно, на выходе сигнал с номером INCLUDEPICTURE "http://upload.wikimedia.org/math/2/a/5/2a5dc49352022b4256a790c197e5b45d.png" \* MERGEFORMATINETравен единице, остальные — нулю. Если максимум одновременно достигается для нескольких INCLUDEPICTURE "http://upload.wikimedia.org/math/2/a/5/2a5dc49352022b4256a790c197e5b45d.png" \* MERGEFORMATINET, то либо принимают все соответствующие сигналы равными единице, либо только первый в списке (по соглашению). «Нейроны Кохонена можно воспринимать как набор электрических лампочек, так что для любого входного вектора загорается одна из них.»

Разработчиками теории искусственных нейронных сетей считаются Маккалон и Питтс.

Основные результаты теории нейронных сетей в начале её становления сводились к следующему:

  1. Модель нейрона в виде простейшего процессорного элемента, который вычисляет значение некоторой функции.

  2. Конструкция нейронной сети для выполнения логических и арифметических операций.

  3. Высказывалось предположение, что нейронная сеть способна обучаться, распознавать образы и обобщать полученную информацию.

Фрэнк Разенблатт (1958 г.) ввел понятие перцептрона – модели основного элемента нейронных сетей. Указанный исследователь ввёл возможность модификации межнейронных связей, что сделало нейронную сеть обучаемой. Первые перцептроны могли распознавать буквы алфавита.

Алгоритм обучения перцептрона включает следующие операции:

  1. Системе предъявляется эталонный образ;

  2. Если результат распознавания совпадает с заданным, то весовые коэффициенты не изменяются;

  3. Если нейронная сеть неправильно распознает результат, то весовым коэффициентам дается приращение в сторону повышения качества распознавания.

Однако перцептрон имеет ограниченные возможности, поскольку не всегда существует такая комбинация весовых коэффициентов, при которой заданное множество образов будет распознаваться правильно.

Причина в том, что однослойный перцептрон реализует линейную разделенную поверхность пространства эталона, вследствие чего происходит неверное распознавание, если модель не является сепарабельной.

Сепарабельность – свойство такого пространства, для бесконечного множества элементов которого может быть задан счетный скелет, центр которого обладает центром тяжести и вокруг которого группируются отдельные классы близких по параметрам элементов.

Пространство является нормированным и для него могут быть определены основные свойства нормированного пространства:

- метрика;

- сепарабельность;

- связность;

- конформность.

В метрическом пространстве каждой модели с уникальным набором координат соответствует свой уникальный вектор и единственная точка.

Малое изменение отдельных координат модели приводит к малым изменениям модели и к малым перемещениям точки.

Сепарабельность приводит к тому, что всё множество элементов пространства может быть разделено на отдельные подмножества моделей, похожих по определенным признакам.

Конформность означает, что объем, заданный некоторым множеством моделей в пространстве, может произвольным образом без разрывов деформироваться в целом или своими локальными частями.

Связность предполагает, что множество моделей пространства представляет собой единую унитарную структуру в случае односвязности либо в случае многосвязности, распадается по каким-то признакам на отдельные подмножества.

Для решения проблем предложены модели многослойных перцептронов (рис. 9), которые способны строить ломаную линию.