
- •Предисловие.
- •1. Основные задачи искусственного интеллекта.
- •1.1. История развития систем искусственного интеллекта.
- •1.2. Обзор основных направлений в области искусственного интеллекта
- •1.3. Решение задач и искусственный интеллект
- •1.3.1. Графовое представление задачи в пространстве состояний.
- •1.3.2. Стратегии поиска в пространстве состояний
- •2. Проблемная область искусственного интеллекта
- •2.1. Представление знаний
- •2.2 Модели представления знаний
- •2.2.1. Семантические сети
- •2.2.2. Фреймы
- •2.2.3. Формальные логические модели
- •2.2.4. Продукционная модель
- •2.2.5. Вывод на знаниях
- •3. Сильные методы решения задач. Экспертные системы
- •3.1. Структура экспертных систем
- •3.2. Классификация экспертных систем
- •3.3. Отличие эс от других программных продуктов
- •3.4. Цикл работы экспертных систем
- •3.5. Технология проектирования и разработки экспертных систем
- •4. Принятие решений в условиях неопределенности
- •4.1. Нечеткая логика
- •4.1.1. Нечеткие множества
- •4.1.2. Более строгое представление о нечетких множествах
- •4.1.3. Основные характеристики нечетких множеств
- •4.1.4. Примеры нечетких множеств и их характеристик
- •4.1.5. Операции над нечеткими множествами
- •4.1.6. Четкое множество α-уровня (или уровня α)
- •4.1.7. Нечеткая и лингвистическая переменные
- •4.1.8. Нечеткие числа
- •5. Машинное обучение на основе нейронных сетей
- •5.1. Биологический нейрон и его математическая модель
- •5.1.1. Биологический нейрон
- •5.1.2. Искусственный нейрон
- •5.2. Нейросети
- •5.2.1. Классификация и свойства нейросетей
- •5.2.2. Обучение искусственных нейронных сетей
- •5.3. Теорема Колмогорова
- •5.4. Персептрон
- •5.4.1. Алгоритм обучения персептрона
- •5.4.2. Линейная разделимость и персептронная представляемость
- •Логическая функция
- •Входы и выходы нейронов сети,
- •5.5. Сеть обратного распространения
- •5.5.1. Алгоритм обучения сети обратного распространения
- •5.6. Сеть встречного распространения
- •5.6.1. Сеть Кохонена. Классификация образов
- •5.6.2. Алгоритм обучения сети Кохонена
- •5. 6.3. Нейроны Гроссберга. Входные и выходные звезды
- •5.6.4. О бучение входной звезды
- •5.6.5. Обучение выходной звезды
- •5.6.6. Двухслойная сеть встречного распространения
- •5.6.7. Алгоритм обучения сети встречного распространения
- •5.7. Стохастические сети
- •5.7.1. Обучение Больцмана
- •5.7.2. Обучение Коши
- •5.8. Сети с обратными связями
- •5.8.1. Сеть Хопфилда
- •5.8.2. Правило обучения Хебба
- •5.8.3. Процедура ортогонализации образов
- •5.9. Сеть дап (двунаправленная ассоциативная память)
- •5.10. Сеть арт (адаптивная резонансная теория)
- •5.10.1. Алгоритм функционирования сети арт-1
- •Список иллюстраций
5.4.2. Линейная разделимость и персептронная представляемость
Каждый нейрон персептрона является формальным пороговым элементом, принимающим единичные значения в случае, если суммарный взвешенный вход больше некоторого порогового значения:
Таким
образом, при заданных значениях весов
и порогов, нейрон имеет определенное
выходное значение для каждого возможного
вектора входов.
Множество входных векторов, при которых
нейрон активен
отделено от множества векторов, на
которых нейрон пассивен
гиперплоскостью,
уравнение
которой
Рис. 6.8.
Белые точки не могут быть отделены
одной прямой от черных
С
Таблица 5.2.
XOR
Y
0 1 0 1
0 0 1 1
0 1 1 0
Логическая функция
а
множества векторов входов, для которых
имеется
гиперплоскость, отсекающая одно
множество от другого. Такие множества
называют линейно разделимыми.
Проиллюстрируем это понятие на примере.
Рассмотрим
однослойный персептрон, состоящий из
одного нейрона с двумя входами. Входной
вектор содержит
только две булевы компоненты
и
определяющие
плоскость. На данной плоскости возможные
значения входных векторов отвечают
вершинам единичного
квадрата. В каждой вершине зададим
требуемое
значение выхода нейрона: 1 (на рис. 6.8 —
белая точка)
или 0 (черная точка). Требуется определить,
существует ли такой набор весов и
порогов нейрона, при котором нейрон
сможет получить эти значения
выходов? На рис. 6.8 представлена одна
из ситуаций,
когда этого сделать нельзя вследствие
линейной
неразделимости множеств белых и черных
точек.
Требуемые выходы нейрона для этого рисунка определяются табл. 5.2, в которой легко узнать задание логической функции «исключающее ИЛИ» (XOR).
Невозможность реализации однослойным персептроном этой функции получила название проблемы исключающего ИЛИ. Видно, что однослойный персептрон крайне ограничен в своих возможностях точно представить наперед заданную логическую функцию.
Хотя
данный пример нагляден, он не является
серьезным ограничением для
нейросетей. Функция XOR
легко реализуется простейшей двухслойной
сетью,
причем многими способами. Один из
примеров такой сети показан на
рис. 6.9. Весовые коэффициенты первого
слоя все равны единице, весовые
коэффициенты второго слоя
,
соответственно равны 1 и -1, пороговые
значения каждого нейрона указаны на
рисунке. Значения на входах
и выходах нейронов сети приведены в
табл. 6.3:
- значение,
поступающее на вход первого нейрона
первого слоя,
- вход второго
нейрона первого слоя;
—
выходы
соответствующих нейронов первого
слоя; S
—
входное
значение нейрона второго слоя; Y
— выход сети.
Рис. 6.9. Двухслойная сеть, реализующая функцию XOR