
- •Технология извлечения знаний из нейронных сетей: апробация, проектирование по, использование в психолингвистике
- •Глава 1. Проблема извлечения знаний и обзор методов извлечения знаний 6
- •Глава 2. Нейронные сети 18
- •Глава 3. Упрощение нейронной сети. 27
- •Глава 4. Методы извлечения знаний из искусственных нейронных сетей 41
- •Глава 5. Нейросетевой анализ структуры индивидуального пространства смыслов 60
- •Введение Цель работы
- •Основные задачи исследования
- •Основные результаты работы, полученные лично автором
- •Апробация работы
- •Публикации
- •Глава 1. Проблема извлечения знаний и обзор методов извлечения знаний
- •1.1 Знание и приобретение знаний
- •1.1.1 "Знание"
- •1.1.2. Приобретение знаний
- •1.2. Методы извлечения и приобретения знаний
- •1.2.1. Приобретение знаний, обучение и обобщение по примерам в теории классических экспертных систем
- •1.2.1.1. Трудности при разработке экспертных систем
- •1.2.2. Методы извлечения знаний из таблиц данных
- •1.2.2.1. Технология извлечения знаний из таблиц данных
- •1.2.2.2. Таблица эмпирических данных
- •1.2.2.3. Статистические методы извлечения знаний из таблицы данных
- •1.2.3. Методы идентификации систем
- •1.2.4. Другие методы обработки данных
- •1.3. Требования к технологии извлечения знаний
- •Глава 2. Нейронные сети
- •2.1. Коннекционизм
- •2.2. Элементы нейронных сетей
- •2.3. Основные архитектуры нейронных сетей
- •2.4. Обучение нейронных сетей как минимизация функции ошибки
- •Глава 3. Упрощение нейронной сети.
- •3.1. Что такое упрощение нейронной сети и зачем оно нужно
- •3.2. Задача извлечения знаний из нейронной сети
- •3.3. Методы упрощения нейронных сетей
- •3.3.1. Контрастирование синапсов нейросети
- •3.3.2. Контрастирование нейронов нейросети
- •3.3.3. Контрастирование входных сигналов нейросети
- •3.3.4. Бинаризация синапсов
- •3.3.5. Упрощение нелинейных преобразователей нейронов
- •3.3.6. Дополнительные модификации алгоритмов контрастирования
- •3.3.7. Методы модификации структуры обученной сети
- •3.4. Требования к процессу упрощения сети для извлечения знаний
- •3.5. Упрощающие операции над нейронной сетью
- •3.6. Процедура комплексного упрощения нейронной сети
- •Глава 4. Методы извлечения знаний из искусственных нейронных сетей
- •4.1. Существующие методы извлечения знаний из обученной нейросети
- •4.1.1. Методы на основе квантования сигналов сети
- •4.1.2. Методы извлечения знаний параллельно с обучением нейросети
- •4.1.3. Методы извлечения знаний из обученной нейросети
- •4.2. Методы извлечения знаний: требования к методам
- •4.3. Методология извлечения явных знаний, использующая технологию комплексного упрощения нейросети
- •4.4. Приемы повышения вербализуемости нейронной сети
- •4.4.1. Добавление синдрома в набор входных симптомов
- •4.4.2. Построение иерархии продукционных правил
- •4.4.3. Ручное конструирование сети из фрагментов нескольких логически прозрачных сетей
- •Глава 5. Нейросетевой анализ структуры индивидуального пространства смыслов
- •5.1. Семантический дифференциал
- •Литература
- •Публикации автора по теме диплома
- •Приложение 1. Плакаты для защиты диплома.
- •Цель работы
- •Основные задачи работы
- •Нейроны, сети, обучение
- •Методы (алгоритмы) обратного распространения
- •Задача извлечения знаний из нейронной сети
- •Значимость и упрощение
- •Критерии логической прозрачности
- •Метод семантического дифференциала
- •Гипотеза осгуда –
- •Все существенные свойства понятия определяются на основании небольшого числа базисных свойств
- •Основной базис Осгуда:
- •Отличие наших результатов
- •Координаты и особые точки индивидуальных смысловых пространств
- •Основные результаты работы, полученные лично автором
- •Приложение 2. Статья: Горбань п.А. Нейросетевой анализ структуры индивидуального пространства смыслов. "Нейрокомпьютеры": разработка, применение. 2002, No 4. С. 14-19.
- •Литература
4.1.2. Методы извлечения знаний параллельно с обучением нейросети
Отдельные методы опираются на процесс обучения нейросети.
В [64] исследуется возможность применения "структурного обучения" и его модификаций [28-33] не только как метода контрастирования синапсов, но и как метода извлечения знаний. Подчеркивается необходимость упрощения сети для получения более компактного и понятного набора правил. Предложено построение иерархии правил – выделение сначала доминантных правил, а затем дополнений и исключений из правил (или, другими словами, правил, определяющих основные зависимости, и правил, которые уточняют детали). Процесс – установка сравнительно большого значения величины параметра регуляризации и обучение сети до получения простой структуры, запись правил (наиболее доминантных) по полученной сети, фиксация и выведение из обучения полученной структуры сети (ненулевых весов синапсов), уменьшение значения параметра регуляризации, обучение сети (чтобы достигнуть большей точности решения, некоторые ранее отконтрастированные синапсы получат ненулевые веса и сформируют иерархию правил уровнем ниже), и запись дополнительно сформированных менее доминантных правил и т.д. до тех пор, пока суммарный набор правил (именно набор правил, а не нейросеть) не будет работать на обучающей/тестовой выборке с заданной точностью.
Однако процесс выбора начального значения параметра регуляризации и стратегии его уменьшения неоднозначен. Вдобавок, используемая в [64] оценка МНК может приводить к избыточной сложности набора правил для сетей-классификаторов. Также не обсуждается механизм собственно записи правил (тестовый пример в [64] работал с булевыми входными переменными) обсуждается только механизм упрощения сети для формирования структуры правил, отранжированных по шкале общности (доминирования) – детализации.
Как доработку метода можно предложить построение графика зависимости точности решения примеров обучающей выборки от числа элементов в сети или числа правил, порождаемых по сети (эти величины, в свою очередь, зависят от величины параметра регуляризации). Вероятнее всего, на графике будут наблюдаться несколько скачкообразных изменений точности распознавания – см., например, пример в [60]. Представляется, что, при формировании иерархии правил, "естественной" будет иерархия, соответствующая наблюдаемым скачкообразным изменениям точности.
В [65] рассматривается метод, формирующий правила параллельно с обучением сети. Если текущий прогноз сети правилен, то в набор правил вводится правило, обеспечивающее такой же ответ на данной ситуации, и делается попытка переформулирования некоторых имеющихся и добавляемого правил – например, путем объединения нескольких частных правил в одно более универсальное правило. Если ответ сети неверен, то набор правил модифицируется для недопущения ошибки. Т.е. правила формируются не по нейронной сети, а на основании обучающей выборки. По сравнению с извлечением знаний после обучения сети, такой подход формирует более "сырой" и "рыхлый" набор правил и может оставлять рудиментарные правила. Но для ситуаций, когда необходимо формирование знаний в режиме on-line (когда невозможно заранее сформировать обучающую выборку), такая идея достаточно перспективна для дальнейшего развития.