
- •Информационные технологии управления
- •Лабораторная работа №1. Нейронные сети.
- •1. Цель работы
- •2. Общие сведения
- •3. Порядок выполнения работы
- •4. Содержание отчёта
- •5. Вопросы
- •6. Литература
- •Лабораторная работа №2. Деревья решений.
- •1. Цель работы
- •2. Общие сведения
- •3. Порядок выполнения работы
- •4. Содержание отчёта
- •5. Вопросы
- •6. Литература
- •Лабораторная работа №3. Карты Кохонена.
- •1. Цель работы
- •2. Общие сведения
- •3. Порядок выполнения работы
- •4. Содержание отчета
- •5. Вопросы
- •6. Литература
- •Лабораторная работа №4. Ассоциативные правила.
- •1. Цель работы
- •2. Общие сведения
- •3. Порядок выполнения
- •4. Содержание отчета
- •5. Вопросы
- •6. Литература
- •Информационные технологии управления: Методические рекомендации к лабораторным работам.
4. Содержание отчёта
Название и цель работы.
Исходные данные.
Параметры обучения нейросети.
Граф нейросети.
Форма «Что-если».
Таблица сопряжённости.
Интерпретация полученной модели.
5. Вопросы
1. Что такое нейронная сеть?
2. Какова структура нейронной сети?
3. Какие параметры задаются для обучения нейронной сети?
4. Что указывает на качество обучения сети?
6. Литература
Deductor Studio Руководство аналитика
Нечёткие гибридные системы. Теория и практика / Под ред. Н.Г. Ярушкиной –М.:ФИЗМАТЛИТ, 2007.
Лабораторная работа №2. Деревья решений.
1. Цель работы
Целью работы является ознакомление с обработкой данных при помощи построения дерева решений.
2. Общие сведения
Деревья решений (decision trees) являются одним из наиболее популярных подходов к решению задач добычи данных. Они создают иерархическую структуру классифицирующих правил типа «ЕСЛИ…ТО…» (if-then), имеющую вид дерева. Чтобы принять решение, к какому классу следует отнести некоторый объект или ситуацию, требуется ответить на вопросы, стоящие в узлах этого дерева, начиная с его корня. Вопросы имеют вид «значение параметра А больше В?». Если ответ положительный, осуществляется переход к правому узлу следующего уровня. Затем снова следует вопрос, связанный с соответствующим узлом и т. д. Приведенный пример иллюстрирует работу так называемых бинарных деревьев решений, в каждом узле которых ветвление производится по двум направлениям (т. е. на вопрос, заданный в узле, имеется только два варианта ответов, например, Да или Нет). Однако, в общем случае, ответов а, следовательно, ветвей, выходящих из узла, может быть больше.
Дерево решений состоит из узлов – где производится проверка условия, и листьев – конечных узлов дерева, указывающих на класс (узлов решения).
Область применения деревьев решений в настоящее время весьма широка, но все задачи, решаемые этим аппаратом, могут быть объединены в три класса.
1. Описание данных. Деревья решений позволяют хранить информацию о данных в компактной форме. Вместо громоздких массивов данных можно хранить дерево решений, которое содержит точное описание объектов.
2. Классификация. Деревья решений отлично справляются с задачами классификации, т.е. отнесения объектов к одному из заранее известных классов.
3. Регрессия. Если целевая переменная является непрерывной, деревья решений позволяют установить зависимость целевой переменной от независимых (входных) переменных.
Например, к этому классу относятся задачи численного прогнозирования (предсказания значений целевой переменной).
Подготовка обучающей выборки.
Для построения дерева решений готовится обучающая выборка так же, как это описано для нейросети. Разница заключается в том, что выходное поле для дерева решений может быть только одно и только дискретно.
Нормализация значений полей.
Для полей, подаваемых на входы и выход дерева решений, также задается нормализация. Можно задать либо линейную нормализацию, либо нормализацию уникальными значениями (описание в разделе по нейросети).
Настройка обучающей выборки.
Настройка обучающей выборки такая же, как для нейросети.
Обучение дерева решений.
Параметры обучения дерева решений следующие:
1. Минимальное количество примеров, при котором будет создан новый узел. Задается минимальное количество примеров, которое возможно в узле. Если примеров, которые попадают в данный узел, будет меньше заданного - узел считается листом (т.е. дальнейшее ветвление прекращается). Чем больше этот параметр, тем менее ветвистым получается дерево.
2. Строить дерево с более достоверными правилами в ущерб сложности. Включает специальный алгоритм, который, усложняя структуру дерева, увеличивает достоверность результатов классификации. При этом дерево получается, как правило, более ветвистым.
3. Уровень доверия, используемый при отсечении узлов дерева. Значение этого параметра задается в процентах и должно лежать в пределах от 0 до 100. Чем больше уровень доверия, тем более ветвистым получается дерево, и, соответственно, чем меньше уровень доверия, тем больше узлов будет отсечено при его построении.
Качество построенного дерева после обучения можно оценить по нескольким параметрам. Во-первых, это число распознанных примеров в обучающем и тестовом наборах данных. Чем выше это число, тем качественнее построенное дерево. Во-вторых, это количество узлов в дереве. При очень большом их числе дерево становится трудным для восприятия. Это также означает очень слабую зависимость выходного поля от входных полей. Каждое правило характеризуется поддержкой и достоверностью.
Поддержка – общее количество примеров классифицированных данным узлом дерева.
Достоверность – количество правильно классифицированных данным узлом примеров.