- •Методы нейроинформатики
- •Фцп "интеграция"
- •Предисловие редактора
- •Моделирование данных при помощи кривыхдля восстановления пробелов в таблицах
- •660036, Красноярск-36, ивм со ран,
- •1. Общая схема метода
- •2. Итерационный метод главных компонент для данных с пропусками
- •3. Квазилинейные факторы и формулы Карлемана
- •4. Нейронный конвейер
- •Литература
- •Финитность и детерминированность простых программ для кинетической машины кирдина
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Понятие кинетической машины Кирдина
- •3. Модели выполнения программы
- •3.1. Последовательная модель
- •3.2. Параллельно-последовательная модель
- •3.3. Максимальная параллельно-последовательная модель
- •4. Программы, состоящие из одной команды
- •4.1. Распад
- •4.2. Синтез
- •4.3. Прямая замена
- •5. Заключение
- •ЛитературА
- •Алгоритмическая универсальность кинетической машины кирдина
- •660036, Красноярск-36, ивм со ран,
- •Литература
- •Погрешности нейронных сетей. Вычисление погрешностей весов синапсов
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Структура сети
- •3. Два базовых подхода к оценкам погрешности
- •4. Погрешности весов синапсов
- •5. Гарантированные интервальные оценки погрешностей весов синапсов
- •6. Среднеквадратические оценки погрешностей весов синапсов
- •7. Заключение
- •Литература
- •Нейросетевые методы обработки информации в задачах прогноза климатических характеристик и лесорастительных свойств ландшафтных зон
- •660036, Красноярск-36, ивм со ран,
- •Введение
- •1. Проблемы обработки таблиц экспериментальных данных
- •2. Искусственные нейронные сети
- •2.1. Элементы нейронных сетей
- •2.2. Архитектуры нейронных сетей
- •2.3. Решение задач нейронными сетями
- •2.4. Подача входных сигналов и снятие выходных сигналов сети
- •2.5. Обучение нейронных сетей
- •2.6. Вычисление градиента функции оценки по подстроечным параметрам сети
- •2.7. Факторы, влияющие на обучение нейронной сети
- •2.8. Упрощение нейронных сетей
- •2.9 Вычисление показателей значимости параметров и входных сигналов сети
- •3. Транспонированная задача регрессии
- •4. Применение нейросетевых технологий для обработки таблицы климатических данных
- •4.1. Заполнение пропусков в таблице климатических данных
- •4.2. Построение классификационной модели ландшафтных зон и секторов континентальности
- •4.2.1. Классификация ландшафтных зон Сибири
- •4.2.2. Идентификация лесных зон по континентальности
- •4.3. Прогнозирование возможного изменения ландшафтных зон и секторов континентальности
- •5. Заключение
- •Литература
- •Интуитивное предсказание нейросетями взаимоотношений в группе
- •660049, Красноярск, пр. Мира 82
- •1. Проблема оценки взаимоотношений
- •2. Общая задача экспериментов
- •3. Применяемые в экспериментах психологические методики
- •4. Эксперименты по предсказанию группового статуса
- •5. Нейросетевое исследование структуры опросника
- •6. Оценка оптимизации задачника нейросетью с позиций теории информации
- •7 Эксперименты по предсказанию парных взаимоотношений
- •Литература
- •Аппроксимация многомерных функций полутораслойным предиктором с произвольными преобразователями
- •660049, Красноярск, пр. Мира 82
- •1. Постановка проблемы
- •2. Аналитическое решение
- •3. Запись решения в идеологии нейросетей
- •4. Алгоритмическая часть
- •5. Оценка информационной емкости нейронной сети при помощи выборочной константы Липшица
- •6. Соглашение о терминологии
- •7. Компоненты сети
- •8. Общий элемент сети
- •9. Вход сети
- •10. Выход сети
- •11. Синапс сети
- •12. Тривиальный сумматор
- •13. Нейрон
- •14. Поток сети
- •15. Скомпонованная полутораслойная поточная сеть
- •Литература
- •Использование нейросетевых технологий при решении аналитических задач в гис
- •660036, Красноярск-36, ивм со ран,
- •Литература
- •Использование нейросетевых технологий для проведения учебно-исследовательских работ
- •1. Введение
- •2. Зимняя Политехническая Школа по Нейроинформатике
- •3. Задачи
- •4. Результаты
- •5. Перспективы
- •Литература
- •Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Логически прозрачные нейронные сети
- •2.1. Архитектура логически прозрачных сетей
- •2.2. Критерии логической прозрачности нейронной сети
- •2.3. Требования к нелинейности элементов
- •3. Контрастирование нейронов
- •4. Приведение нейронных сетей к логически прозрачному виду
- •4.1. Наложение ограничений на архитектуру нейросети
- •4.2. Упрощение нейросети
- •4.3. Приведение настраиваемых параметров сети к предельным значениям и модификация нелинейных преобразователей нейронов
- •4.4. Проведение эквивалентных преобразований структуры нейросети
- •5. Вербализация нейронных сетей
- •6. Автоматическая генерация полуэмпирических теорий
- •7. Когнитологические аспекты
- •8. Влияние функции оценки на логическую прозрачность сети. Исключение примеров
- •9. Как выбирают американских президентов
- •10. Заключение
- •Литература
- •Содержание
4. Приведение нейронных сетей к логически прозрачному виду
Итак, имеется набор критериев, показывающих, как нужно модифицировать нейронную сеть для того, чтобы было проще прочитать сформированный сетью навык.
Нельзя сравнивать по степени логической прозрачности различные нейронные сети и нейросетевые архитектуры. Критерии логической прозрачности – это критерии простоты нейронной сети для простоты построения понятного пользователю описания процесса решения сетью задачи. Однако, может встретиться такая задача, где нейронная сеть, не имеющая логически прозрачной архитектуры, будет предпочтительнее (будет давать более понятное пользователю объяснение), чем сети, логически прозрачные по введенным критериям. Поэтому критерии логической прозрачности – это критерии получения потенциальноболее простого и понятного пользователю описания процесса решения сетью задачи. В связи с этим можно сравнивать по степени логической прозрачности только исходную нейронную сеть и все сети, порождаемые из исходной одношаговым упрощением. Критерии логической прозрачности дают нам просто наиболее оптимальные направления одношагового упрощения сети. Действительно, простое последовательное сокращение синапсов сети может дать в итоге сокращение и числа входных сигналов, и числа нейронов, но не гарантирует достижения максимально простого прочтения заложенного в сеть навыка.
Опишем приведение нейронной сети к логически прозрачному виду более формально.
4.1. Наложение ограничений на архитектуру нейросети
Имеются априорно задаваемые ограничения (слоистость, монотонность архитектуры, минимальность числа слоев), накладываемые на нейронную сеть. Эти ограничения нужно учесть на этапе создания нейронной сети.
Может быть, на этапе создания сети надо задавать большую избыточность сети, чем обычно (увеличивать число нейронов в слоях сети). Хоть это и удлиннит процесс упрощения сети, но все лишние элементы все равно в конце концов будут удалены из сети. Однако, здесь выше вероятность достижения логической прозрачности – ведь из малоизбыточной нейросети сложно сделать логически прозрачную и тут может потребоваться повторное обучение и упрощение новой, более избыточной сети.
Возможно, оптимальным вариантом станет введение некоторой процедуры “роста” сети – при невозможности достижения некоторого критерия (например, равномерной простоты сети) в нужный слой сети вводятся один-два нейрона, сеть дообучается и снова упрощается. Такой вариант не будет требовать большой начальной избыточности сети.
4.2. Упрощение нейросети
После обучения нейронной сети начинается процесс пошагового упрощения с подучиванием. На этом этапе возникает набор критериев – линейных шкал типа "лучше-хуже", задающих направления одношагового изменения архитектуры сети в сторону логической прозрачности. Эти критерии ранжированы пользователем по степени значимости. Следуя этим критериям, нейронная сеть приводится к максимально логически прозрачному виду.
Базовые критерии перечислены в разделе 1.2.
Возможно, по некоторым критериям не нужно упрощать сеть “до упора”, лучше оставить некоторый запас сигналов и элементов. Если же оставить минимальную сеть, то может увеличиться процент неправильных ответов на тестовой выборке. Если в дальнейшем предполагается доучивание логически прозрачной сети новым примерам, то такое упрощение сети“до упора” также снизит способность сети к дальнейшему освоению новых данных.
Таким образом, надо находить некоторый компромисс. Если нужно получить некоторый понятный полуэмпирический алгоритм решения задачи, то сеть нужно упрощать до максимально возможной простоты. А если необходима сеть с возможностями дальнейшей адаптации, то придется оставить в сети некоторое количество избыточных элементов и сигналов.