- •Методы нейроинформатики
- •Фцп "интеграция"
- •Предисловие редактора
- •Моделирование данных при помощи кривыхдля восстановления пробелов в таблицах
- •660036, Красноярск-36, ивм со ран,
- •1. Общая схема метода
- •2. Итерационный метод главных компонент для данных с пропусками
- •3. Квазилинейные факторы и формулы Карлемана
- •4. Нейронный конвейер
- •Литература
- •Финитность и детерминированность простых программ для кинетической машины кирдина
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Понятие кинетической машины Кирдина
- •3. Модели выполнения программы
- •3.1. Последовательная модель
- •3.2. Параллельно-последовательная модель
- •3.3. Максимальная параллельно-последовательная модель
- •4. Программы, состоящие из одной команды
- •4.1. Распад
- •4.2. Синтез
- •4.3. Прямая замена
- •5. Заключение
- •ЛитературА
- •Алгоритмическая универсальность кинетической машины кирдина
- •660036, Красноярск-36, ивм со ран,
- •Литература
- •Погрешности нейронных сетей. Вычисление погрешностей весов синапсов
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Структура сети
- •3. Два базовых подхода к оценкам погрешности
- •4. Погрешности весов синапсов
- •5. Гарантированные интервальные оценки погрешностей весов синапсов
- •6. Среднеквадратические оценки погрешностей весов синапсов
- •7. Заключение
- •Литература
- •Нейросетевые методы обработки информации в задачах прогноза климатических характеристик и лесорастительных свойств ландшафтных зон
- •660036, Красноярск-36, ивм со ран,
- •Введение
- •1. Проблемы обработки таблиц экспериментальных данных
- •2. Искусственные нейронные сети
- •2.1. Элементы нейронных сетей
- •2.2. Архитектуры нейронных сетей
- •2.3. Решение задач нейронными сетями
- •2.4. Подача входных сигналов и снятие выходных сигналов сети
- •2.5. Обучение нейронных сетей
- •2.6. Вычисление градиента функции оценки по подстроечным параметрам сети
- •2.7. Факторы, влияющие на обучение нейронной сети
- •2.8. Упрощение нейронных сетей
- •2.9 Вычисление показателей значимости параметров и входных сигналов сети
- •3. Транспонированная задача регрессии
- •4. Применение нейросетевых технологий для обработки таблицы климатических данных
- •4.1. Заполнение пропусков в таблице климатических данных
- •4.2. Построение классификационной модели ландшафтных зон и секторов континентальности
- •4.2.1. Классификация ландшафтных зон Сибири
- •4.2.2. Идентификация лесных зон по континентальности
- •4.3. Прогнозирование возможного изменения ландшафтных зон и секторов континентальности
- •5. Заключение
- •Литература
- •Интуитивное предсказание нейросетями взаимоотношений в группе
- •660049, Красноярск, пр. Мира 82
- •1. Проблема оценки взаимоотношений
- •2. Общая задача экспериментов
- •3. Применяемые в экспериментах психологические методики
- •4. Эксперименты по предсказанию группового статуса
- •5. Нейросетевое исследование структуры опросника
- •6. Оценка оптимизации задачника нейросетью с позиций теории информации
- •7 Эксперименты по предсказанию парных взаимоотношений
- •Литература
- •Аппроксимация многомерных функций полутораслойным предиктором с произвольными преобразователями
- •660049, Красноярск, пр. Мира 82
- •1. Постановка проблемы
- •2. Аналитическое решение
- •3. Запись решения в идеологии нейросетей
- •4. Алгоритмическая часть
- •5. Оценка информационной емкости нейронной сети при помощи выборочной константы Липшица
- •6. Соглашение о терминологии
- •7. Компоненты сети
- •8. Общий элемент сети
- •9. Вход сети
- •10. Выход сети
- •11. Синапс сети
- •12. Тривиальный сумматор
- •13. Нейрон
- •14. Поток сети
- •15. Скомпонованная полутораслойная поточная сеть
- •Литература
- •Использование нейросетевых технологий при решении аналитических задач в гис
- •660036, Красноярск-36, ивм со ран,
- •Литература
- •Использование нейросетевых технологий для проведения учебно-исследовательских работ
- •1. Введение
- •2. Зимняя Политехническая Школа по Нейроинформатике
- •3. Задачи
- •4. Результаты
- •5. Перспективы
- •Литература
- •Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей
- •660036, Красноярск-36, ивм со ран,
- •1. Введение
- •2. Логически прозрачные нейронные сети
- •2.1. Архитектура логически прозрачных сетей
- •2.2. Критерии логической прозрачности нейронной сети
- •2.3. Требования к нелинейности элементов
- •3. Контрастирование нейронов
- •4. Приведение нейронных сетей к логически прозрачному виду
- •4.1. Наложение ограничений на архитектуру нейросети
- •4.2. Упрощение нейросети
- •4.3. Приведение настраиваемых параметров сети к предельным значениям и модификация нелинейных преобразователей нейронов
- •4.4. Проведение эквивалентных преобразований структуры нейросети
- •5. Вербализация нейронных сетей
- •6. Автоматическая генерация полуэмпирических теорий
- •7. Когнитологические аспекты
- •8. Влияние функции оценки на логическую прозрачность сети. Исключение примеров
- •9. Как выбирают американских президентов
- •10. Заключение
- •Литература
- •Содержание
2.2. Архитектуры нейронных сетей
В "зоопарке" искусственных нейронных сетей можно выделить две базовые архитектуры – слоистые и полносвязные сети.
Слоистые сети: нейроны расположены в несколько слоев (рис.7). Нейроны первого слоя получают входные сигналы, преобразуют их и через точки ветвления передают нейронам второго слоя. Далее срабатывает второй слой и т.д. доk-го слоя, который выдает выходные сигналы. Если не оговорено противное, то каждый выходной сигналi-го слоя подается на вход всех нейроновi+1-го. Число нейронов в каждом слое может быть любым и никак заранее не связано с количеством нейронов в других слоях. Стандартный способ подачи входных сигналов: все нейроны первого слоя получают каждый входной сигнал.
Полносвязные сети: каждый нейрон передает свой выходной сигнал остальным нейронам, включая самого себя. Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети. Все входные сигналы подаются всем нейронам.
Элементы слоистых и полносвязных сетей могут выбираться по-разному. Существует, впрочем, стандартный выбор – нейрон с неоднородным адаптивным линейным сумматором на входе (рис.5).
2.3. Решение задач нейронными сетями
Можно выделить два класса задач, решаемых обучаемыми нейронными сетями. Это задачи предсказания и классификации.
Задачи предсказания или прогнозирования являются, по-существу, задачами построения регрессионной зависимости выходных данных от входных. Нейронные сети могут эффективно строить сильно нелинейные регрессионные зависимости. При решении задач классификации нейронная сеть строит разделяющую поверхность в признаковом пространстве, а решение о принадлежности ситуации тому или иному классу принимается самостоятельным, не зависящим от сети устройством – интерпретатором ответа сети [7,9]. Наиболее простой интерпретатор возникает в задаче бинарной классификации (классификации на два класса). В этом случае достаточно одного выходного сигнала сети, а интерпретатор относит, например, ситуацию к первому классу, если выходной сигнал меньше нуля, и ко второму, если он больше или равен нулю.
Классификация на несколько классов требует усложнения интерпретатора. Широко используется интерпретатор "победитель забирает все", где число выходных сигналов сети равно числу классов, а номер класса будет соответствовать номеру нейрона, выдавшего максимальный выходной сигнал.
Одна нейронная сеть может одновременно предсказывать несколько чисел, либо одновременно решать задачи и прогнозирования, и классификации.
2.4. Подача входных сигналов и снятие выходных сигналов сети
На веса синапсов сети обычно наложены требования принадлежности некоторому диапазону значений. Наиболее часто используемые нелинейные функции нейронов также обычно выдают значения из некоторого диапазона. Это приводит к тому, что обычно нельзя подавать сети входные сигналы в их истинном диапазоне величин и получать от сети выходные сигналы в требуемом диапазоне.
Поэтому перед подачей сети входных сигналов их необходимо нормировать, например, в диапазон значений [-1,1] или [0,1], либо делать так, чтобы входные сигналы не слишком сильно выходили за пределы этих отрезков. Наиболее просто нормировку можно выполнить так. Каждая компонента входного вектора данных xiзаменяется величиной
,
где max xi и min xi– соответственно максимальное и минимальное значения для данной компоненты, вычисленные по всей обучающей выборке. По этой же формуле пересчитываются и компоненты векторов ответов.
Можно нормировать и по-другому, например, пересчитывать выборку так, чтобы разброс данным был единичным.
Здесь имеется одна сложность. Любое изменение обучающей выборки должно соответственно менять и правило нормирования данных. Поэтому поступают обычно так: в качестве minиmax-величин берут данные из существующего на настоящий момент задачника и в дальнейшем нормировку не меняют, а если предполагается, что в дальнейшем поступят сильно отличающиеся данные, тоminиmax-величины задаются пользователем по его оценкам. Иными словами, эти величины должны вводиться в момент создания сети и в дальнейшем не зависеть от обучающей выборки.
Выходные сигналы сети должны нормироваться в диапазон истинных значений по обращенным формулам.
Для сетей-классификаторов нормировка выходных сигналов не нужна, поскольку пользователь получает не собственно выходные сигналы сети, а результат отнесения ситуации интерпретатором ответа к тому или иному классу. Здесь каждый выходной вектор задачника преобразуется так, чтобы правильно обрабатываться интерпретатором ответа. Например, при классификации на три класса и интерпретаторе "победитель забирает все" номер класса будет кодироваться вектором из трех чисел, где компонента вектора, соответствующая номеру класса, имеет значение 1, а остальные две – -1.
Другой проблемой является ситуация, когда в таблице данных имеются пробелы. Вместо таких отсутствующих компонент данных можно подавать нуль, можно исключать некомплектные вектора из обучающей выборки, можно перед обучением сети решать задачу заполнения пробелов в данных некоторыми правдоподобными значениями.