
- •Федеральное агентство по образованию
- •Глава 1. Теоретические основы нейросетевых технологий 4
- •Глава 2. Применение персептрона в оценке стоимости квартир 15
- •Глава 1. Теоретические основы нейросетевых технологий
- •1.1. История развития нейронных сетей
- •1.2. Искусственные нейронные сети
- •1.3. Проектирование нейронных сетей
- •1.4. Обучение нейронных сетей
- •1.5. Подготовка входных и выходных параметров
- •1.5.1. Подбор обучающих примеров
- •1.5.2. Предобработка обучающих примеров
- •1.6. Возможности нейросетей
- •1.6.1. Преимущества нейросетей
- •1.6.2. Задачи, решаемые с помощью нейросетей
- •1.6.3. Прикладные возможности нейронных сетей
- •Глава 2. Применение персептрона в оценке стоимости квартир
- •2.1. Проектирование модели
- •2.2. Исследование модели
1.3. Проектирование нейронных сетей
Теоретически для построения нейросетевой модели любого сколь угодно сложного объекта достаточно использовать персептрон с одним скрытым слоем сигмоидных нейронов. Однако в практических реализациях персептронов, как количество слоев, так и число нейронов в каждом из них часто отличаются от теоретических. Иногда целесообразно использовать персептроны с большим числом скрытых слоев. Такие персептроны могут иметь меньшие размерности матриц синаптических весов, чем двухслойные персептроны, реализующие то же самое преобразование.
Строгой теории выбора оптимального числа скрытых слоев персептронов пока нет. На практике же чаще всего используются персептроны, имеющие один или два скрытых слоя, причем число нейронов в скрытых слоях обычно колеблется от Nx до 3Nx.
При проектировании персептронов необходимо понимать, что персептрон должен не только правильно реагировать на примеры, на которых он обучен, но и уметь обобщать приобретенные знания, т. е. правильно реагировать на примеры, которых в обучающей выборке не было.
При проектировании персептронов существует проблема выбора необходимого числа нейронов. Число нейронов входного слоя персептрона должно совпадать с размерностью вектора входных параметров, который определен условиями решаемой задачи. Число нейронов выходного слоя должно совпадать с размерностью выходного вектора, что также определено условиями задачи. Число скрытых слоев персептрона согласно теоремам Арнольда-Колмогорова-Хехт-Нильсена должно быть не менее одного. Число нейронов в скрытых слоях желательно оптимизировать для каждой конкретной задачи.
Построение нейронных сетей проходит в два этапа:
Выбор типа (архитектуры) нейронной сети.
Подбор весов (обучение) нейронной сети.
На первом этапе следует выбрать следующее:
какие нейроны мы хотим использовать (число входов, передаточные функции);
каким образом следует соединить их между собой;
что взять в качестве входов и выходов нейронной сети.
Эта задача на первый взгляд кажется необозримой, но, к счастью, нам необязательно придумывать нейронную сеть "с нуля" - существует несколько десятков различных нейросетевых архитектур, причем эффективность многих из них доказана математически. Наиболее популярные и изученные архитектуры - это многослойный персептрон, нейронная сеть с общей регрессией, нейронные сети Кохонена и другие.
На втором этапе следует "обучить" выбранную нейронную сеть, то есть подобрать такие значения ее весов, чтобы она работала нужным образом. Необученная нейронная сеть подобна ребенку - ее можно научить чему угодно. В используемых на практике нейронных сетях количество весов может составлять несколько десятков тысяч, поэтому обучение - действительно сложный процесс. Для многих архитектур разработаны специальные алгоритмы обучения, которые позволяют настроить веса нейронной сети определенным образом. Наиболее популярный из этих алгоритмов - метод обратного распространения ошибки (Error Back Propagation), используемый, например, для обучения персептрона.