
- •31. Биологический подход к решению задач искусственного интеллекта. Генетические алгоритмы и их использование. Нейронные сети и их использование.
- •1. Модель Персептрона.
- •2. Сигмоидальный нейрон.
- •3. Модель Видроу.
- •4. Wta (победитель получает все).
- •5. Нейроны Хебба.
- •6. Стохастическая модель.
- •32.Экспертные системы: структура, назначение, классификация. Методы построения экспертных систем. Понятие о инженерии знаний.
- •Методы построения эс и классификация эс по методам построения
- •33.Математические модели в физике, химии, биологии и экономике
- •2. Модель колебательной системы
- •1) Проверка равномерности распределения генератора случайных чисел.
- •2) Вычисление интеграла.
- •3) Методы случайного поиска
- •36.Основы теории погрешности. Прямая и обратная задача теории погрешности. Оценка погрешности. Понятие погрешности.
- •37.Численные методы решения нелинейных уравнений с одним неизвестным.
- •Оценка погрешности для полинома Лагранжа
- •Разделенные разности
- •40.Численное интегрирование и дифференцирование. Формулы численного дифференцирования. Метод Ньютона-Котеса.
- •Численное интегрирование
- •41.Основные виды задач оптимизации и методы их решения. Линейное программирование. Основные этапы решения задачи симплекс-методом.
- •В задаче линейного программирования (лп) целевая функция может быть представлена как сумма произведений переменных на некие константы:
- •Требования к стандартному виду задачи лп:
- •2.Приведение задачи линейного программирования к стандартной форме
- •2. Алгоритм симплекс-метода
- •42.Основные понятия теории игр. Чистые и смешанные стратегии игры. Седловая точка игры и её поиск.
- •43.Транспортная задача: постановка задачи, поиск опорного плана, оптимизация решения.
- •2.Табличный метод решения транспортной задачи
- •44 Понятие графа, методы описания графа, виды графов. Эйлеровы и гамильтоновы графы.
- •45. Комбинаторные объекты дискретной математики. Алгоритмические задачи комбинаторики. Задача коммивояжера.
- •Разбиения
- •Числа Стирлинга второго рода
- •Числа Белла
- •Разбиение чисел
- •Биноминальные коэффициенты
- •Рекуррентные соотношения.
- •Задача коммивояжера. Общее описание
- •Методы решения зк Жадный алгоритм
- •Деревянный алгоритм.
- •46. Алгоритмические задачи поиска в графах: задачи Прима-Краскала, Дейкстры, Форда-Фалкерсона.
- •47 Рекурсивные функции
- •48. Виртуальные машины Тьюринга. Нормальные алгорифмы Маркова.
- •49. Формальные языки и грамматики.
- •Классификация языков
4. Wta (победитель получает все).
Эта модель конкурентной борьбы нейронов. Его идея: выходной сигнал формируется не на основе суммы сигналов, а по результатам самого сильного сигнала (если сигнал преодолел порог, то он существует).
Одновременно нейроны WTA по аналогии с адалайном могут быть сформированы в группы конкурирующих между собой нейронов.
на входе сигналы делятся одинаково на все нейроны, дальше сигналы от всех нейронов сравниваются и на выходе один сигнал – победитель.
Т.о. появляются три типа WTA:
1) внутренняя конкуренция между входными сигналами
2) внешняя конкуренция между нейронами. Сигнал передается от выигравшего нейрона.
3) используется и внутренняя и внешняя конкуренция.
5. Нейроны Хебба.
Хебб долго изучал реальные нейроны нервных клеток, он изучал механизмы самосагласования клеток.
Варианты:
1) одна клетка подавляет другую (отрицательное действие).
2) одна клетка содействует возбуждению другой клетки (положительное действие).
3) клетки помогают друг другу (когда ни одна клетка не возбуждается отдельно, а вместе у них получается).
Хебб сделал вывод:
изменение
весов должно быть пропорционально
произведению сигналов на 2-х моделях,
т.е. ~
.
Если –
,
то сигнал отриц-й и они друг друга гасят.
Если +
,
то сигналы помогают др другу.
Вывод наз. правилом Хебба. Нейроны и нейронные сети, которые подчиняются правилу Хебба, называются Хеббовскими.Как и у Гроссберга правило Хебба дает возможность создать обучение, т.е. обучение по Хеббу. Хеббовскими наз нейроны, веса которых подбираются по правилу Хебба.
6. Стохастическая модель.
Это вероятностная модель. В данной модели рез-ты на выходе зависит не только от входящей информации, как во всех др моделях, но и от некой случ-й составляющей, случайности событий.
Сущ-ет неск-ко вар-тов введения в модель этой составляющей.
1. выход делают случайным, т.е. сигнал либо проходит либо запирается.
2. в модели
сигнаидального нейрона может случайно
меняться параметр ,
а в модели персептрона меняют
.
3. в модели может случайно отключаться (или вкл-ся) один их входов.
Замечание. В
настоящее время во многих моделях
нейрона вводятся понятия «активности»
и «усталости». Передав сигнал (особенно
в условиях конкуренции, WTA),
нейрон отдыхает (становится неактивным),
чтобы позже проявить активность
ввели параметр усталости: чем > сигнал
на выходе, тем сильнее усталость. Т.о. у
нейрона формируются фазы активности и
усталости. Особенно важны эти фазы, где
введено в модели нейронных сетей
отмирание.
Виды нейронных сетей (НС):
НС образ-ся
путемсоед-я однородных нейронов, т.е.
нейронов одной модели, следоват-но,
сети, например, персептронные, WTA,
Гроссберга и т.д.
По построению сети делят на:
1)однослойные (нейроны образуют 1 слой);
2) 2-хслойные (когда выходы из одной сети- это входы для второй).
Двухслойные сети делятся на сети без обратной связи и сети с обратной связью.
3) многослойные сети (есть входной слой, выходной слой, 1 или неск-ко внутр. слоев).
Также посторение сети идет:
1) линейное соединение (слой за слоем);
2) рекуррентное (есть обратная связь между вх. и вых. слоем);
3) радиальная сеть (слои образуют окружность).
Особое место в НС заняли реккурентные сети (с обратной связью): обратная связь бывает положит-ая (делает систему неустойчивой, т.к. усиливает отклонение от равновесия) и отрицат-ая (делает систему более устойчивой, ее очень трудно отвести от равновесия). реккурентная сеть с режимом обратной связи была использована для разработки спец. памяти, которая наз. BAM (… assotiation memory)- ассоциативная память, хар-на тем, что запоминает знания, а не данные (например, в рисунках, фотках).
Особые виды НС:
1. Сеть с самоорганизацией (WTA сети, …), когда в сети ярко выражена саморг-ция: периоды отдыха и активизации, конкуренция групп и отмирание нейронов. (самоорг-ция за счет обратной связи сюда не входит). Кохонен придумал правила самоорганизации, конкуренции, самообучения в НС.
2. Корреляционные сети (сети Хебба) – это самоорг-щаяся сеть, но на основе правил Хебба. Делятся на 2 категории: PCA (компонентный анализ) и ICA (анализ независимых компонент).
Нечеткие (случ-е) сети - используют нечеткую логику. Прохождение сигнала через случ-й нейрон опр-ся не только уровнем сигнала, но и случ. величиной. Если случ-е нейр-ы объед-ся в сети, то образ-ся очень сложная случ-ая система, которая наз. случайными сетями. Здесь есть алгоритмы самоорг-ции, но особого вида.