- •31. Биологический подход к решению задач искусственного интеллекта. Генетические алгоритмы и их использование. Нейронные сети и их использование.
- •1. Модель Персептрона.
- •2. Сигмоидальный нейрон.
- •3. Модель Видроу.
- •4. Wta (победитель получает все).
- •5. Нейроны Хебба.
- •6. Стохастическая модель.
- •32.Экспертные системы: структура, назначение, классификация. Методы построения экспертных систем. Понятие о инженерии знаний.
- •Методы построения эс и классификация эс по методам построения
- •33.Математические модели в физике, химии, биологии и экономике
- •2. Модель колебательной системы
- •1) Проверка равномерности распределения генератора случайных чисел.
- •2) Вычисление интеграла.
- •3) Методы случайного поиска
- •36.Основы теории погрешности. Прямая и обратная задача теории погрешности. Оценка погрешности. Понятие погрешности.
- •37.Численные методы решения нелинейных уравнений с одним неизвестным.
- •Оценка погрешности для полинома Лагранжа
- •Разделенные разности
- •40.Численное интегрирование и дифференцирование. Формулы численного дифференцирования. Метод Ньютона-Котеса.
- •Численное интегрирование
- •41.Основные виды задач оптимизации и методы их решения. Линейное программирование. Основные этапы решения задачи симплекс-методом.
- •В задаче линейного программирования (лп) целевая функция может быть представлена как сумма произведений переменных на некие константы:
- •Требования к стандартному виду задачи лп:
- •2.Приведение задачи линейного программирования к стандартной форме
- •2. Алгоритм симплекс-метода
- •42.Основные понятия теории игр. Чистые и смешанные стратегии игры. Седловая точка игры и её поиск.
- •43.Транспортная задача: постановка задачи, поиск опорного плана, оптимизация решения.
- •2.Табличный метод решения транспортной задачи
- •44 Понятие графа, методы описания графа, виды графов. Эйлеровы и гамильтоновы графы.
- •45. Комбинаторные объекты дискретной математики. Алгоритмические задачи комбинаторики. Задача коммивояжера.
- •Разбиения
- •Числа Стирлинга второго рода
- •Числа Белла
- •Разбиение чисел
- •Биноминальные коэффициенты
- •Рекуррентные соотношения.
- •Задача коммивояжера. Общее описание
- •Методы решения зк Жадный алгоритм
- •Деревянный алгоритм.
- •46. Алгоритмические задачи поиска в графах: задачи Прима-Краскала, Дейкстры, Форда-Фалкерсона.
- •47 Рекурсивные функции
- •48. Виртуальные машины Тьюринга. Нормальные алгорифмы Маркова.
- •49. Формальные языки и грамматики.
- •Классификация языков
1. Модель Персептрона.
Исторически первой моделью нейрона была модель Мак-Каллока и Питтса. Это была самая простая модель. Они назвали свою модель Персептроном. Как у нейрона у него несколько входов и один выход (входы синапсы, а выход – аксон).
Синапсы получают сигналы от аксонов других нейронов, а аксоны соединяются с синапсами других нейронов, и образуется многослойная сеть.
Так же как в природе у каждого синапса есть весовой коэф-т и сигнал , то сумма сигналов с разным весом образует 1 сигнал – вх-й:
Wi xi
Т.о. в персептроне входной сигнал – это сумма сигналов разного веса.
Персептрон может генерировать выходной сигнал, если
. Т.о. персептрон обладает пороговым эффектом, т.е. сигнал на выходе получается только при достижении порога . Поэтому персептрон называют пороговым нейроном.
Т. к. вход связан с другим нейроном , то зав-т от 2-х величин: i – номер входа данного нейрона и j – др нейрон, с которым связан данный, тогда оценивая влияние на j-й вход др нейрона, вводят yi: .
Как правило, в моделях рассматривается вес , - номер входа у данного нейрона,- номер входа другого нейрона, x и y – значения только 0 или 1.
Если рассмотреть сеть из персептронов, то она похожа на двоичный автомат. Существуют методы анализа такого автомата с пом булевых ф-ций. Поэтому модель Мак-Каллока-Питтса стала самой распространенной.
2. Сигмоидальный нейрон.
В этом нейроне перешли от дискретной модели к непрерывной, где порог непрерывный( т.е. не только 0 и 1), сигнал непрерывный. Нужно было подобрать ф-цию. Нашли такую:
Чем больше , тем быстрее дойдем до единицы. Т. е. при мы стремимся к персептрону. Когда =10; 12 рез-ты ничем не огтличаются от персептрона. . В персептроне параметры : веса и U0, здесь еще Uвх. сигмоидальный более четкий. Но ни персептрон, ни сигмоидальный не похожи на настоящий нейрон, их исследуют с целью получения более высокого соот-я с нейронной сетью.
3. Модель Видроу.
У этой модели две особенности: адаптивный подбор весовых коэффициентов и деление нейронов на два вида: аутстар и инстар.
- instar (в звезду)
- austar
В инстаре как у персептрона 1 выход, много входов. Аутстар – много выходов, 1 вход.
Получили нейроны разных типов, но в природе все нейроны одинаковы, одного типа, но они переплетены. Такое переплетение можно отразить с пом outstar’ов.
Замечание. Известно, что в природе нейрон может менять проводимость своих дендритов.
В видроу возможность самообразовываться введена в саму модель.
Этот алгоритм адаптивный и существует попытка приблизится к устойчивому состоянию сети. В аутстаре вводится не вес входящий, а вес выходящий, т. е. этот нейрон работает в обратном режиме.
Аутстары и инстары в видроу наз. Adaptive Linear Neuron (адаптивный линейный нейрон).
Очень часто с помощью адалайна моделируют процессы самообразования, самосагласования и даже появился термин: Many ADALINE (MADALINE) - сеть, состоящая из элементов типа ADALINE.
Причем характеристика ADALINE необычна: она пороговая, нет 0, на выходе либо +1 либо -1:
Т. о. Видроу формировал адалайны на основе логических операций no, and, or и мажоритарных соединений (когда сигналы равны на входе и на выходе).
Гроссберг был автором инстара и аутстара. У Видроу был просто адалайн с +1 и -1. Гроссберг придумал для своих инстар, аутстаров спец методы обучения, которые наз методы обучения Гроссберга.