Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Intellektualnye_informatsionnye_sistemy_Palama.doc
Скачиваний:
3
Добавлен:
01.03.2025
Размер:
325.12 Кб
Скачать

Интеллектуализация информационных систем – это технология повышающая эффективность работы за счёт использования теории искусственного интеллекта.

Моделирование деятельности человека проходит по следующим направлениям:

  1. Зрение. Выделяют:

  1. Распознавание образов.

  2. Компьютерная графика.

  1. Слух и речь:

  1. Распознавание речи.

  2. Синтез речи.

  1. Осязание: анализ тактильных образов - создание искусственной кожи.

  2. Обоняние: анализ и синтез запахов.

  3. Мышление – принятие решений, анализ ситуаций, прогнозирование и предсказание, диагностика различных состояний.

История ИИ.

Можно выделить несколько этапов становления науки о ИИ:

  1. XIII век. Решение задач на основе всеобщей классификации понятий.

  2. XVIII век. Попытка создания машины для символьных вычислений (Декарт и Лейбниц независимо). Была предложена классификация всех наук.

  3. 40ые г.г. XX века. Появление кибернетики (Норберт Винер).

1956 г. - Появление термина AI (artificial intelligence) на конференции, посвящённой решению логических задач.

Выделяют 2 направления развития теории ИИ:

  1. Моделирование деятельности человеческого мозга или нейрокибернетика. Используются психологические, нейрофизиологические исследования.

  2. Кибернетика чёрного ящика.

Кибернетика проходит следующие этапы:

  1. 50-е гг. XX века.

  1. Решение задач выхода из лабиринта.

  2. Оптимизации пути на графе.

  3. Пятнашки.

  4. Ханойская башня.

  5. Шашки, шахматы.

  6. Сочинение стихов, музыки.

  7. Переводы с одного языка на другой.

  1. 60ые гг. Появление эвристического программирования.

  2. Конец 60ых гг. Появление методов логического программирования.

  1. Метод резолюций – решение задач от обратного.

  2. Метод обратного вывода

Появление первых языков ИИ на основе предложенных методов (Lisp, Prolog).

Появление моделей представления знаний: семантической сети (Кулиан), Фреймовая модель (Минский).

  1. 1973 г. Конгресс в Великобритании о результатах вложение в исследования, на котором финансирование было сокращено, т.к. особых результатов не было.

  2. 70ые гг. Финансирование в США работ по созданию ИИ.

Появление экспертных систем: по нефтеразведке, медицинская система (диагностика заболеваний и создание лекарств).

Использование нейронных сетей в военной промышленности

  1. 80ые гг. ЕС начинает усиленное финансирование программы ESPRIT, в которую включена проблематика ИИ

  2. Проект по созданию компьютеров 5го поколения в Японии.

Были созданы Lisp- и Prolog-процессоры и машины баз дынных и баз знаний.

Появление большого количества специалистов в области ИИ.

С конца 80ых гг. происходит коммерциализация систем ИИ.

Основные направления развития ИИ.

  1. Фундаментальные исследования. Изучения деятельности мозга (институт мозга, психологии, лингвистики). Работы по совершенствованию шахматного процессора.

  2. Внешняя интеллектуализация компьютеров существующей архитектуры (распознавание текста, изображений, синтез речи, мультимедиа).

  3. Внутренняя интеллектуализация. Разработка новых компьютеров, построенных на принципах ИИ.

  1. Ориентация на символьную обработку.

  2. Распараллеливание процессов, т.е. решение задач на нескольких процессорах, создание распределённых приложений.

  3. Аппаратная поддержка операций.

  1. Новые технологии в различных областях:

  1. Автоматизация программирования.

  2. Автоматизация научных исследований.

  3. Когнитивная компьютерная графика, которая автоматизирует процессы в различных системах.

  4. Производство.

  1. Создание роботов.

  1. Специализированные вычислители

  2. Сенсорные датчики.

  3. Задачи движения.

  4. Принятие решений.

В настоящее время выделяют следующие системы ИИ:

  1. Информационно-поисковые (вопросно-ответные).

  2. Расчётно-логические системы с ППП (MathCAD, MathLab, MathView).

  3. Экспертные системы. Работают по принципу “причинаследствие” и “если то”.

  4. Нейросистемы = программы + нейрочипы. Принцип обучения на примерах.

  5. Гибридные системы ИИ – используют комбинацию различных систем методов.

Проблемы ИИ.

  1. Центральная проблема – представление знаний.

Данные (синтаксис) – интерпретация (семантика)

Модели представления знаний носят декларативно-процедурный характер, т.е. в одной модели объединяются синтаксическая и семантическая модели:

  • Семантические сети.

  • Фреймовые модели.

  • Продукционные системы.

  • Логические (добавляется нечёткая логика).

  1. Компьютерная лингвистика:

  • Естественное языковое общение.

  • Автоматический перевод.

  1. Компьютерная логика. Моделирование человеческих рассуждений и принятия решений.

  2. Адаптация и гибкость в решении задач. Возможность автоматического выбора подходящей модели, метода и алгоритма решения задачи предметной области.

Нейронные сети.

Выделяют особенности мозга:

  • Массовый параллелизм.

  • Высокая организация связей.

  • Распределённые вычисления.

  • Толерантность к ошибкам в информации.

  • Контекстуальная обработка информации.

  • Низкое энергопотребление (используются электрохимические сигналы с низким потенциалом и тд).

  • Адаптивность.

  • Обучаемость.

Искусственные нейронные сети – это обобщенное название нескольких групп алгоритмов и моделей, способных обучаться на примерах, извлекая скрытые закономерности из потока данных. Данные, поступающие на нейронную сеть, могут быть неполны и зашумлены.

Нейронная сеть способна автоматически настроиться на существующую взаимосвязь между данными.

Исторические этапы развития этой теории:

  1. 1943 год – Был предложен искусственный нейрон (Макколокс, Питс).

  2. Начало 60-х годов – многослойная нейронная сеть – перцепртрон (персепптрон) Розенблата. Основная идея: преобразование входного пространства признаков в пространство признаков соответствующих выходных сигналам.

Развитие работ пошло по направлению увеличения слоёв нейронной сети и организации связей между слоями. Основная проблема была в сходимости процесса обучения.

В конце 60-х ученым Минским доказана теорема об ограниченных возможностях обучения перцептрона.

3. Начало 80-х годов, модель Хопфилда – это сеть специальной архитектуры с набором ограничений, что позволило разработать алгоритм обучения на основе минимизации энергии сети. Для многослойного перцептрона Минским разработан алгоритм обратного распространения ошибки для обучения сети.

4. Конец 80-х годов и по нынешний день применение нейронных сетей для различных приложений, поскольку была доказана сходимость основных моделей, а также получена приемлемая точность решения задач.

Применение нейронных сетей.

  1. Распознавание образов.

    • Классификация, т. е. отнесение образа к одному из известных классов.

    • Кластеризация. Происходит при обучении без учителя. Происходит формирование кластера, основанное на объективном подобии образов.

  2. Аппроксимация функций. Есть обучающая выборка, которая генерируется неизвестной функцией, возможно искаженной шумом. Необходимо найти оценку этой функции. Данная функция минимизирует среднеквадратическую ошибку во входных данных.

  3. Прогнозирование. Есть набор значений в последовательные моменты времени, необходимо найти (предсказать) значение в некоторый момент времени.

  4. Задачи оптимизации. Оптимизация заключается в максимизации или минимизации целевой функции, которая удовлетворяет заданным ограничениям.

  5. Ассоциативная память, то есть память, адресуемая по содержанию. Данная память позволяет получить информацию по неформальному описанию близкому к естественному восприятию, к примеру визуальный запрос.

  6. Решение задач управления (u(t), y(t)). Необходимо в моменты времени вырабатывать такую последовательность управляющих сигналов, чтобы выходные сигналы соответствовали заданной модели.

Особенности:

  1. Нейронные сети позволяют также оценивать важность различных видов информации для целевого поведения.

  2. Кроме того, позволяют уменьшать объём входной информации без потери существенных данных.

  3. Система может реагировать на нестандартные ситуации с учетом выделенных факторов.

Устройство нейронных сетей.

Выделяют основные элементы: нейроны и способ их соединения, то есть архитектура сети.

  1. Нейрон – это элемент, вычисляющий взвешенную сумму входных сигналов, которая затем обрабатывается функцией активации. Взвешенная сумма называется потенциалом нейрона: V = ∑ (i = 1 до N) wi * xi , N – количество входов, x – входы нейрога, w – вес связи нейрона с i-м входом.

Вес связи может быть как положительным, так и отрицательным. Функция активации позволяет сравнить потенциал с пороговой величиной w0 и формируется выходной сигнал. Величину порога можно рассматривать как еще один весовой коэффициент при постоянном входном сигнале: V = ∑ (i = 1 до N) wi * xi + w0 = (в векторной форме)

W – вектор весов связи, X – вектор входных сигналов.

Функция активации выполняет функции сжатия входного сигнала на ограниченный диапазон. Без использования этой функции зависимость выхода от потенциала нейрона будет линейной. Применяют пороговую функцию активации, имеющую вид:

Значение нейрона могут быть в диапазоне от нуля до единицы. Используют порог (пороговая функции) 0.5, чтобы значения нейрона были 0 или 1. Для возможности дифференцирования функции активации используется сигмоидная (гипеболического тангенса) функция активации.

Чем больше коэффициент B, тем больше перепад функции. Для разных задач подбирают соответствующие функции активации.

Нейронная сеть – это направленный граф со взвешенными дугами, узлами (вершинами) которого являются нейроны. Для определения модели нейронной сети необходимо выбрать:

  1. модель нейрона.

  2. функция активации, то есть правила выбора следующего состояния нейрона.

  3. алгоритм обучения сети, то есть алгоритм изменения весов связей графа.

  4. необходимо выбрать топологию сети, то есть организацию её в пространстве.

Модель нейронной сети разрабатывается с учетом предметной области, для которой решаются задачи. Различают следующие модели нейронов в зависимости от способа преобразования сигнала и характера функции активации. По виду выходного сигнала различают:

  1. Детерминированные нейроны, в которых выходное значение определяется порогом.

  1. Вероятностные нейроны– выходной сигнал в момент времени t является случайной функцией от потенциала нейрона (V) и состояния нейрона в момент времени S(t-1).

По способу передачи входного сигнала на выход:

  1. Статические нейроны – выдают результат мгновенно.

  2. Динамические – нейроны, у которых вводится задержка на выдачу сигнала на определённый период времени t. За этот интервал нейрон “думает”.

По потенциалу нейроны делят:

  1. Без насыщения, нейрон может принимать бесконечное множество значений.

  2. С насыщением (никогда не превысит единицу).

Нейронные сети (НС) классифицируют по различным признакам.

    1. По способам распространения сигналов.

      • Прямого распространения.

      • Рекуррентные (динамические).

      • С перекрестными связями.

      • С латеральным связями.

    2. По способу организации узлов

  • Однослойные сети: полносвязные (обычно все нейроны имеют одинаковые функции активации) и регулярные.

  • Многослойные

  • Ядерные (каскадные).

В полносвязных сетях каждый нейрон связан с каждым нейроном.

В регулярных сетях нейроны соединяются по определённому топологическому принципу.

Сеть Кохонена или самоорганизующиеся карты.

Могут быть гексагональные сети. При соединении выходов со входами получают архитектуры цилиндра и тора.

Ядерные сети являются композицией различных моделей сетей, используемых в качестве элементов сети.

В сетях прямого распространения нет обратных связей. Сигнал распространяется от входов к выходам. В рекуррентных (динамических) сетях имеются обратные связи и сигнал с выхода поступает на вход.

Например, сеть Хопфилда:

Перекрёстная связь:

Латеральная связь (модель возбуждения/торможения) – когда у ближайших нейронов одна связь ослабляет вход нейрона, а другая усиливает.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]