Добавил:
Rumpelstilzchen2018@yandex.ru Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Конспект.docx
Скачиваний:
31
Добавлен:
26.01.2020
Размер:
6.45 Mб
Скачать
  1. Поддержка

В проблематике СППР главной парадигмой является понятие «поддержка», которая заключается в помощи ЛПР в процессе принятия решения. Она включает в себя следующие функции:

  • понимание и оценка сложившейся ситуации, выбора критериев и оценки их относительной важности;

  • генерацию возможных решений или сценариев действий, т.е. формирование списка альтернатив;

  • оценка возможных альтернатив, исходя из предпочтений ЛПР и ограничений, накладываемых внешней средой;

  • моделирование принимаемых решений;

  • динамический анализ возможных последствий принимаемых решений;

  • сбор данных о результатах реализации принятых решений и оценка этих результатов.

Таким образом, для успешного функционирования СППР необходимо наличие двух систем: системы сбора данных и системы анализа данных, необходимых для принятия решений. На различных этапах выработки управленческих решений (диагностики проблемы и формулировки ограничений и критериев; определения и оценки альтернатив; принятия решения, его реализации и оценки результата) применяются как классические оптимизационные методы,

так и интеллектуально-информационные системы.

Рассмотрим ретроспективный анализ интеллектуальных моделей в контексте тех методов, которые мы будем проходить.

С древнейших времен человечество вынашивало идею создания искусственного разума. Мифология Древнего Египта и Древней Греции буквально пронизаны гибридными существами, которые на подобии человека обладали разумом. В эпической поэме «Илиада», приписываемая древнегреческому поэту Гомеру, бог Гефест ковал человекоподобные существа-автоматы. Сразу хочется отметить, что в литературе идея создания «искусственного человека» обыгрывалась многократно: от Галатеи в произведении «Пигмалион» Жан-Жака Руссо до Пиноккио персонажа сказки Карло Коллоди «Приключения Пиноккио. История деревянной куклы». Средневековые летописи так же полны рассказов об автоматах, способных говорить и двигаться почти так же, как люди (Голем – слуга средневекового алхимика Махаралема из г. Праги).

Родоначальником искусственного интеллекта (ИИ) принято считать средневекового испанского философа, математика и поэта Раймонда Луллия (ок. 1235 – ок. 1315) , который еще в XIII веке попытался создать механическую машину для решения различных задач, на основе разработанной им всеобщей классификации понятий. В XVIII веке Готфрид Вильгельм Лейбниц (1646—1716) и Рене Декарт (1596—1650) независимо друг от друга продолжили идею Раймонда Луллия, предложив универсальные языки классификации всех наук. Эти работы можно считать первыми теоретическими работами в области ИИ. Философы нового времени отошли от мифологических представлений об ИИ и сформулировали наиболее важные его идеи. Со временем при достижении человечеством определенных знаний ИИ преобразовалась в формальную науку. Окончательное рождение ИИ как научного направления произошло только после создания ЭВМ в 40-х годах XX века. В это же время Норберт Винер (1984 – 1964) создал свои основополагающие работы по новой науке — кибернетике.

Из вышесказанного можно сделать вывод, что возникновению науки ИИ предшествовали философские (рождение механистического материализма) и технологические предпосылки (создание первых работающих программно-контролируемых компьютеров).

До сих пор нет единого определения термину «искусственный интеллект» (англ. artificial intelligence). Причина объясняется тем, что понятие «искусственный интеллект» может рассматриваться в различных контекстах. Оно может рассматриваться как наука (раздел информатики), как направление исследований по аппроксимации (приближение) естественного интеллекта и как свойства автоматизированных систем брать на себя отдельные функции интеллекта человека.

С точки зрения информационных технологий ИИ рассматривается, как компьютерная система, которая способна имитировать интеллект человека, то есть способна получать, хранить информацию и знания (система памяти) и выполнять над ними различные разумные действия. Поэтому в последнее время отходят от термина «ИИ» и задают новый «системы, основанные на знаниях». При этом разумное действие ярче всего проявляется при решении интеллектуальных задач, которыми принято считать задачи связанные с тонкими и сложными рассуждениями, требующими большой изобретательности и высокой квалификации.

Чтобы понять, с чем мы столкнемся, рассмотрим ретроспективный анализ ИИ.

Рождение искусственного интеллекта (1940 – 1950 годы).

Первой работой, посвященной вопросам разработки ИИ, считается статья нейрофизиолога Уоррена Мак-Каллока и математика Уолтера Питтса «Логическое исчисление идей, относящихся к нервной активности», написанная в 1943 году. В работе было введено понятие искусственного нейрона, и показано, что из искусственных нейронов могут быть составлены логические элементы (такие как «И», «ИЛИ», «НЕ»), а также высказано предположение, что искусственные нейроны и сети, составленные из них, способны обучаться. Основную идею этого направления можно сформулировать следующим образом: Единственный объект, способный мыслить, - это человеческий мозг. Поэтому любое «мыслящее» устройство должно каким-то образом воспроизводить его структуру.

Искусственный нейрон (формальный нейрон) - элемент искусственных нейронных сетей, моделирующий некоторые функции биологического нейрона. Главная функция искусственного нейрона - формировать выходной сигнал в зависимости от сигналов, поступающих на его входы.

В 1949 году, канадский нейрофизиолог Дональд Хебб предложил первый работающий алгоритм обучения искусственных нейронных сетей.

Так же одной из наиболее важных работ, этого периода, в области ИИ считается работа Алана Тьюринга (1912 – 1954) «Вычислительные машины и разум», опубликованная в 1950 году. В работе Тьюринг ставил вопросы об ИИ, задался целью определить, может ли машина мыслить и разрабатывает эмпирический тест. Современная интерпретация теста Тьюринга (имитационная игра) представляет собой следующее задание. Группа экспертов общается с неизвестным существом. Они не видят своего собеседника и могут общаться с ним только через какую-то изолирующую систему – например, клавиатуру. Им разрешается задавать собеседнику любые вопросы, вести разговор на любые темы. Если в конце эксперимента они не смогут сказать, общались ли они с человеком или с ЭВМ, и если на самом деле они разговаривали с машиной, можно считать, что эта машина прошла тест Тьюринга.

Пока что ни одна программа и близко не подошла к прохождению теста Тьюринга, хотя некоторые из них весьма неплохо работают в очень ограниченных предметных областях. Но тест Тьюринга представляет собой хорошую основу для испытания современных интеллектуальных программ и стала неотъемлемым инструментом, как при разработке, так и при проверке современных экспертных систем.

Этот период можно охарактеризовать, как зарождение нейрокибернетики, которая ориентирована на программно-аппаратное моделирование структур, подобных структуре мозга. Возникли и остаются до сих пор актуальными две взаимно обогащающие друг друга цели нейронного моделирования: первая – понять функционирование нервной системы человека на уровне физиологии и психологии и вторая – создать вычислительные системы (искусственные нейронные сети), выполняющие функции, сходные с функциями мозга.

Начальный этап развития (1950 – 1960 годы).

В начале 50-х годов ХХ века был положен новый принцип моделирования ИИ, противоположный нейрокибернетике, «кибернетика черного ящика».

Чёрный ящик – термин, используемый для обозначения системы, внутреннее устройство и механизм работы которой очень сложны, неизвестны или неважны в рамках данной задачи.

Смысл нового направления заключался в следующем, не имеет значения, как у строено «мыслящее» устройство, главное, чтобы на заданные входные воздействия оно реагировало так же, как человеческий мозг. Это направление ИИ было ориентировано на поиски алгоритмов решения интеллектуальных задач на существующих моделях компьютеров. Существенный вклад в становление нового научного подхода внесли ее «пионеры»: Джон Маккарти, автор первого языка программирования для задач ИИ – ЛИСПа (язык обработки списков), Марвин Ли Минский, автор идеи фреймовой модели представления знаний (Фрейм – способ представления знаний в искусственном интеллекте, представляющий собой схему действий в реальной ситуации), Алан Ньюэлл и Герберт Саймон, авторы гипотезы о физической символьной системе и многие другие.

В 1954 г. в Московском государственном университете начал свою работу семинар "Автоматы и мышление" под руководством академика Ляпунова А. А., одного из основателей российской кибернетики. В этом семинаре принимали участие физиологи, лингвисты, психологи, математики. Принято считать, что именно в это время родился искусственный интеллект в России. Как и за рубежом, выделились два основных направления: нейрокибернетики и кибернетики "черного ящика".

Важным моментом в становлении ИИ, была проведенная в 1956 году конференция в Дартмутском университете (США). Именно на этой конференций Джон Маккарти дал определение ИИ, согласно которому исследователи вольны использовать методы, не наблюдаемые у людей, если это необходимо для решения конкретных проблем.

Годы после Дартмутского семинара стали годами открытий, исследователи были полны оптимизма.

Этот период характеризуется, как время становления исследовательских программ ИИ, формирования круга задач, относящихся к данному научному направлению, создания методов и инструментов решения этих задач.

Классический этап развития (1960 – 1970 годы).

Начало 60-х – это эпоха эвристического программирования (теория творческой интеллектуальной деятельности человека в процессе решения сложной задачи). Эвристический метод решения – это теоретически не обоснованное правило, которое позволяет сократить количество переборов в пространстве поиска. Разрабатываются следующие типы эвристических моделей:

  1. модель слепого поиска, которая опирается на метод проб и ошибок;

  2. лабиринтная модель, в которой решаемая задача рассматривается как лабиринт, а процесс поиска решения – как блуждание по лабиринту;

  3. структурно-семантическая модель, которая исходит из того, что в основе эвристической деятельности по решению задачи лежит принцип построения системы моделей, которая отражает семантические отношения между объектами, входящими в задачу.

В 1962 – 1963 годах американским кибернетиком Лоуренсом Дж. Фогелем (1928 - 2007) был разработан принцип эволюционного программирования, в основе которого лежит идея представления альтернатив решения задачи в виде универсальных конечных автоматов, способных реагировать на стимулы, поступающие из окружающей среды. Под конечным автоматом (абстрактным автоматом) понимается математическая абстракция, модель дискретного устройства, имеющего один вход, один выход и в каждый момент времени находящегося в одном состоянии из множества возможных состояний.

Эволюционные вычисления являются одним из возможных эвристических подходов к решению многомодальных (имеющих несколько локальных экстремумов) оптимизационных задач большой размерности за счет сочетания элементов случайности и детерминированности точно так, как это происходит в живой природе. Как и всякий метод, использующий элемент случайности, эволюционные вычисления не гарантируют обнаружения глобального экстремума целевой функции (оптимального решения) за определенное время. Основное их преимущество в том, что они позволяют найти «хорошие» решения очень трудных задач за меньшее время, чем другие методы.

1965 год – английский философ и логик Джон Алан Робинсон опубликовал работу «Машинно-ориентированная логика, основанная на принципе резолюции», которая является основополагающей в автоматизации правила резолюций в логике. Эта работа стала решающей в развитии языка логического программирования «Пролог». Примерно в это же время выдающийся отечественный математик Юрий Сергеевич Маслов предложил так называемый обратный вывод, впоследствии названный его именем, решающий аналогичную задачу другим способом.

1965 год – специалист в области теории систем факультета электротехники и информатики Калифорнийского университета (г. Беркли, США) Лотфи А. Заде опубликовал свою работу «Нечеткие множества» в журнале «Information and Control» (информация и управление). Этой публикацией он расширил рамки классических понятий множества Георга Кантера (1845 - 1918), допустив, что характеристическая функция (функция принадлежности элемента множеству) может принимать любые значения в интервале (0;1), а не только значения 0 либо 1. Такие множества были названы им нечеткими (fuzzy). Лотфи А. Заде определил также ряд операций над нечеткими множествами. Ввел затем понятие, лингвистической переменной и допустив, что в качестве ее значений (термов) выступают нечеткие множества, он создал аппарат для описания процессов интеллектуальной деятельности, включая нечеткость и неопределенность выражений.

1965 год – было сформулировано понятие о поддержке в принятии решений, которое произошло из области теоретических исследований принятия организационных решений, проведенных в технологическом институте Карнеги и практической работы интерактивных компьютерных систем, выполненных, главным образом, в Массачусетском технологическом институте. Были разработаны первые системы поддержки принятия решений (СППР) (англ. Decision Support System, DSS), которые представляют собой компьютерную автоматизированную систему, целью которой является помощь людям, принимающим решение в сложных условиях для полного и объективного анализа предметной деятельности. Для анализа и выработок предложений в СППР используются некоторые из методов, разработанных в рамках искусственного интеллекта.

В 1965 – 1967 году Поспеловым Д.А. и Клыковым Ю. И. был предложен метод ситуационного управления и моделирования, вобравший в себя лучшие достижения в области психологии (Пушкин В.Н.), физиологии (Скороходько Э.Ф.), семиотики (Шрейдер Ю.А.), лингвистики (Апресян Ю.Д., Мельчук И.А. и др.), теории управления и принятия решений. В своей монографии "Оперативное мышление в больших системах" Пушкин Вениамин Ноевич сформулировал модельную теорию мышления, в которой он показал, что психологический механизм регулирования актов поведения человека тесно связан с построением в структурах мозга информационной модели объекта и внешнего мира. В рамках, которой осуществляется процесс управления на основе восприятия человеком информации извне и уже имеющегося опыта и знаний. Основой построения модели являются понятийные (концептуальные) представления об объектах и отношениях между ними, отражающих семантику выделенной сферы деятельности человека (предметной области) и классов (прототипов) ситуаций, требующих принятия решений. Модель объекта имеет многоуровневую структуру и определяет тот информационный контекст, на фоне которого протекают процессы управления. Чем богаче такая информационная модель объекта и выше способности манипулирования знаниями, тем выше качество принимаемых решений, многообразие поведения человека. Затем Поспеловым Д.А. (1932) был предложен семиотический подход к построению ситуационной модели управления для класса больших систем, мощность множества ситуаций которых несоизмеримо велика по сравнению с множеством возможных решений по управлению. Был предложен язык ситуационного моделирования, в котором роль множества объектов предметной области играли их знаковые эквиваленты в естественном языке, т.е. слова – имена объектов, отношений, процессов, а в роли отношений выступали слова – имена, соответствующие реальным связям между объектами или процессами. В качестве грамматики языка выступали правила порождения новых понятий и отношений, их преобразования и классификации.

Классификация ситуаций осуществлялось исходя из анализа структуры задач управления в больших системах на каждом уровне управления. Задача принятия решений трактовалась как задача поиска такого разбиения множества ситуаций на классы, при котором каждому классу соответствовало решение, наиболее целесообразное с точки зрения заданных критериев функционирования. При наличии такого разбиения поиск решения к конкретной ситуации сводится к поиску класса и соотнесения ему решения по управлению.

Большую роль в ситуационный анализ внесла Болотова Л.С., которая работала на нашей кафедре. Поэтому предлагаю Вашему вниманию ее книгу. Системы искусственного интеллекта: модели и технологии, основанные на знаниях.

Но история ИИ полна драматических событий, чрезмерный оптимизм исследователей не оправдался, они не смогли выполнить своих обещаний, системы, основанные на ИИ, не показывали обещанных результатов. Можно выделить несколько основных причин спада:

1966 год – опубликован отчет комиссии ALPAC (Automatic Language Processing Advisory Committee – Консультативный комитет автоматической языковой обработки), согласно которому машинный перевод оказался менее эффективным и более дорогим, чем перевод человеком. В связи с этим правительством США исследования машинного перевода были прекращены.

1969 год – Марвин Ли Минский и Сеймур Паперт опубликовали книгу «Перцептроны: Введение в вычислительную геометрию», которая описывала ограничения по использованию однослойных перцептронов, что привело к значительному снижению интереса к нейронным сетям более чем на 10 лет. В итоге DARPA (анг. Defense Advanced Research Projects Agency – агентство передовых оборонных исследовательских проектов) фактически прекратило финансирование исследований в области ИИ.

1973 год – математик Джеймс Лайтхилл (1924–1998), никак с ИИ профессионально не связанный, подготовил по заказу Британского совета научных исследований обзор состояния дел в области ИИ. В докладе были признаны определенные достижения в области ИИ, однако уровень их определялся как разочаровывающий, и общая оценка была отрицательная с позиций практической значимости. Этот отчет отбросил европейских исследователей примерно на 5 лет назад, так как финансирование ИИ существенно сократилось.

Этот этап связан с приобретением ИИ статуса «классической» научно-технической дисциплины, проведением первых международных конференций, началом издания журналов, чтением соответствующих курсов в университетах. Многие методы, разработанные в это время, оказали огромное влияние на дальнейшее развитие ИИ.

Практический этап развития (1970 – 1980 годы).

С 70-х годов экспертные системы стали ведущим направлением в области ИИ. В этих годах нобелевский лауреат Джошуа Ледерберг (1925 – 2008) со своими учениками из Станфордского научно-исследовательского института приступили к созданию компьютерной системы, предназначенной для определения молекулярной структуры химических соединений. Они в создали программу, основанную на простой, но вместе с тем достаточно мощной системе Аристотелевой логики. С ее помощью формулировалась серия вопросов типа «ЕСЛИ - ТО», которые описывали правила атомных связей. В этот период было создано множество разнообразных экспертных и диагностических систем, большая часть которых действует и сегодня.

В СССР тоже начался бурный подъем в области разработки систем ситуационного управления. Очень быстро стало понятно, что системы ситуационного управления по своей сути были похожи на экспертные системы. В 1974 году при Комитете по системному анализу при президиуме АН СССР был создан Научный совет по проблеме "Искусственный интеллект", его возглавил Гермоген Сергеевич Поспелов (1914 – 1998). По инициативе Совета было организовано пять комплексных научных проектов: «Диалог» (работы по пониманию естественного языка, руководители А. П. Ершов, А. С. Нариньяни), «Ситуация» (ситуационное управление, Д. А. Поспелов), «Банк» (банки данных, Л. Т. Кузин), «Конструктор» (поисковое конструирование, А. И. Половинкин) и «Интеллект робота» (Д. Е. Охоцимский).

В 1975 году выходит знаменитая книга Джона Генри Холланда (1929) «Адаптация в природных и искусственных системах», в которой был изложен принцип генетического алгоритма. Отличительной особенностью генетических алгоритмов является представление любой альтернативы решения в виде кодовой (как правило, битовой) строки фиксированной длины, манипуляции с которой производятся в отсутствие всякой связи с ее смысловой интерпретацией.

В 1975 году советский психолог Валерий Федорович Венда в докладе на конференции по семантическим вопросам искусственного интеллекта впервые ввел термин «гибридный интеллект». Теория гибридных интеллектуальных систем, включая естественные, искусственные и комбинированные, может быть построена на основе законов, общих для всех видов систем. В качестве таковых В.Ф. Вендой предложен ряд законов взаимной адаптации и трансформации систем. Взаимная адаптация акцентирует внимание на изменениях, которые претерпевают объекты, становясь компонентами системы, на закономерностях этих изменений в ходе становления, развития, существования, трансформации структур системы. Взаимная адаптация человека и ЭВМ направлена на максимальное раскрытие индивидуальных способностей, компенсацию психофизиологических недостатков, учёт интересов лица принимающего решения. Этот процесс также ведёт к наиболее полному использованию возможностей вычислительной техники, заложенных в ней знаний, умений, находок и открытий предшественников.

Этот период характеризуется практическим (коммерческим) использованием достижений ИИ в разных сферах деятельности: финансах, экономике, компьютерной и бытовой технике, менеджменте, управлении. И в этом большую роль сыграли экспертные системы, которые имеют одно большое отличие от других систем искусственного интеллекта: они не предназначены для решения каких-то универсальных задач, как например нейронные сети или генетические алгоритмы. Экспертные системы предназначены для качественного решения задач в определенной разработчиками области, в редких случаях – областях.

Стратегический этап развития (1980 – 1990 годы).

В ответ на успехи США вначале 80-х в гонку включается Япония, объявив о начале проекта машин V поколения, основанных на знаниях. Проект был рассчитан на 10 лет и объединял лучших молодых специалистов крупнейших японских компьютерных корпораций. Для этих специалистов был создан специально новый институт ICOT, и они получили полную свободу действий, правда, без права публикации предварительных результатов.

Конечно, ни США, ни СССР не могли без внимания оставить такой вызов. Работы во всех направлениях ИИ приобрели стратегический характер для каждой стороны. В 1983 году президентом США Рональдом Рейганом провозглашена так называемая «стратегическая компьютерная инициатива», выделяются средства для проекта создания интеллектуальной ЭВМ на основе языка Lisp, а в СССР – на основе языка Рефал. В конечном итоге история противоборства закончилась следующим:

В Японии создали достаточно громоздкий и дорогой символьный процессор, программно реализующий язык (подобие языка Prolog), не получивший широкого признания. Однако положительный эффект этого проекта был очевиден. В Японии появилась значительная группа высококвалифицированных специалистов в области ИИ, которая добилась существенных успехов в различных прикладных задачах. К середине 90-х японская ассоциация ИИ насчитывает 40 тыс. человек.

В СССР Рефал был реализован как символьный процессор в виде приставки к машинам серии ЕС ЭВМ. Однако в Институте кибернетики Украинской Академии наук была уже создана и проходила испытания перед запуском в серию ЭВМ «МИР» для символьных преобразований на базе языка «Аналитик». Но дальше начались исторические процессы, которые так и не позволили реализовать данный проект в СССР, а затем и в России.

В США реализовали проект и создали LISP -машину для символьных преобразований. Однако уже к 1987 новые персональные компьютеры от IBM и Apple стали мощнее и дешевле LISP-машин, что разрушило данный сегмент бизнеса.

В 1982 году Джон Хопфилд (1933) разработал новую модель искусственных нейронных сетей (сеть Хопфилда), которая могла по-новому обрабатывать сигналы. Это открытие положило начало новой эры развития искусственных нейронных сетей, которые практически не исследовались с 1970. Начиная с нейронной сети Джордана, отчет о которой он публикует, в 1986 году начинается новый этап в развитии нейронных сетей с обратной связью. Затем в 1990 году Элман предлагает, модифицировать сеть Джордана в результате получается наиболее известная на данный момент нейронная сеть Элмана. С этого момента такие сети называют рекуррентными. Как правило, все они базируются на многослойном перцептроне, который становится в это время очень популярным.

Для этого этапа характерно также изучение и моделирование рациональных структур в связи с эмоциями, чувствами, практическими навыками и неаналитическими методами обработки образной информации, что сближает современные модели ИИ с их естественным человеческим прототипом.

В мире начался принципиально новый этап развития интеллектуальных технологий – эра интеллектуальных систем - консультантов, которые предлагали варианты решений, обосновывали их, способны были к обучению и, следовательно, к развитию, общались с человеком на привычном для него, хотя и ограниченном, естественном языке. Знания стали товаром. Человечество получило возможность сохранять и накапливать базы знаний отдельных специалистов (или групп специалистов) в определенной области. Знания стало возможным собирать, тиражировать, проектировать, сделать доступными для всех заинтересованных в нем людей. Появилась новая профессия – «инженер по знаниям» или «инженер-когнитолог»

Современный этап развития (1990 – 2010 годы).

В 1989 году в Лос-Аламосе (США) состоялась первая Международная конференция по вопросам искусственной жизни (ALife), на которой выделилось отдельное научное направление теории ИИ – искусственная жизнь. Вскоре за ней последовали Европейская конференция по искусственной жизни и Международная конференция по моделированию адаптивного поведения (обе –1991 г., Париж). Тематика первых мероприятий затрагивала темы «мягкой» (soft) искусственной жизни – создание вычислительных систем и моделей, действующих на базе биологических и эволюционных принципов. Одной из главных задач искусственной жизни считается создание искусственных существ, способных действовать не менее эффективно, нежели живые организмы.

Под влиянием этих конференций и ряда социально-технических факторов в информатике формируется новый подход к решению научно- практических задач, связанный с разработкой так называемых агентов и многоагнтных (мультиагентных) систем. На создание многоагнтных систем повлияли следующие факторы:

  1. Возрастающее количество распределенных систем;

  2. Увеличение степени интеграции вычислительных устройств;

  3. Увеличение степени социальной интеграции;

  4. Увеличение степени интеллектуальности программного обеспечения самого разного назначения;

  5. Возрастающая ориентация на человека.

Каждый агент имеет свою систему целей и мотивации, свою область действий и ответственности, а взаимодействие между ними обеспечивается интеллектом. В рамках такого осмысления традиционные методы, алгоритмы и программы становятся элементарными «кирпичиками», из которых строятся затем алгоритмы и решения возникающих задач. Таким образом, моделируется некоторое виртуальное сообщество интеллектуальных агентов-систем, которые автономны, активны, вступают в различные «социальные» отношения – кооперации и сотрудничества, конкуренции, соревнования, вражды и т.п.

В эти годы возрастает сложность систем СППР, которая приводит к ситуации, когда разработка системы для решения практических задач занимает все большее время, несмотря на растущее быстродействие вычислительной техники и широкий спектр доступных программных средств. Обычно к моменту завершения работ постановка задачи заметно устаревает и, вместо внедрения, приходиться заниматься разработкой по сути новой системы. Выход из возникшей ситуации был найден в рамках методологии разработки гибридных интеллектуальных систем.

Под гибридной интеллектуальной системой (в современной трактовке) принято понимать систему, в которой для решения задачи используется более одного метода имитации интеллектуальной деятельности человека. Таким образом, гибридная интеллектуальная система – это совокупность: аналитических моделей, экспертных систем, искусственных нейронных сетей, нечетких систем, генетических алгоритмов, имитационных статистических моделей. На множестве таких моделей может быть построена синергическая структура (от гр. слова sinergia - сотрудничество, содействие), использующая и управляющая преимуществами различных представлений в целях преодолеть несовершенства других.

Можно заметить, что многие области исследований пересекаются, хотя это свойственно для любой науки. Но в ИИ взаимосвязь между, казалось бы, различными направлениями выражена особенно сильно, и это связано с философским спором о «сильном» и «слабом» ИИ. Теория «сильного» ИИ предполагает, что компьютеры могут приобрести способность мыслить и осознавать себя, хотя и не обязательно их мыслительный процесс будет подобен человеческому. Теория «слабого» ИИ такую возможность отвергает.

Заключение

Несмотря на то, что история науки об искусственном интеллекте насчитывает только около 60 лет, что значительно меньше истории развития большинства современных областей науки, ее вполне можно считать самостоятельной и зрелой наукой.

Результатом работы ученых стали компьютерные программы и аппаратные средства, которые зачастую справляются со многими сложными задачами лучше, чем человек.

Множество прикладных функций «слабого» искусственного интеллекта уже заняли свое место в повседневной (в поисковых системах, помощниках, почтовых агентах) работе большого количества людей. Постепенно программное обеспечение, обладающее интеллектуальным поведением, берет на себя рутинную работу, которую раньше должен был выполнять человек.

Однако, как показывает история предмета, надеяться на скорое появление «сильного» искусственного интеллекта не приходится, к тому же, на сегодняшний не существует адекватного метода оценки разумности, а разработанный Аланом Тьюрингом тест имеет ряд недостатков.