
Реферат / Литература для реферата / Все вместе / Волкова В.Н., Козлов В.Н. Системный анализ и принятие решений Словарь-справочник
.pdfРассматриваемый подход позволяет учесть не только статику, но и кинематику и динамику исследуемого процесса.
При оценке логической информации (потенциала)
Н = f(J/n, Т dJ/dt, L d2J /d t2), |
(9) |
где п - объем понятия; т - информационное сопротивление канала (имеет размерность времени); L - ригидность, характеризующая геометрию тела и его инерционные свойст ва, сопротивляемость системы новому; эта, казалось бы, отрицательная характеристика обусловливает в то же время устойчивость системы, ее исследовательские и прогности ческие способности; dJ/dt и d2J/dt - скорость и ускорение изменения информации со ответственно.
Соотношение (9) было получено в теории информационного поля как дискретный вариант описания инфор мационного процесса в форме информационной цепи, и представляет собой аналог описания электрической цепи, что первоначально представлялось некоторым доказательством аналогий в полях различной физической природы. Но в последующем, чтобы избежать обвинения в физикализме, автор вывел [4] это соотношение на основе зако нов диалектической логики (<отрицания, отрицания отрицания, единства противоположностей).
В дальнейшем на основе закона всеобщей взаимосвязи и взаимозависимости было получено описание процессов с учетом взаимного влияния компонентов, отображающих проблемную ситуацию, друг на друга в форме системы уравнений типа:
Н\ |
= |
Т\\ dJ\/dt, L\\ d2J\/d t2, |
^12 dJ2/d(, L\2 d2Jj/d i2, ...); |
|
#2 |
= fU i/**2b Г21 dJ\/dt, Li\ d2J\/d t2, Ji/nib |
dJi/dt, L22 d2J2/dt2y...); |
||
H, = A J M „ |
Th dJ/dt, L„ d2J;/dt2, J /n 0, r„ dJ/dt, L„ d2J,/dt2, ...); |
(10) |
||
Hm =f{J\/nmh Tm , dJ\/dt, L„, d2J,/dt2, J2/nm2, rm2 dJ2/dt, Lm2 d2J2/d t2, |
, |
|||
|
|
Jn/ftmm, Tmm d jm/dt, Lmm d J ^ d t |
, ...), |
где nu означает собственный объем /-го понятия, a ni} - взаимный объем /-го иу-го поня тий; соответственно тн и Lti - собственные информационное сопротивление и ригидность данного понятия, а ц и Ll} - взаимное информационное сопротивление и взаимная ри гидность /-го и у-го понятий.
Система размытых, относительно истинных (диалектических) суждений типа (10) позволяет сделать символическое размытое умозаключение путем решения этой системы по правилам, отличающимся от математических в той мере, в какой диалектическая ло гика отличается от классической, т. е. в меру влияния законов тождества и исключенно го третьего.
В соотношениях (9) и (10) в случае допустимости линейной аппроксимации могут быть знаки «+» между компонентами, но в общем случае - более сложные отношения логического суммирования. Однако для значи тельного числа практических приложений допустима линеаризация объединения логических информаций, характеризующих статику, кинематику и динамику исследуемого процесса при условии, что периодически (с учетом закона перехода количественных изменений в качественные) следует пересматривать константы п, т. L,
Если учесть изменение не только Я, но и информацию восприятия J, то можно получить соотношения для С, аналогичные (9) и (10).
На основе этих понятий разработаны обобщающие закономерности, информацион ные оценки, информационные модели систем различной физической природы.
Информационный подход нашел широкое применение для моделирования систем управления [3, 6], для исследования многокритериальных задач [4, 9], отображения про блемных ситуаций с учетом взаимного влияния отображаемых объектов или материаль ных свойств исследуемого объекта [4, 10, 13 и др.], для сравнительного анализа иерархи
180
ческих структур [6, 8, 10, 11 и др.] (см. Целостность), при разработке проектов сложных технических комплексов [13] и т. д.
На базе информационных оценок разработаны методы организации сложных экспер тиз [12] (см. Методы организации сложных экспертиз).
Примечание. В литературе термин информационный подход используется и в более широком смысле.
А.А. Денисов.
Литература: 1. Денисов А .А. Теоретические основы кибернетики: Информационное поле. - Л.: ЛПИ, 1975. - 40 с. 2. Денисов А .А. Основы теории информационных цепей: Конспект лекций. - Л.: ЛПИ, 1977. - 48 с. 3. Денисов А .А . Информация в системах управления: Учебное пособие. - Л.: ЛПИ, 1980. - 67 с. 4.Денисов А .А ., Колесников Д.Н. Теория больших систем управления: Учебное пособие для студентов вузов. - Л.: Энергоиэдат, 1982. - 288 с. 5. Теория систем и методы системного анализа в управлении и связи / В .Н .В олкова, В .А .В оронков, А .А .Д енисов и др. - М.: Радио и связь, 1983. - 248 с. 6. Денисов А.А. Информационные основы управления. - Л.: Энергоатомиздат, 1983. - 72 с. 7. Денисов А.А . Введение в
информационный анализ систем: Текст лекций. - Л.: ЛПИ, 1988. - |
52 с. 8. Денисов А.А ., |
Волкова В.Н. Ие |
|||
рархические системы: Учебное пособие. - Л.: ЛПИ, 1989. - |
88 с. |
9. Системное проектирование радиоэлек |
|||
тронных предприятий |
с |
гибкой автоматизированной |
технологией/В.Н. В олкова, |
А. П. Градов, |
|
А. А. Д енисов и др. |
-М .: |
Радио и связь, 1990. - 293с. 10. Системный анализ в экономике и организации |
производства: Учебник для студентов вузов / Под ред. В алуева, В. Н. В олковой. - Л.: Политехника, 1991. - 398 с. 11. Волкова В.Н., Денисов А .А. Основы теории систем и системного анализа. - СПб.: Изд-во СПбГТУ, 1997. Изд. 3-е - СПб: Изд-во СПбГПУ, 2003. - С. 155-232. 12. Волкова В.Н., Денисов А.А. Мето ды организации сложных экспертиз. - СПб.: Изд-во СПбГТУ, 1998. - 48 с. 13. Широкова С.В. Разработка информационных моделей системного анализа проектов сложных технических комплексов. - СПб.: Изд-во СПбГТУ, 1998.-23 с.
Информационный поиск - некоторая последовательность операций, выполняе мых с целью отыскания документов (статей, научно-технических отчетов, описаний к авторским свидетельствам и патентам, книг и т. д.), содержащих определенную инфор мацию (с последующей выдачей самих документов или их копий), или с целью выдачи фактических данных, представляющих собой ответы на заданные вопросы [3, с. 248].
Массив элементов информации, в котором производится информационный поиск, был условно назван поисковым массивом [3].
Теория информационного поиска документальной информации разрабатывалась для
научно-технической информации (см.)
Втеории научно-технической информации сложились определенные представления
опроцедуре информационного поиска, видах и структуре информационных систем, вве ден ряд понятий, которые полезно использовать при разработке систем информационно го обеспечения и в других сферах деятельности. Теория информационного поиска НТИ начиналась с исследования особенностей документальных информационно-поисковых систем (ДИПС).
Процесс поиска документов может быть формализованно описан в терминах теории
множеств следующим образом [5]: D - некоторое множество документов или библиоте ка (поисковый массив); Q - множество информационных запросов; R - отношение, свойство, при наличии которого любому q € Q ставится в соответствие подмножество D 'a D, называемое ответом на информационный запрос.
Очевидно, что прочитать каждый документ библиотеки, чтобы найти необходимый, практически невозможно. Поэтому на протяжении истории развития информационного поиска разрабатывались и совершенствовались различные методы поиска.
Прежде всего, каждому документу, вводимому в поисковый массив, ставится в соот ветствие поисковый образ документа (ПОД), который представляет собой характеристи ку, отражающую основное смысловое содержание документа. Этим ПОД отличается от
181
кода, присваиваемого информационному элементу в фактографических информацион ных системах (см.).
В виде такой же краткой характеристики - поискового предписания или поискового образа запроса {ПОЗ) должен быть сформулирован и информационный запрос. Благода ря этому процедура поиска может быть сведена к простому сопоставлению поисковых образов документов с поисковым предписанием.
Однако такое сопоставление допустимо лишь в случае, если ПОД и ПОЗ описаны в терминах единого языка.
Простейшим ПОД может являться заглавие документа, переписанное в форме пе речня входящих в него слов. При этом необходимо установить некоторые правила типа включения в ПОД существительных в единственном числе и именительном падеже, гла голов - в неопределенной форме или в виде отглагольных существительных и т. п. пра вил, общих для формирования ПОД и ПОЗ.
В более развитых вариантах для уточнения содержания документа можно в качестве ПОД использовать аннотацию или реферат документа, также переписанные в виде перечня входящих в них слов с учетом некоторых правил, общих для формирования ПОД и ПОЗ.
Поскольку в практических условиях реализации ИПС число слов, включаемых в ПОД и ПОЗ, не должно быть слишком большим, вводится понятие ключевые слова, ко торые являются наиболее значимыми для отображения содержания документа.
Некоторые идеологи информационного поиска (например, Ч. Мидоу [6]) отождествляли понятия ключе вое слово и дескриптор. Однако в дальнейшем эти понятия стали использоваться в разном смысле.
В дальнейшем для отображения ПОД и ПОЗ стали разрабатываться информационно поисковыеязыки, которые имеют различные возможности.
Применение естественного языка для отображения ПОД и ПОЗ связано со значи тельными трудностями, обусловленными наличием в языке синонимов, омонимов и т. п. неоднозначностей использования терминов естественного языка. Поэтому на определен ном этапе развития теории и практики создания ИПС вместо естественного языка стали применять искусственные информационно-поисковые языки - ИПЯ.
Существуют различные названия и определения специализированного языка, с по мощью которого отражают основное содержание документов, вводимых в ИПС.
Такой язык называли вначале информационным языком (ИЯ), предъявляя к нему требование однознач ной записи содержания документа; языком индексирования (index language), определяемым как совокупность, система символов или индексных терминов и правил их использования для выражения предметного содержа ния документов; документальным языком (language documentaire) и т. п. (подробнее с обзором этих терминов можно познакомиться в [7]).
В окончательном варианте понятийного аппарата теории информационного поиска утвердился термин информационно-поисковый язык {retrieval language).
Обобщая различные представления об информационно-поисковом языке, можно дать следующее определение:
Информационно-поисковый язык является формализованной семантической систе мой, обеспечивающей передачу (запись) содержания документа в объеме, необходимом для целей поиска.
Документ, записанный на этом языке, может быть и не понят человеком, даже если в записи использу ются слова естественного языка, поскольку в ИПЯ употребление слов, выражений, огношений между ними стандартизировано определенным образом.
Задачей ИПЯ является перевод содержания документа в поисковое предписание или поисковый образ документа (при вводе документа в ИПС) и перевод содержания запро са пользователя в поисковый образ запроса {поисковое предписание).
1 82
Первые исследователи в качестве составляющих ИПЯ выделяли: алфавит (набор бу квенных и цифровых символов); слова, формируемые из алфавита с помощью морфоло гических правил - морфологии; словарь перевода (в котором каждому слову или осмыс ленной конструкции естественного языка сопоставлено слово или словосочетание ИПЯ); правила, отражающие взаимоотношения между словами документа, которые в конкрет ных ИПЯ реализуются, например, с помощью текстуальных или контекстуальных от ношений, или с помощью специальных правил грамматики - синтаксис.
Словарь может состоять из ключевых слов (<словосочетаний) или дескрипторов.
Вотличие от ключевых слов, выбираемых предварительно из документов массива, для поиска в котором разрабатывается ИПЯ, под дескриптором понимается некоторый (вы бранный разработчиком ИПЯ), обобщающий термин для отображения группы синонимов или слов, которые для целей поиска в конкретной ИПС можно считать синонимами.
Такие слова объединяют в класс условной эквивалентности, обобщаемый соответст вующим дескриптором, и если в тексте документа или запроса встречается слово из данного класса, то его заменяют в ПОД или ПОЗ дескриптором.
Иными словами, дескриптором можно назвать имя класса условной эквивалентности.
Вразличных языках эти компоненты ИПЯ используются по-разному. Словарь может иметь достаточно сложную структуру, т.е. представлять собой тезаурус, который может включать в себя и алфавит, и слова, и словосочетания, и более сложные конструкции.
Под грамматикой (которую иногда называют синтактикой, синтаксисом, что сужа ет понятие грамматики, исключая из него морфологию) понимаются правила, с помощью которых формируются смысловыражающие элементы языка.
Пользуясь этими правилами, можно лучше отразить смысл документа или запроса в ПОД и ПОЗ, повышая релевантность поиска.
Для сопоставления ПОД и ПОЗ - разрабатывают и применяют различные критерии поиска
или критерии смыслового соответствия - КСС (см.).
Точность поиска определяется точностью отображения документов и запросов с по мощью их поисковых образов и степенью совпадения ПОД и ПОЗ. Поэтому возможна неполнота выдачи документов, либо, напротив, “поисковый шум”, которые представля ют собой своеобразную плату за облегчение процедуры информационного поиска.
Для оценки качества поиска вводят специальные критерии. Обобщенные критерии ка чества поиска - релевантность и пертинентность.
Под релевантностью понимается соответствие выдачи запросу, т.е. релевантность характеризует качество алгоритма поиска.
Под пертинентностью понимается соответствие выдачи потребностям лица (или лиц), для которого (которых) осуществляется поиск информации, т. е. пертинентность характеризует смысловыражающие возможности ИПЯ, точность отображения с его по мощью информационных потребностей.
Предлагаются и используются различные конкретные критерии количественной оценки релевантности и пертинентности (см., например, [1 - 6 ] и др.).
Разработка комплекса критериев оценки качества информационного поиска - доста точно сложная проблема: состав и количественные характеристики критериев зависят от конкретного назначения и принципов реализации ИПС.
Информационный поиск осуществляется с помощью информационно-поисковой системы (см.).
В.Н. Волкова.
Литература: 1. Информационные системы: Учебное пособие для вузов / Под ред. В .Н .В олковой и Б.И .К узина. - СПб.: СПбГТУ, 1998. - 215 с. 2. Мидоу Ч. Анализ информационно-поисковых систем. - М.:
183
Мир, 1970. - 368 с. 3. Михайлов А.И., Черный А.И., Гиляревский Р.С. Основы информатики. - М.: Наука, 1968. - 756 с. 4. Певзнер. Б.Р. Информационно-поисковые системы и информационно-поисковые языки. - М.: ИПКТР, 1974. - 50 с. 5. Соколов А.В. Информационно-поисковые системы: Учебное пособие для вузов. - М.: Радио и связь, 1981. - 161 с. 6. Черный А.И. Введение в теорию информационного поиска. - М.: Наука, 1975.-298 с.
Информация - в первоначальном смысле сведения вообще.
Первое научное осмысление этого понятия началось в теории связи. Были введены меры информации.
В 1924 г. Г. Найквист показал, что скорость передачи сигналов W по каналу связана с числом п различных кодовых символов зависимостью
W = к log п,
где к - константа, определяемая скоростью передачи последовательных символов. Он первым предложил логарифмическую меру информации.
В1928 г. Р. Хартли [14] определил информацию сообщения как
Н= т log п,
где т - количество символов в сообщении, а п - количество доступных для использова ния различных символов.
С точки зрения современной теории информации эта мера применима только тогда, когда символы выбираются независимо один от другого, и выбор любого из символов равновероятен.
Наиболее полное развитие теории информации применительно к проблемам ее пере дачи было осуществлено в 40-е гг. XX в. К. Шенноном [17].
Шеннон связал понятие информации с понятием энтропии (см.) и предложил сле дующую меру количества информации:
п
н= - ^ рА°%р, ’
/= |
где pi - вероятность того, что будет выбран /-й символ из полного набора в п символов, которые вырабатывает источник сообщений.
Величина Н (энтропия) измеряется в битах (от англ, binary digit - двоичная система). Работы Шеннона и его последователей нашли широкое применение на практике - при оптимизации каналов связи, в системах обработки данных, при разработке электрон
но-вычислительной техники и т. п.
Важные аспекты теории информации применительно к теории связи были исследо ваны А.Н. Колмогоровым, Н. Винером. В частности, они независимо решили задачу фильтрации (выделения полезного сигнала из комбинации «сигнал-шум» при заданных статистических характеристиках сигнала) и предсказания значения полезного сигнала.
Эта задача находит широкое использование при проектировании непрерывных ди намических систем, в системах управления технологическими процессами.
С развитием кибернетики (см.) и теории систем (см.) понятие информации развивалось. Дня оценки возможностей различных технических средств сбора, передачи и обра ботки информации были предложены: теоретико-игровой подход к оценке информации
Р.Л. Стратоновича [8, 9], алгоритмический подход М.М. Бонгарда [2].
В дальнейшем информацию стали связывать не только с источником и приемником сигналов, но и с ее значением для потребителя, наблюдателя (см.).
184
Вначале имелись попытки применения рассмотренных выше мер и для оценки цен ности социальной информации. Однако при этом возникают трудности доказательства адекватности таких мер.
Предпринимались также попытки создать семантическую теорию информации. Из них наиболее известной является концепция Р. Карнапа и И. Бар-Хиллела [20], базирую щаяся на понятии логической вероятности как степени подтверждения гипотезы. В со ответствии с этой концепцией наивысшей ценностью обладают гипотезы, подтвер жденные достоверным знанием, экспериментом. В этом случае логическая информация приравнивается единице, а семантическая нулю. С уменьшением степени подтверждения гипотезы количество содержащейся в ней семантической информации увеличивается. Следует отметить, что при этом гипотезы формулируются на специальном языке, пред ложенном в рассматриваемой теории.
Развивая концепцию Карнапа - Бар-Хиллела, Л. Бриллюэн [1] предложил разновид ность статистической меры для измерения семантической информации, основанную на измерении и уменьшении неопределенности,
/, =Х1п(/у/>,)= К\пР0 - К \п Р и
где Р0 - число исходных равновероятных исходов (при исходной, априорной информации о задаче /0 = 0); Р\ - число равновероятных исходов, уменьшенное после получения инфор мации; /| - апостериорная информация, получаемая после уменьшения неопределенности; К - постоянная, зависящая от выбора системы единиц.
Например, поскольку Бриллюэн пользуется натуральным логарифмом, то для перевода в биты К = 1/1п 2.
А.А. Харкевич [13] связал ценность информации с целью деятельности, предложив рассматривать энтропийную меру Шеннона как меру вероятности непопадания в пора жаемую цель, т. е. вероятности недостижения цели.
Ю.А. Шрейдер предложил построить теорию семантической информации на основе концепции разнообразия, а не концепции снятия неопределенности, и в частности, на основе учета такого свойства информации как зависимость получаемой информации от априорной информации [18, 19]. Опираясь на идею Н. Винера о том, что для понимания и использования информации получатель должен обладать определенным запасом зна ний, т. е. в терминах математической лингвистики и теории языков - тезаурусом (см.), Ю.А. Шрейдер определяет количество семантической информации, содержащейся в тексте Г, как степень изменения тезауруса. 0 1{Т, 0 ).
Динамику насыщения индивидуального тезауруса Ю.А. Шрейдер иллюстрирует не которой условной зависимостью (см. рисунок), характер которой зависит от конкретного потребителя информации или накапливающей информацию информационной системы.
Такой подход существенно отличается от концепции выбора при статистическом подходе, при котором предполагается, что получаемая информация тем больше, чем меньше априор ных сведений содержится в приемнике инфор мации. Напротив, по Шрейдеру, чем более сложную структуру имеет тезаурус, тем больше существует возможностей для изменений под
воздействием одного и того же сообщения. Это хорошо согласуется с законом «необхо димого разнообразия» У.Р. Эшби (см.), согласно которому управляющая (осмысливаю щая, понимающая, принимающая решения) система должна обладать большим необхо
185
димым разнообразием (сложностью) по сравнению с разнообразием поступающей в нее информации от управляемой (понимаемой) системы.
Предлагаемый Шрейдером подход согласуется также с наблюдениями за процессами обмена информацией: по мере роста наших знаний об изучаемом объекте растет и коли чество извлекаемой информации об этом объекте.
Для количественной оценки ценности семантической информации предлагались раз личные меры.
Так, М.Волькенштейн [4] предлагает определять ценность следующим образом:
А1Э |
-С <9/ |
|
V = B + I с |
» |
0 ) |
где / - количество поступающей информации; <9-тезаурус; А, В, С - константы. |
||
При очень большом © и очень малом © |
(или 1) |
V неограниченно убывает. При |
очень большом I V —> А©. Максимальное значение информации соответствует условию © = //С, т. е. когда © пропорционален количеству получаемой информации.
Дальнейшим развитием этого подхода является мера, предлагаемая в [8] для общече ловеческого тезауруса, под которым понимается совокупность понятий, вырабатываемых человечеством в процессе научного познания природы, общества и мышления, связанных Друг с другом. Процесс научного познания представляется как уточнение старых и форми рование новых научных понятий, в выявлении и корректировке связей между понятиями, т. е. тезаурус трактуется как определенная структура, которая изменяется под воздействием новой информации в процессе познания и предлагается гипотетический подход, в соответ
ствии с которым информация не одинаково зависит от сложности структуры: |
|
|||
г |
J |
ах2для лг < 0; |
|
|
Л ~ |
1 , |
1/3 |
л |
\ г ) |
|
I foe для* > 0, |
|
||
где / - количество информации в сообщении; |
х - изменение сложности структуры обще |
человеческого тезауруса науки; awb -коэффициенты.
Соотношения (2) можно интерпретировать следующим образом. Если под воздейст вием сообщения внутренняя структура общечеловеческого тезауруса Остановится менее сложной, чем до этого сообщения, то в таком сообщении содержится больше информа ции, чем в сообщении, вызывающем усложнение структуры <9, т. е. количества (ценно сти) информации / больше при * < 0.
Этот вывод согласуется с опытом: известно, что крупные научные открытия в целом упрощают структуру знания - благодаря введению новых, более общих понятий, что и является следствием и проявлением свойства кумупятивности информации.
Авторы [7] оговаривают гипотетичность предлагаемого подхода к оценке ценности информации в зависимости от структуры представления общечеловеческого тезауруса, и высказывают идею о необходимости поиска иных мер оценки ценности информации.
Для оценки удовлетворения информационных потребностей в теории научнотехнической информации введены меры релевантности и пертинентности (см. Ин формационно-поисковая система).
В дальнейшем стали осознавать, что существуют различные виды информации.
Е.К. Войшвилло [3] предложил различать информацию восприятия (знак) и информа цию-значение, смысловое содержание для потребителя информации (означаемое знака).
В дальнейшем с точки зрения наблюдателя информацию рассматривали в несколь ких аспектах: прагматический - для достижения целей наблюдателя; семантический - с
186
точки зрения смыслового содержания и правильности толкования; синтаксический (или материально-энергетический, технологический, алгоритмический) - с точки зрения тех ники, правил преобразования и передачи информации.
При этом считалось, что наиболее общим является понятие прагматической информа ции, а семантический и синтаксический аспекты информации имеют подчиненное значение.
Рассматривали эти аспекты и как уровни существования информации и вводили для разных уровней разные оценки (иногда с экзотическими названиями [15, 16]).
Так, в системе мер оценки экономической информации, изложенной в работах Ю.И. Черняка [15, 16], пред лагается различать несколько аспектов (уровней) представления и измерения экономической информации: с точки зрения ее полезности для решения задачи (прагматики), смысла или семантики текста, синтактики (правил преобразования) знакового отображения, морфологии образования знаков - слов и словосочетаний, и передачи информации по каналам связи. Для каждого уровня вводятся свои меры информации в терминах, принимаемых на этом уровне решений {прагма, сем, знак или символ, бит и т. п.).
Развивалось понятие информации и как философской категории. В частности, А.Д.Урсул [11, 12 и др.] стал рассматривать информацию как форму существования материи, подобно массе и энергии.
Втеории информационного поля (см.) А.А. Денисова информация рассматривается как структура материи [6], как категория, парная по отношению к материи.
Вэтой теории также вводятся понятия чувственной (см. Чувственное восприятие, чувственная информация) и логической (семантической и прагматической) информации (см. Логическая информация), которые для удобства практических приложений названы
информацией восприятия и информационным потенциалом (см.).
Долгое время в предыдущих теориях эти информации рассматривались как отдельно существующие, или как уровни информации, и поэтому единое определение понятия информации являлось предметом дискуссий.
A. А. Денисов показал, что информацией для потребителя является пересечение ин формации восприятия или чувственной информации (см.) и ее потенциала или логиче ской информации (см.), в результате чего формируется единое понятие - информацион ный смысл, информационная сложность (см.).
Кроме того, в концепции А.А. Денисова учитывается, что далеко не всегда может быть строго определено вероятностное пространство. В этом случае можно использовать понятие размытой вероятности в смысле Заде. Поэтому предложена информационная мера, учитывающая степень влияния ресурсов (в том числе информации как ресурса) на реализацию целей [5 и др.]. Эта мера позволяет учесть не только вероятность достиже ния цели (подцели) ph но и вероятность qt того, что данная информация будет использо вана лицом, принимающим решение, при реализации цели:
н =I -Z1о %2<?/(1P i )- |
(3) |
Мера Шеннона получается из соотношения (3) при q, = Pi как частный случай.
В социально-экономических системах управления в зависимости от формы различа ют документальную и фактографическую, от приложений - производственную, научнотехническую и т. п. виды информации (см. Информационные системы).
B. Н. Волкова.
Литература’. 1. Бонгард М.М. О понятии «полезность информации» // В сб.: Проблемы кибернетики. Вып. 9. - М.: Физматгиз, 1963. 2. Брнллюэн Л. Научная неопределенность и информация- М.: Мир, 1996. 3 . Войшвнлло Е.К. Попытки семантической интерпретации статистических понятий и энгропии // В кн.: Кибернетику - на службу коммунизму, т. 3. - М.: Энергия 1966. Войшвилло Е.К. Понятие. - М.: МГУ, 1967. 4 . Волькеиштейн М. Стихи как сложная информационная система // Наука и жизнь, 1970-№ 1. С. 73-74. 5. Денисов А.А. Информационные основы управления. - Л.: Энергоатомиздат, 1983. - 72 с. 6. Денисов А.А.
187
Информационное поле. - СПб.: Изд-во «Омега», 1998. 7. Михайлов А .И ., Черный А .И ., Гнляревский Р.С.
Научные коммуникации и информатика. - |
М.: Наука, 1976. - 435 с. 8. Стратонович РЛ . О ценности инфор |
||||
мации // Изв. АН СССР: Техническая кибернетика, 1965, № 5. 9. Стратонович РЛ . Теория информации |
- |
||||
М.: Сов. радио, 1975. 10. Управление, информация, интеллект / Под ред. А .И .Берга, Б. В. Бирю кова |
и |
||||
др. - М: Мысль, 1976. - 383 с. |
11. Урсул А. Д. Информация. - М.: Наука, 1971. - 295 с. 12. Урсул А.Д. |
||||
Отражение и информация. - М., Мысль, 1973. - |
231 с. |
13.Харкевич А.А. О ценности информации // В сб.: |
|||
Проблемы кибернетики. Вып 4. - |
М.: Физматгиз, |
1960. |
14. Хартли Р. Передача информации // Теория ин |
||
формации и ее приложения. - М.: 1959. |
15. Черняк Ю .И . Информация и управление. - М.: Наука, 1974. - |
||||
184 с. 16. Черняк Ю .И ., Чухнов А .И ., Финкелыптейн Ю .Ю . Система мер информации как инструмент опти |
мизации языка управления // Языки экономического управления и проектирования систем. - М.: Наука, 1973. - С. 24-27. 17. Шеннон К. Э. Работы по теории информации и кибернетике: Сб. статей. - М.: Иностр. лит., 1963. 18.Шрейдер Ю .А . О количественных характеристиках семантической информации//Научнотехническая информация, 1963, № 14. 19. Шрейдер Ю .А . Об одной модели семантической теории информа ции//В сб.: Проблемы кибернетики. Вып. 13. - М.: Наука, 1965. 20. Bar-Hillel Y., Karnap R. Semantic Infor mation / Bitish Journal of the Philosofy of Science, 1953, v. 4, № 14.
5/скусственный интеллект (ИИ) - область научного знания, объединяющая
большое число направлений, занимающихся исследованием принципов и закономерно стей мыслительной деятельности и моделированием задач, которые традиционно отно сят к интеллектуальным.
В настоящее время в число направлений ИИ включают работы от исследования прин ципов восприятия (моделирование органов зрения, осязания и т. п.) и моделирования функ ций мозга до специальных методов доказательства теорем, диагностики заболеваний, игры в шахматы, написания стихотворений и музыкальных произведений, сказок и т. п.
Теория искусственного интеллекта имеет достаточно длительную предисторию. Идея создания искусственного подобия человека для решения сложных задач и мо
делирования человеческого разума возникла еще в древние времена.
Первые искусственные «люди» были механическими роботами (см.). Так, в Древнем Египте была создана «оживающая» механическая статуя бога Амона. У Гомера в «Илиаде» бог Гефест ковал человекоподобные суще ства-автоматы. Из легенд средневековья известен «подвиг» Фомы Аквинского, создавшего светящуюся куклу, которая умела ходить и говорить.
В литературе идея искусственного создания человека обыгрывалась многократно: Галатея в «Пигмалио не», Буратино папы Карло, Ксаверий в «Золотой цепи» А. Грина и т. д. И это были уже не механические статуи, а существа, способные мыслить, высказывать свои мысли и совершенствоваться.
Родоначальником собственно искусственного интеллекта как «искусственного мышления» иногда счита ют средневекового философа, математика и поэта Раймонда Луллия, который в XIII в. попытался создать логическую систему для решения различных задач на основе классификации понятий и комбинирования понятий из разных классов.
Первыми теоретическими работами в области искусственного интеллекта можно считать работы Г. Лейбница и Р. Декарта, которые независимо друг от друга продолжили идею универсальной классификации наук (XVIII в.).
Однако формирование ИИ как научного направления начинается после создания ЭВМ (в 40-х гг. XX столетия) и кибернетики (см.) Н. Винера, частью которой первона чально считались и работы по ИИ. А оформление ИИ в самостоятельную область знаний произошло в 50-60 гг. XX в.
Термин «Искусственный интеллект» - Artificial Intelligence (AI) - был предложен в 1956 г. на семинаре с аналогичным названием в Дартсмудском колледже (США), посвя щенном решению логических задач.
В переводе с английского термин «Intelligence» буквально означает «умение рассуждать разумно», а не «интеллект» (Intellect). Но этот термин вполне отражает задачи этого научного направления.
188
Первоначально работы в области ИИ начинались с моделирования элементарных игр в кубики, крестики-нолики и т. п., создания интеллектуальных роботов и планирования их поведения. Эти задачи являются классическими при обучении теоретическим основам ИИ. На идеях их решения были разработаны основные модели представления знаний: продукционные, семантические сети, фреймы.
Но первыми работами, которые внесли существенный вклад в становление ИИ как науки, считают работы Ф. Розенблатта и У. Мак-Каллока, создавших в 1956-1965 гг. первые нейронные сети и устройство, получившее название «персептрон» (perception) [14, 23]; А. Нюэлла, Дж. Шоу, Г. Саймона, создавших машину «Логик-теоретик» и дру гих создателей «решателей задач» [7]; М. Минского (автора модели фрейма и фреймово го представления знаний) [14].
Примерно в те же 50-60 гг. XX в. началось становление ИИ и в нашей стране. Но в отличие от зарубежных работ, которые шли от моделирования игр, создания устройств восприятия типа «персептрон» и интеллектуальных роботов (т. е. от практики, экспери ментов) и только в 1990-е гг. появились их теоретические работы (например, [8]), в
СССР пытались в первую очередь решить проблему методологически, концептуально.
В 1954 г. в МГУ под руководством А.А. Ляпунова начал работать семинар «Автома ты и мышление». В этом семинаре принимали участие физиологи, лингвисты, психологи, математики.
На различных семинарах и в печати в течение длительного периода обсуждались проблемы «может ли машина мыслить?», «можно ли создать электронный мозг, подоб ный мозгу человека?», «почему невозможен искусственный интеллект» и т. п. Подобные дискуссии продолжались до 80-х гг. XX в. [12].
Предлагались различные концепции моделирования мозга - нейронная (А.В. Напал ков), вероятностная (А.Б. Коган), полевая (В.В. Налимов) и т. п. (подробнее см. Нейро кибернетика).
Проводились исследования закономерностей мышления и разумного поведения (В.Н. Пушкин [18, 21], Н.М. Амосов [3]), принципов и моделей творчества (Г.С. Альтшуллер [2 и др.], А.И. Половинкин [16]), эвристических решений ([1] и др.), работы по распознаванию образов (М.М.Бонгард [6], который в 60-е гг. XX в. разработал алгоритм «Кора», моделирующий деятельность человеческого мозга при распознавании образов), по созданию лексических и семиотических основ моделирования задач ИИ (Ю.Д. Апре сян [4] и др.).
Большой вклад в становление отечественной школы ИИ внесли М.Л. Цетлин, М.А. Гаврилов.
Параллельно в 60-70 гг. XX в. разрабатывались отдельные программы и проводились исследования в области поиска решения логических задач, доказательства теорем. Такие работы проводились в Ленинграде (Ленинградское отделение математического институ та им. Стеклова), в Киеве (в Институте Кибернетики АН УССР под руководством В.М. Глушкова) и некоторых других научных центрах.
В качестве особого этапа в развитии ИИ необходимо отметить создание школы си туационного управления или ситуационного моделирования (см.). Эта школа первона чально возникла в Московском энергетическом институте. Основателем школы является Д.А. Поспелов [18-20], который в последующем работал в ВЦ АН СССР. Идеи Д.А. По спелова развивали его ученики - В.А. Вагин, создавший в последующем самостоятельное направление в рамках ИИ, Ю.И. Клыков, Л.С. Загадская (Болотова) и др., разрабатывав шие лингвистические средства моделирования ситуаций и представления знаний [5, 13, 21 и др.], явившиеся в последующем хорошей основой для развития ИИ.
189