Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Бирюков, Б. В. Кибернетика и методология науки

.pdf
Скачиваний:
18
Добавлен:
22.10.2023
Размер:
16.16 Mб
Скачать

Очевидно, что такой подход отображает паше естест­ венное, интуитивное представление об акте познания. Это хорошо показано в методологическом анализе поня­ тия информации, проведенном А. Молем (1966). В каче­ стве отправной точки Моль берет определение информа­ ции, которое дал Маккей (предложивший некоторую но­ менклатуру теоретико-информационных понятий): в наи­ более общем смысле информация есть то, что прибавляет нечто новое к некоторому имеющемуся представлению. Этот исходный пункт связан, коиечпо, с некоторой схемой передачи сообщений, очерченной, например, К. Шеннопом в работе 1948 г. в виде: «источник информации» — «передатчик» — «канал передачи сигналов» (на который действует «источник шума») — «приемник» — «адресат» (причем предполагается, что «оценка» информации произ­ водится адресатом). Тогда з н а ч и м о с т ь ( и н фо р м а ­ т и в н о с т ь ) сообщения для адресата окажется связанной

с его н е п р е д в и д е н н о с т ь ю ,

н е о ж и д а н н о с т ь ю

или, как еще говорит А. Моль,

о р и г и н а л ь н о с т ь ю :

степень последней

и может служить мерой к о л и ч е ­

с т в а информации.

Тем самым

и з м е р е н и е информа­

ции представляется в вероятностных терминах: то, что мало вероятно и поэтому трудно предвидеть, содержит большое количество информации, а что в высокой степе­

ни вероятно — предвидимо

и

обладает малым

количе­

ством информации.

что

информация — а значит и опреде­

Открытие того,

ленные стороны того, что

в философии называется з н а ­

ние м, — может

трактоваться

как и з м е р и м а я в е л и ­

ч ина ,

явилось

п е р в ы м

в а ж н ы м г н о с е о л о г и ч е ­

с к им

р е з у л ь т а т о м

статистической теории информа­

ции.

Конечно,

это

не

была исторически первая теория,

подошедшая к

знанию

с

«количественными

мерками».

Достаточно напомнить, что на начальных этапах развития теории вероятностей преобладала л о г и ч е с к а я ее интер­ претация (при которой вероятность понималась как мера знания о возможности события); что в XX столетии, когда в теории вероятностей утвердились нелогические (напри­ мер, частотная) концепции вероятности, упомянутую гно­

сеологическую

функцию — функцию «количественной

оценки» знания

(в определенной его форме) — стала вы­

полнять математическая статистика и затем, уже в наши дни, также и возникшая на ее базе математическая теория

231

эксперимента. Однако — и обоснованию этого тезиса фак­ тически посвящена вся эта глава — именно теория инфор­ мации открыла с и с т е м а т и ч е с к и й доступ к проблеме «измерения знания» во вс ей ее о бщно с т и . То обсто­ ятельство, что эта теория в ее первоначальном облике — при котором измерение информации основывается на «ори­ гинальности» сообщения, т. е. на степени его непредсказуе­ мости (но не на смысле) — далеко не «всесторонне» охва­ тывала многообразные стороны, присутствующие в «сведе­ ниях», «сообщениях», «знаниях», не должно затемнятъ это­ го факта. Прав А. Моль, когда пишет, что теория информа­ ции сразу же после своего возникновения вышла за преде­ лы узкотехнических приложений, и теперь она уже пред­ стает перед нами как одна из великих теорий науки, зани­ мая в ней одно из первых мест наряду с наиболее общими физическими теориями (А. Моль, 1966, стр. 29).

В т о р о й

в а ж н ы й г н о с е о л о г и ч е с к и й ре ­

з у л ь т а т

теории информации (разделяемый ею с семио­

тикой) — это,

говоря словами А. Моля (1966, стр. 276—

280), утверждение

идеи о м а т е р и а л ь н о с т и связи.

Суть этой идеи

состоит в следующем. Еще сравнительно

недавно — до XX столетия, во всяком

случае — в фокусе

внимания

была

«идеальная» сторона

межчеловеческих

коммуникаций, в то время как их материальная сторона, несмотря на письменность и книгопечатание, оставалась в

тени: «Мысль о том, что н е ч т о

«передается»,

заслоняла

собственно передачу» (А. Моль,

1966, стр. 277;

разрядка

наша.— Б. Б .). Но после открытия и гигантского распро­ странения других каналов, с помощью которых ныне осу­ ществляется связь во времени и пространстве (телефон, радио, запись звука, изображения и движения), «люди осознали, что с этой материальностью в качестве ее не­ разрывной части связано нечто, придающее значение грамму бумаги или числу пар телефонных кабелей, а именно — символ. Только после этого стало более или менее ясно, что связь материальна, в каком бы виде она ни осу­ ществлялась» (А. Моль, 1966, стр. 278). Это «выделение материального» в коммуникациях в социальном плане оказалось связанным с появлением категорий специа­ листов, совершающих операции над материальными носи­ телями идей: работников типографий, библиотекарей, киномехаников, инженеров связи и т. д.— лиц, имеющих дело не с содержанием сообщений, а только с той или иной

232

(«количественной» их стороной. Теория информации й Яви­ лась теоретическим осознанием факта материальности ком­ муникативных процессов.

Конечно, это не следует понимать в плане умаления «смысловой» (содержательной) стороны информации. Го­ воря философским языком, информационные процессы ма­ териальны, поскольку «всегда воплощены в том или ином материальном процессе взаимодействия, даже если это об­ мен идеями между людьми» (Л. Фаткин, 1970, стр. 212). Но непосредственная их «полезность», «назначение» и т. и. заключены, в конце концов, не в их материальности, а в несомом ими «идеальном» (смысловом) содержании. Как справедливо отмечает Моль, значимость аспекта «идеаль­ ности» связи стала даже очевидней после того, как про­ яснилась важность ее материальной — воплощаемой в фи­ зически реализуемых сигналах или знаках — стороны.

Оба гносеологических результата теории информации взаимосвязаны: материальность связи объясняет ее изме­ римость и подчеркивает то обстоятельство, что, как бы «далеко» от материальной формы сообщения ни стояла из­ меряемая его сторона (которой, например, может быть его смысл или эстетическая ценность), при оценке сообщений так или иначе приходится «считаться» с этой формой.

Не следует, конечно, преувеличивать значение стати­ стической теории как источника средств «измерения со­ общений». Ведь эта теория подвержена сильным ограни­ чениям. Главное ограничение статистической теории — и других родственных ей теорий информации, например, ком­ бинаторной, топологической и иных — определяется отвле­ чением от семантической стороны (значения, смысла) ин­ формации, от ее качественной разнородности, а также от существенности информации для получателя, от ее исполь­ зования последним — от прагматической стороны инфор­ мации; эти отвлечения сохраняют за шенноновской теорией информации лишь вопросы, связанные с формой существо­ вания, а не с содержанием и ценностью сообщений. Но именно благодаря этому отвлечению создателям теории ин­ формации удалось найти количественную меру, характе­ ризующую возможности передачи (и хранения) и преобра­ зования информации, построить математическую дисцип­ лину, отвечающую процессам передачи сообщений по ре­ альным физическим каналам связи. Ситуация здесь типич­ на для науки: обнаружение фундаментального факта (того,

233

что отношение между уровнями неосведомленности — не­ определенности знания — о ситуации до и п о с л е получе­ ния данной информации может быть использовано для ха­ рактеристики ее величины) имело необходимым условием соответствующую систему обобщений и идеализаций. Иде­ ализации эти (в силу самого метода измерения неопреде­ ленности ситуаций, который основан на учете их вероятно­ стей) с самого начала исключали основную массу «челове­ ческих черт», присутствующих в актах коммуникации и развития познания. Даже тогда, когда шенноновский аппа­ рат оказывается применимым к человеку, он предъявляет к последнему жесткие «требования» определенного «иде­ ального» поведения, например такого, которое свидетель­ ствует о том, что человек-адресат, принимая данное сооб­ щение, учитывает все полученные ранее сведения (в про­ тивном случае измерение поступившей информации через меру непредвиденности сообщения потеряет смысл). Это требование не вызывает затруднений в случае «техничес­ ких» приемников — обычных механизмов и приборов. Но в случае приемника-человека считать это предположение вы­ полненным можно лишь в первом приближении, «на пер­ вых порах», «оставляя в стороне случай, когда индивиду­ ум ведет себя так, как если бы он пренебрегал ранее из­ вестными ему элементами данного сообщения» (А. Моль, 1966, стр. 52).

Исходные ограничения теории Шеннона объясняют нам случаи очевидной неадекватности вытекающих из нее представлений вполне естественным гносеологическим ситуациям. Недостаточность статистической теории про­ является, например, в следующем (это отмечалось в совместной с А. Д. Урсулом статье автора, 1970). В соот­ ветствии с этой теорией получатель информации должен располагать определенным набором гипотез. Но почему приобретение знаний, получение сообщений, сведений дол­ жно обязательно предполагать обладание какими-то гипо­ тезами (или их предварительное построение) ? Это не ясно, особенно в случае приемника — человека. Ведь нам неред­ ко сообщают такое, о чем мы никогда и не догадывались, о чем никаких гипотез не имеем. Это свидетельствует о том, что статистическая теория информации отображает не все содержание даже самого «грубого» представления об ин­ формации. (Дальнейшие примеры неадекватности стати­ стической теории достаточно естественным «информацион-

234

ным ситуациям» можно извлечь из работы: Ю. А. Шрей­ дер, 1967.)

Характерной особенностью теории Шеннона является то, что в пей фактически нет понятия и н ф о р м а ц и и «как таковой», а есть лишь понятие количества информа­ ции; как раз через понятие количества информации (мера которого была введена Хартли и обобщена Шенноном, назвавшим соответствующую величину энтропией источни­ ка сообщений) в этой теории — а и м е н н о ее чаще все­ го имеют в виду, когда говорят о «теории информации» — уточнение некоторых аспектов содержательного понятия об информации (как сведениях, сообщениях, знаниях, и т. и.) осуществляется через определенный математический аппарат. Но из этого ни в коем случае не следует вывод о какой-то «ущербности» этой формализации феномена информации. В теории Шеннона решаются задачи, связан­ ные с вычислением количества информации, передаваемой по каналу связи, и поэтому определенное огрубление со­ держания понятия информации, прежде всего абстракция от разнородности, «природы», смысла, существенности, назначения, ценности для получателя и т. п. сообщений, оказывается оправданным и естественным: учет этих ха­ рактеристик, например, не нужен для инженеров, при­ званных решать проблемы, связанные с «искажением» длин волн, задержками, занятостью линий или, еще более конкретно, со стоимостью передачи слов по телеграфу в зависимости от расстояния (А. Моль, 1966, стр. 278). Именно понятие количества информации — и вообще фор­ мализация картины информационного процесса, впервые в развитой математической форме осуществленная Шен­ ноном,— дало толчок всему дальнейшему исследованию понятия информации и информационных взаимодействий.

Несмотря на упоминавшиеся выше ограничения, шен­ ноновская теория оказалась применимой в широком спект­ ре научных областей (а не только в технике связи), в част­ ности в психологических исследованиях (см. ниже). В распространении идей и аппарата этой теории особую роль сыграла кибернетика. Введенные в теории информа­ ции понятия о количестве информации, о законах ее пере­ дачи, хранения и преобразования позволили рассматривать с математической точностью и трактовать с единой инфор­ мационно-кибернетической точки зрения важные аспекты коммуникативных процессов и процедур управления

235

самой различной природы. В кибернетическом плане весь­ ма важным было то, что задачи, связанные с разработкой систем кодирования информации (обусловливающих вы­ сокую пропускную способность линии связи и способность процесса передачи информации противостоять помехам) и методами кодирования и декодирования сообщений, по­ лучили строгую постановку, что был создан аппарат их решения; что развернулись работы по построению и изу­ чению корректирующих кодов, по определению воз­ можностей и методов однозначного декодирования со­ общений, по анализу и синтезу систем кодирования инфор­ мации и т. д. Ибо представление об «информации», выте­ кающее из шенноновской теории, применимость которого в исследованиях самоорганизующихся систем живой при­ роды (а потом и «социума») была обнаружена фактически вместе с формированием кибернетики, в свете упомянуто­ го развития теории информации приобрело значение эф­ фективного инструмента научного анализа феноменов жи­ вого и социального.

Теория Хартли — Шеннона положила лишь на­ чало работе по уточнению понятия информации. Несоот­ ветствие понятия информации, как оно рисовалось в свете статистической теории, ряду существенных сторон ком­ муникативных процессов породило другие подходы в тео­ рии информации. Мы не будем их рассматривать — в фи­ лософском плане это сделано в работе А. Д. Урсула (см. также цитировавшуюся выше статью Л. Фаткина, 1970); кратко остановимся лишь на некоторых подходах.

Прежде всего следует указать на к о м б и н а т о р н ы й подход , при котором количество информации оказыва­ ется функцией числа элементов (и их комбинаторных отношений) конечного множества. Хотя при этом подходе не используются какие-либо статистические соображения, его можно считать родственным статистическому в той же степени, в какой математическая комбинаторика родствен­ на теории вероятностей.

Несколько дальше от статистической теории отстоит топологический подход, развитый американским ученым русского происхождения, математическим социологом и биофизиком Н. П. Рашевским (N. Rashevsky, 1955) исхо­ дя из задач математического описания явлений жизни. При этом подходе количество информации (в объекте, например, структурной формуле органической химии)

. т

определяется на основе топологических свойств: как мера тех различий топологических структур (например, гра­ фов), которые сохраняются при их топологических преоб­ разованиях («содержание топологической информации»).

Статистический, комбинаторный и топологический под­ ходы в теории информации имеют одну общую черту. Она заключается в том, что все эти «теории информации» отоб­ ражают аспекты о б р а з о в а н и я либо с т р о е н и я си­ стемы сигналов; но кроме этих аспектов информационные процессы включают в себя аспект п р е о б р а з о в а н и я систем сигналов (знаков) — их последовательностей во вре­ мени или конфигураций в пространстве (И. И. Гришкин, 1969). Этот аспект находит свое отражение в подходе в теории информации, который развивает А. Н. Колмогоров; в 1965 г. он предложил, а в дальнейшем развил принци­ пиально новое определение количества информации — ал ­ г о р и т м и ч е с к о е (А. Н. Колмогоров, 1965, 1969).

Замысел А. Н. Колмогорова состоит в следующем. В ка­ честве меры количества информации, а именно количества информации, содержащейся в одном объекте относительно другого объекта, рассматривается минимальная «длина» программы, позволяющая однозначно преобразовать один объект в другой объект; программа преобразования слу­ жит выражением с л о ж н о с т и этого «движения» от од­ ного объекта к другому. В статье 1969 г. А. Н. Колмого­ ров показал связь этого замысла с исследованием фунда­ мента как теории информации, так и теории вероятностей. В этой статье в качестве исходного понятия теории инфор­ мации выдвигается понятие условной энтропии объекта X при заданном объекте у, истолковываемое как количест­ во информации, требующееся для задания объекта х в обстановке, когда объект у уже задан; затем энтропия истолковывается как наименьшая длина «программы» (представленной в виде кортежа из нулей и единиц), кото­ рая дает возможность построить объект х, исходя из нали­ чия объекта у. По мнению А. Н. Колмогорова, на этом пути, опираясь на теорию частично-рекурсивных функций (теорию алгоритмов), возможно развить алгоритмическую теорию информации.

При статистическом подходе к информации аппарат теории информации развертывается на основе теории ве­ роятностей. В случае же алгоритмического определения Меры информации теорию информации можно cwraif?

237

предшествующей теории вероятностей и строить послед­ нюю на базе алгоритмически трактуемой теории информа­ ции. При таком «информационном» построении теории ве­ роятностей случайными будуіг естественно считаться такие события, которые не заключают в себе информации друг о друге (так, последовательность, все буквы которой оди­ наковы, не является случайной: ведь можно считать, что уже ее первая буква заключает в себе информацию о всех ее элементах) б.

Концепция А. Н. Колмогорова со всей силой подчерк­ нула относительность различных «путей» в теории инфор­ мации, в определенном смыслр их равносильность. Сам ав­ тор обратил внимание на важные философско-методологи­ ческие следствия развиваемых им положений. В их числе не только вывод, что основпые понятия теории информа­ ции могут быть обоснованы без обращения к теории ве­ роятностей, но и заключение, что понятия «энтропия» и «количество информации» могут стать применимыми к индивидуальным объектам (а не только к массовым со­ бытиям). (Следует заметить, что отчасти от аналогичных идей отправлялись Ингарден и Урбаник, предложившие аксиоматическое определение понятия информации — на основе понятия «булева кольца», — не предполагающее понятие вероятности, а, наоборот, позволяющее опреде­ лять на базе «информации» теоретико-вероятностные по­ нятия.— R. S. Ingarden, К. Urbanik, 1962; R. S. Ingarden, 1965.)

В свете этих работ становится очевидным, что ни ве­ роятность, ни информацию (количество информации) нет смысла трактовать в качестве «абсолютно первичных» (по отношению к своему корреляту) понятий, что возможны р а з н ы е построения — и такое, при котором вероятность предшествует информации, и такое, при котором послед­ нее является «вторичным» понятием; информация (коли­ чество информации), вероятность, неопределенность и другие подобные понятия, так сказать, «равноправны», «равнопорядковы» — отображают взаимосвязанные свойст­ ва объективной реальности и ее познания.

6Понятие случайной последовательности (а следовательно, и по­ нятие вероятности) было уточнено с помощью колмогоровского определения сложности П. Мартин-Лёфом. См. изложение его

результатов в кн.: Г.-Д. Эббинхауз, К. Якобс, Ф.-К. Ман, Г. Хермес, 1972.

т

Подводя итог рассмотрениям этого параграфа, можно сказать, что усилия по математической трактовке интуи­ тивно-содержательных представлений об информации как

осообщениях, передаваемых по «каналам связи», привели

кколичественному выражению — измерению — информа­ ции. Однако неполнота формализации не только интуитив­ но-содержательных (повседневных), но и научных («в науке») представлений об информации в статистической теории послужила толчком к развитию невероятностных ветвей теории информации. Это развитие привело к обога­ щению понятия информации в теории информации: ма­ тематизация предмета исследования сделала очевидным, что «информация» (как понятие, которым оперирует нау­

ка) не может сводиться лишь к «сведениям», «сообщени­ ям». Подход А. Н. Колмогорова (как отмечает сам автор), например, показал, что понятия теории информации могут стать основой новой концепции случайного, соответствую­ щей естественной мысли о том, что случайность есть от­ сутствие закономерности. Здесь обнаруживаются не только (очевидные с самого начала) гносеологические и методоло­ гические черты «информации», но также о н т о л о г и ч е ­ с к а я и м и р о в о з з р е н ч е с к а я функции этого поня­ тия.

Упоминавшиеся нами направления касаются того, что обычно называют структурно-синтаксической стороной информации — стороны, относящейся к процедурам обра­ зования, строения и преобразования сообщений как после­ довательностей или конфигураций сигналов или знаков. Но помимо этой стороны информация имеет с е м а н т и ­

ч е с к и е и

п р а г м а т и ч е с к и е аспекты. Первый по­

рождается соотнесением сигналов или знаков

(последо­

вательностей

или конфигураций сигналов или

знаков) с

некоторыми объектами или событиями; второй дает о себе знать в информации тогда, когда она выступает основой определенных практических действий. Наконец, следует отметить еще п с и х о л о г и ч е с к у ю сторону информа­ ции, относящуюся к специфике восприятия и переработки информации человеком.

Об этих аспектах информации — и относящихся к ним линиям информационных исследований — мы поговорим в своем месте, сейчас же сосредоточимся непосредственно на философско-методологической проблематике «феноме­ на информации»: на вопросе, как иногда говорят, о ее

239

«природе». В центре нашего внимания при этом будет общеметодологический подход к информации (количеству информации) как к понятию, характеризующему меру разнообразия, содержащегося в некотором объекте (мно­ жестве) .

3. «Разнообразностная» концепция

Теории информации, о которых шла речь в предыду­ щем параграфе — статистическая, комбинаторная, тополо­ гическая, алгоритмическая, — характерны тем, что они не пользуются явно (в самом математическом аппарате) по­ нятием информации — в этом аппарате присутствует лишь ме р а информации,— и тем не менее каждая из них неяв­ но определяет это понятие, точнее, определенную его сто­ рону.

Возникает вопрос, можно ли усмотреть какую-либо общность в этих неявных определениях?

Прежде чем мы попытаемся дать ответ на этот вопрос, очертим некоторые сложившиеся в литературе общемето­ дологические подходы к «природе» информации — подхо­ ды, оказывающие влияние не только на развитие теоретико­ информационных исследований, но и на интерпретацию процесса познания вообще. Один из этих подходов осно­ ван на обнаружении глубоких связей некоторых теоретикоинформационных концепций с определенными понятиями и теориями физики. Мы имеем в виду «негэнтропийный принцип информации», выдвинутый и обстоятельно обос­ нованный в работах Л. Бриллюэна (1960, 1966). Последний отправляется от связи между понятиями количества ин­ формации (в статистической теории информации), или эн­ тропией источника сообщений и (физической) энтропией (в статистической физике) — связи, хорошо выраженной в следующих словах Дж. Пирса: «Уменьшение энтропии (в смысле статистической механики.— Б. Б.) увеличивает свободную энергию системы. Но увеличение свободной энергии в точности равно минимально необходимой энер­ гии для передачи сообщения, которое приводит к увели­ чению свободной энергии, и эта энергия оказывается пропорциональной энтропии в теории информации... За информацию, приводящую к уменьшению энтропии (в статистической механике) системы, нужно расплачи­ ваться. Эта плата пропорциональна энтропии (в теории

2 4 0

Соседние файлы в папке книги из ГПНТБ