Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
History.doc
Скачиваний:
5
Добавлен:
01.12.2018
Размер:
513.02 Кб
Скачать

VI. О некоторых аспектах теории информации

Данная глава не имеет прямого отношения к средствам ин­формации и коммуникации, но, думается, сообщаемые в ней све­дения будут полезны для тех, кто собирается работать в сред­ствах массовой информации.

Первые попытки изучения такого явления как «информация» были предприняты в 20-е годы минувшего столетия, когда нача­лось бурное развитие средств массовой коммуникации. Уже тогда был введен ряд понятий, предвосхитивших некоторые идеи со­временного учения об информации.

В теории журналистики разработка данной темы началась прежде всего с уточнения самого понятия информации. Амери­канские ученые договорились считать информацией только но­вые, принципиально не похожие на уже известные факты. Совет­ским ученым А.Курсом был введен термин «информационная ценность», который также толковал это понятие как неповтори­мое качество явления, выделяющее его из повторяющегося ряда. В дискуссии с ним М.Гус определил ценность иначе, исходя из понятия цели. Такой подход будет позднее развит в теориях цен­ности информации.

Итак, как верно заметил один из ведущих наших философов, занимающихся проблемами информации, А.Урсул, «вначале в сферу исследования вовлекается качественный, содержательный аспект формирующегося понятия, а затем осуществляется пере­ход к исследованию его количественных характеристик.» (А.Д.­Урсул. Проблема информации в современной науке. 1975. С. 13)

Потребность в развитии средств массовой коммуникации в свою очередь потребовала совершенствования таких техничес­ких средств, как кинематограф и радио, а позднее — телевиде­ния. Технический и технологический аспекты развития новых коммуникационных систем вызвали к жизни новые количествен­ные подходы к измерению информации, которые в конечном ито­ге привели к созданию теории информации. Случилось это в 40-е годы XX века. Началось все со статьи К.Э.Шенона «Математическая теория связи», в которой давалось вероятно­стно-статистическое определение информации. Шенон предла­гал под информацией понимать не любые сообщения, которые мы получаем, а лишь такие, которые уменьшают неопределен­ность у получателя информации. Для ясности приведем несколько бытовых примеров: скажем, вы получили сообщение о том, что победила такая-то футбольная команда, или что кто-то признан судом невиновным, или просто вы кинули монету, загадав, какой стороной она упадет. Все эти полученное вами сведения снима­ют неопределенность, поскольку из двух возможных вероятнос­тей реализовалась одна. Не забираясь в математические деб­ри, скажем лишь, что в вероятностно-статистической теории Шенона количество информации измерялось посредством веро­ятности. Согласно, этой теории, наибольшее количество инфор­мации несет малоожидаемое (мало вероятное) событие. После­дний постулат верен и применительно к информации в самом широком смысле. Другое дело, что воспринять эту малоожидае­мую информацию мы можем лишь в контексте происходящего, то есть в том случае, если имеет место избыточность инфор­мации. Но об этих двух понятиях мы поговорим позже.

Один из основоположников кибернетики У.Р.Эшби в 1956 г. в книге «Введение в кибернетику» рассматривал информацию как передаваемое разнообразие. Под разнообразием понималась характеристика элементов множества, заключающаяся в их от­личии. Если рассматривать эту идею шире, то можно сказать, что любой объект отражается в субъекте именно потому, что ему самому присуща информация как разнообразие тех или иных процессов отражения.

Позже появился ряд других теорий информации, в которых для измерения количества информации (речь шла в основном о технике связи и возможности прохождения наибольшего коли­чества знаков без искажений) предлагались другие подходы. По­степенно понятие информации как научного термина стало пре­рогативой технических и естественных наук, чему прежде всего способствовало бурное развитие кибернетики. Все аспекты те­ории информации рассматривались в основном лишь в синтак­сическом, то есть сугубо формальном русле.

На возможность измерения ценности информации первым обратил внимание наш академик А. А.Харкевич, предложивший измерять эту ценность через приращение вероятности достиже­ния цели до и после получения информации.

Но в целом понятие информации, вошедшее фактически во все сферы науки и жизнедеятельности находится еще в стадии становления. Как заметил тот же А.Урсул, сегодня невозможно дать одного полного определения информации, поскольку «нео­пределенность интерпретаций информации есть следствие того, что понятие это бурно развивается» (А.Д. Урсул. Проблема ин­формации в современной науке. М., Наука. 1975. С.26).

В данном случае нас не интересует количественный аспект информации, хотя он крайне важен при создании и совершенство­вании информационных систем. Напомним лишь, что бурно раз­вивающаяся цифровая система записи информации основана на принципе использования двоичной системы, которая начала активно внедряться 60 лет назад. Сама идея системы счисле­ния, содержавшей всего две цифры (0 и 1), впервые была пред­ложена великим немецким математиком и философом Готфридом Вильгельмом Лейбницем в 1703 году. Ведь привычная нам десятичная система счета весьма условна и возникла, вероят­но, по той причине, что у нас на руках и на ногах десять пальцев. Будь у нас, скажем, по восемь пальцев, мы бы, наверное скла­дывали, вычитали и умножали по восьмиричной системе. Дво­ичная единица измерения количества информации была названа битом (bit — от binary — двоичный и digit — знак). Как уда­лось подсчитать ученым, в течение одной секунды органы чувств человека способны воспринять 10 миллиардов битов информа­ции, а за всю его жизнь — 10 в 1б-й степени битов.

Введем попутно еще одно понятие, важное для адекватной пе­редачи и декодирования информации, — инвариант. В математи­ке инвариантом называется выражение, остающееся неизменным при определенном его преобразовании, например, при переходе от одной системы координат к другой. В более широком смысле под инвариантом понимается знак или совокупность знаков, восприни­мающихся в одинаковом значении, несмотря на определенные из­менения характеристик. Скажем, мы воспринимаем смысл произ­носимого, несмотря на то, что слова могут произноситься с акцентом, в разном темпе, с разным тембром, потому что вычле­няем инвариант звука и слова. Точно так же мы спокойно определя­ем инвариант букв независимо от их кОнФИгурации.

Для теории информации особое значение имеет простота зна­ка, точнее его четкие и однозначные признаки, чтобы машина могла быстро считывать инвариант. Именно поэтому двоичная система оказалась очень удобной и универсальной для первого реального детища кибернетики — электронно-вычислительных машин (ЭВМ). Комбинируя до бесконечности сочетания 0 и 1, можно быстро совершать любые математические операции. На двоичной системе основана работа компьютеров и всех цифро­вых аудио- и видиосистем.

Основной принцип работы систем такого рода состоит в ко­дировании и декодировании информации. С понятием кода мы постоянно встречаемся в жизни. В широком смысле все мате­риальные системы можно рассматривать как закодированные множества. Так, мы говорим о молекулярном коде, о генетичес­ком коде, о коде шифровки и т.п. В коммуникативных системах, начиная от самых примитивных, с которыми мы знакомились в первых главах, крайне важна согласованность системы кодиро­вания и декодирования. Скажем, некоторые обнаруженные древ­них письмена до сих пор не удалось до конца расшифровать, по­тому что потерян ключ к их декодированию. Современные цифровые системы постоянно совершенствуются и усложняют­ся, потому что закодированная с их посредством информация может быть необычайно велика.

Следует заметить, что в цифровых системах так же, как в азбуке Морзе, при кодировании того или иного знака учитывается частота его появления. Скажем, кодируя буквы латинского алфавита, программист обозначит «е» как 1, «i» как 01, «а» как 001, а «и» как 000 и т.п. Кодирование музыкального произведе­ния представляет собой гораздо большую сложность. Неверо­ятно огромное количество битов имеет информация, содержа­щаяся в зафиксированном цветном и к тому же движущемся изображении.

Поясним еще одно понятие из теории информации -«избы­точность информации». Речь в данном случае идет вовсе не о переизбытке информации, то есть о совершенно новых, ориги­нальных, неповторяемых сообщениях, а как раз наоборот — о повторяемости в той или иной степени знаков, сообщений и т.п, что помогает нам получить нужную информацию даже в случае помех (информационного шума), ибо при недостаточной избы­точности любая одиночная ошибка способна привести к суще­ственному искажению информации.

Человеческий язык обладает огромной степенью избыточ­ности. Как правило, мы произносим и пишем гораздо большее количество слов, чем необходимо для восприятия смысла ска­занного или написанного. Лишь в телеграммах в целях экономии мы доводим количество слов до полного минимума. Как под­считали дотошные ученые, в наших повседневных телефонных разговорах присутствует, как правило, не более 3% информа­ции, все остальное — информационная избыточность, то есть то, что мы давным-давно знаем.

В написании и произнесении слов избыточность также дос­таточно велика. Дае ели оусит кждю трть уку, и т мы моем пнть оци смсл вскзыня. Ска­жем, в лингвистических словарях часто используются сокраще­ния фамилий авторов, за счет того, что в них убираются буквы, обозначающие гласные звуки (Пшкн, Тргнв, Тлст, Чхв. и т.д), и мы, даже не заглядывая в список используемых сокращений, легко восстанавливаем все слово благодаря контексту и накоп­ленной нами информации. Композитор С.С.Прокофьев, кстати, обычно таким образом и подписывался: Пркфв.

Подсчитано, что наша разговорная речь обладает избыточ­ностью порядка 72 %. Это значит, что почти три четверти своего разговора мы тратим либо на сообщение того, что давно уже известно нашему собеседнику, либо на различные эмоциональные междометия, слова-паразиты и прочие лексические и фра­зеологические единицы, и без которых можно было бы понять суть нового сообщения. В деловых текстах избыточность и того выше — почти 85%. Это объясняется тем, что приходится по­вторять одни и те же слова и термины, дабы избежать путаницы или неправильного толкования. Ибо, как говорил отец киберне­тики Н. Винер, избыточность информации — основа получения правильной информации.

Если бы наша речь совсем была лишена избыточности, то можно себе представить, какой трудный и мучительный процесс представляло б собой восприятие сообщений, ибо любой инфор­мационный шум мог бы лишить нас нужной информации, либо существенно исказить ее. Кроме того, избыточность, присущая человеческому языку, делает его гибким, выразительным, не утомительным для восприятия. То же самое в общем-то каса­ется и любой аудиальной и визуальной информации, передавае­мой по радио, телевидению и т.д

Мозг человека опирается на огромную избыточность инфор­мации. Хотя мы воспринимаем сознательно порядка 10-100 би­тов в секунду, наши органы чувств (зрение, слух, осязание, обо­няние) воспринимают в это же время тысячи и миллионы единиц информации. Речь в данном случае идет об информации, вос­принимаемой нами на подсознательном уровне, чем порой впол­не осознанно пользуются в средствах массовой информации для воздействия на аудиторию в нужном направлении.

Степень избыточности информации крайне важно учиты­вать при создании произведений, рассчитанных на восприятие определенной аудитории. Скажем, художественный фильм име­ет самую большую степень избыточности. Даже оторвавшись на какое-то время от экрана, вы без особого труда восстанав­ливаете логику событий, поскольку способны их в какой-то мере предвосхищать, либо строить гипотезы относительно их даль­нейшего развития. То есть тут существует определенная ожидаемость события, вероятности его совершения. Кроме того, в последующих фразах героев вы отлавливаете смысл того, что произошло за это время, да и если даже вы пропустили целый эпизод, это не намного нарушит восприятие общего смыс­ла происходящего на экране. Научно-популярный фильм имеет гораздо меньшую степень избыточности информации, потому что он обычно рассказывает нам о том, о чем мы плохо знаем, и поэтому пропуск какого-то фрагмента может привести к не­точному пониманию других мест фильма. А уж если нам пока­зывают полезный нам учебный фильм, где важен ценностный аспект информации, мы смотрим его с повышенным внимани­ем, потому что здесь избыточность информации доведена до минимума. То есть недостаток информации не позволяет нам получить достаточно полного представления о том или ином объекте или явлении, чрезмерная же избыточность заставляет скучать и отвлекаться.

Оценивая степень оригинальности того или иного художе­ственного произведения, можно сказать, что она в определенной мере заключается в умении снимать избыточность информации. Но если избыточность слишком мала, то произведение стано­вится малопонятным читателю, зрителю, слушателю.

И еще одно весьма важное для нас понятие, используемое в информатике, — тезаурус. Этим греческим словом обо­значается набор данных о какой-либо области знания, позво­ляющий человеку или компьютеру достаточно быстро и сво­бодно ориентироваться в получаемой информации. Можно сказать, что рост нашей квалификации и компетентности в той или иной области в большой степени зависит от роста нашего тезауруса.

При сообщении той или иной информации реципиенту, то есть субъекту информации, непременно надо учитывать его тезаурус, иначе говоря, его подготовленность к адекватному восприятию этой информацию, будь это информация научная, общественно-политическая или эстетическая. Реципиент мо­жет не извлечь из информации ничего для себя нового в двух случаях: если сообщение окажется слишком сложным для его восприятия (то есть значительно превышающим его тезау­рус) и если наоборот оно будет сообщать то, что ему и так известно.

Что касается информации эстетической, то в силу ее высо­кой избыточности нередки случаи, когда читатель, зритель или слушатель воспринимает лишь часть этой информации. Скажем, он может оценить сюжетную интригу, юмор, красивую картинку, но при этом не заметить ни художественной образности, ни кра­соты композиции, ни философской глубины произведения, посколь­ку не имеет соответствующей эстетической подготовки или ху­дожественной интуиции.

Существует два противоположных подхода к роли информа­ции в человеческом обществе. Одни склонны считать, что со­циальная информация является отражением глубинных процес­сов развития цивилизации, другие, наоборот, гиперболизируют роль информации. Так, известный канадский социолог М.Маклюэн в своей книге «Галактика Гуттенберга» утверждает, что распространение и накопление информации — один из основных двигателей человеческой истории. Скажем, возникновение Рим­ской империи он напрямую связывает с появлением алфавита и бумаги, что резко ускорило распространение информации и име­ло соответствующие последствия; религиозные войны и «наци­онализм» эпохи Ренессанса — с появлением печатного станка и т.п. Вывод, который делает Маклюэн, весьма неутешителен: «Человек запутался в электронных цепях, и ему некуда из них выбраться».

Истина, конечно, лежит посередине. С одной стороны, разви­тие общества и возникающие в нем новые потребности вызыва­ли к жизни соответствующие коммуникативные технологии, с другой стороны новые средства коммуникации ускоряли прогресс и влияли на развитие человеческого общества.

И еще одно понятие из теории информации, широко вошед­шее в лексикон профессионалов, имеющих дело с аудиовизу­альными системами коммуникации, — шум, то есть помеха для передачи или восприятия нужной информации. Хотя, как справедливо заметил один из основоположников теории инфор­мационных процессов У.Р.Эшби, «шум по существу не отли­чим от любой другой формы разнообразия» (в основу своей теории Эшби положил так называемый закон необходимого раз­нообразия, позволяющий различать один сигнал, знак или элемент от другого. — В.П.). Установить различие между сооб­щением и шумом можно только в том случае, когда имеется некоторый получатель, решающий, какая информация имеет для него значение. Ниже мы остановимся на этом весьма важном методологическом замечании подробней, используя для иллю­страции его конкретные примеры. (Эшби У.Р. «Введение в ки­бернетику. 1959. С. 267).

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]