Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Концепции современного естествознания Учебник_Г...rtf
Скачиваний:
18
Добавлен:
01.05.2025
Размер:
8.24 Mб
Скачать

11.6.1. Ценность информации

По мере развития кибернетики как науки об управлении про­цессами в неживой и живой природе выяснилось, что имеет смысл не просто количество информации, а ее ценность. Полез­ный информативный сигнал должен выделиться из информаци­онного шума, а шум — это максимальное количество равновес­ных состояний, т.е. максимум энтропии, а минимум энтропии соответствует максимуму информации, и отбор информации из шума — это процесс рождения порядка из хаоса. Поэтому уменьшение однообразия (появление белой вороны в стае чер­ных) будет означать уменьшение энтропии, но повышение ин­формативности о такой системе (стае). За получение информа­ции нужно «платить» увеличением энтропии, ее нельзя получить бесплатно! Заметим, что закон необходимого разнообразия, при­сущий живой природе, вытекает из теорем К. Шенона. Этот за­кон был сформулирован У. Эшби (1915—1985): «...информацию невозможно передать в большем количестве, чем это позволяет сделать количество разнообразия».

Примером соотношения информации и энтропии является возникновение в неживой природе упорядоченного кристалла из расплава. При этом энтропия выросшего кристалла уменьшается, но возрастает информация о расположении атомов в узлах крис­таллической решетки. Заметим, что объем информации компле­ментарен объему энтропии, так как они обратно пропорциональ­ны, и поэтому информационный подход к объяснению живого не дает нам больше понимания, чем термодинамический.

Необходимо учитывать кинетику образования диссипативных структур и ценность информации. Ценность информации как ее качество определяют из соотношения

F=lg (/>//><,),

где Pq и Р — вероятности достижения какой-то цели до и после получения информации.

Ценность информации может быть положительной, когда Р > Pq, и отрицательной, если Р0 > Р. В последнем случае она является дезинформацией. Д. С. Чернявский [191] приводит та­кой пример практического смысла ценности информации. До­пустим, нам необходимо успеть на поезд. Если пользоваться рас­писанием движения поездов, то вероятность достижения цели (успеть на поезд) сильно повышается, Р ~ 1. В этом случае цен­ность информации (расписания) положительна. Однако если расписание устарело или по какой-то причине нарушено, то ве­роятность достижения цели понижается и Р < Pq. В этом случае ценность информации отрицательна. Может быть и случай, ког­да информация вообще не может стать ценной: например, когда наборщик в тексте переставил буквы так, что текст потерял вся­кий смысл. Количество информации сохранилось, но ценность ее для читателя стала равной нулю.

Информация обычно измеряется в битах; бит — единица из­мерения в двоичной системе счисления. Для простейшего слу­чая, например — выбора между двумя вариантами w = 2 и р = ^,

имеем / = lg2 2 = 1 бит. Оказалось, что живой организм по ин­формативности значительно превосходит современные ЭВМ (/- 102 — 104 бит), клетка — 109 бит, а в целом живой организм может содержать до 1019 мегабит информации. Для примера, наш алфавит, состоящий из 32 = 25 букв, в упорядоченном текс­те содержит информацию всего I = lg2 25 = 5 бит-

Одна стандартная страница информации содержит сотни бит. Человек способен воспринимать 25 бит в секунду, центральная нервная система ~ 30—40 бит в секунду. Однако по некоторым каналам эта способность значительно выше: по зрительному ка­налу 107 — 108, по слуховому — 103 _ ю4 бит в секунду.

Сложность кибернетической системы, по фон Нейману, — это число компонент, образующих систему. В многокомпонент­ных системах эту сложность в ряде случаев труднее описать, чем изготовить саму систему. Сложность в битах определяется как минимальное число двоичных знаков, которые содержат всю информацию об объекте, достаточную для его воспроизведения. Однако понятие ценности информации шире понятия сложнос­ти и для живых организмов играет большую роль, чем усложне­ние системы, поскольку для них важнее не принцип возрастания сложности, а принцип возрастания ценности информации.

Одной из существенных особенностей живой системы являет­ся способность создавать новую информацию и отбирать наибо­лее ценную для него в процессе жизнедеятельности. Чем более ценная информация создается в системе и чем выше критерий ее отбора, тем выше эта система находится на лестнице биоло­гической эволюции.

Ценность информации, особенно для живых организмов, за­висит от цели, с которой она используется. Мы уже отмечали (п. 11.2.1), что стремление выжить как главная цель живых объ­ектов лежит в основе всей эволюции биосферы. Это относится как к высшим, так и к простейшим организмам. Целью в живой природе можно считать совокупность поведенческих реакций, способствующих выживанию и сохранению организмов в борьбе за существование. У высших организмов это может быть осоз­нанно, но это не означает, что цель отсутствует. Поэтому для описания живой природы ценность информации — понятие со­держательное и связано это понятие с важным свойством живой природы — способностью живых организмов к целеполаганию.

Согласно Д. С. Чернявскому, для неживых объектов целью можно было считать стремление системы к аттрактору как к не­устойчивому конечному состоянию. Однако в условиях неустой­чивого развития аттракторов может быть много, и это позволяет считать, что ценной информации для таких объектов неживой природы нет. Может быть, поэтому в классической физике по­нятие информации для описания процессов в неживой природе не использовалось: она развивалась в соответствии с законами природы, и этого было достаточно для описания процессов на языке физики. Можно даже сказать, что в неживой природе если есть цель, то нет информации, а если есть информация, то нет цели. Вероятно, на этом основании можно провести разграниче­ние неживых объектов от живых, для которых понятия цели, информации и ее ценности являются конструктивными и содер­жательными. Поэтому наряду с другими рассмотренными при­знаками развития самоорганизующихся систем критерием био­логической эволюции является возрастание ценности информа­ции, рождающейся в системе и передаваемой затем живым организмом генетически следующим поколениям.

Необходимая для развития живой системы информация воз­никает и приобретает ценность путем отбора, согласно которому благоприятные индивидуальные изменения сохраняются, а вред­ные уничтожаются. В этом смысле ценность информации — это перевод на язык синергетики дарвиновской триады наследствен­ности, изменчивости и естественного отбора. Происходит как бы самоорганизация необходимой информации. Это позволит через это понятие связать дарвиновскую теорию эволюции, классическую теорию информации и молекулярную биологию.

Закономерности биологической эволюции в свете теории ин­формации будут определяться тем, как реализуется в процессе развития живого принцип максимума информации и ее ценнос­ти. Следует заметить, что «эффект границы», привлекающий все живое, о котором мы уже говорили, подтверждается тем, что граница более информативна.