
- •И.А. Золотухин
- •Концепции современного
- •Естествознания
- •Конспект лекций
- •Рецензенты:
- •Предисловие
- •1. Материальность и познаваемость мира
- •1.1. Виды материи, её движение и познание
- •1.2. Развитие знания. Религиозное и научное знание
- •1.3. Парадигмы и научные революции
- •1.4. Современная система научного знания
- •Цитология
- •1.5. Математика в системе научных знаний
- •2. Основные законы природы
- •2.1. Энергия как важнейшая характеристика материальных процессов
- •2.2. Виды сил и виды энергии
- •2.3. Классификация систем по интенсивности взаимодействий
- •2.4. Первый и второй законы термодинамики
- •2.5. Энтропия как мера необратимости процессов
- •3. Жизнь с точки зрения физики и химии
- •3.1. Закон сохранения энергии и живые системы
- •3.2. «Антиэнтропийность» жизни
- •3.3. Элементарный состав живых организмов
- •3.4. Химические взаимодействия атомов и молекул
- •3.5. Химический состав живых организмов
- •3.6. Белки как основа жизни
- •3.7. Наследственность и нуклеиновые кислоты
- •3.8. Синтез белка
- •3.9. Изменчивость организмов
- •3. 10. Клеточная организация живого
- •3.11. Упорядоченность процессов в клетке и биологические мембраны
- •3.12. Энергетические процессы в клетке
- •3.13. Размножение организмов
- •4. ВселенНая и возникновение жизни
- •4.1. Гипотезы возникновения жизни
- •4.2. Вселенная, её происхождение и строение
- •4.3. Происхождение и строение звёзд
- •4.4. Галактики и метагалактика
- •4.5. Солнечная система
- •4.6. Земля как место зарождения жизни
- •4.7. Геохронологическая схема эволюции жизни и биосферы
- •5. Человек как высшая форма организации материи
- •5.1. Человек в системе животного мира
- •5.2. Физико-химические и биологические основы сложного поведения
- •5.3. Эволюция нервной системы и поведения животных
- •5.4. Мышление
- •5.5. Скорости и пути дальнейшей эволюции человека
- •6. Сложные системы
- •6.1. Определение понятия «сложность»
- •6.2. Математика как средство познания сложных систем
- •6.3. Теория графов и её применение в описании сложных систем
- •118 Девяток
- •7. Системный подход как средство преодоления сложности
- •Общая теория систем л. Берталанфи
- •7.2. Детерминированные и вероятностные системы
- •Классификация систем по с. Биру [4]
- •Тектология а.А. Богданова
- •7.4. Самоорганизующиеся системы и синергетика
- •8. Кибернетика
- •8.1. Основные понятия и определения
- •Пример возможного соотношения входов и выходов кибернетической системы рис.8.1
- •8.2. Биологические системы и кибернетика
- •Популяция волка
- •Популяция зайца
- •Элиминирую-щие факторы
- •9. Теория информации
- •9.1. Общая характеристика информационных процессов
- •9.2. Определение и измерение информации
- •9.3. Использование теории информации в биологии
- •9.4. Виды информации
- •10. Экологические проблемы
- •10.1. Строение и функции экосистемы
- •10.2. Превращение энергии в экосистеме
- •10.3. Продуктивность экосистем
- •10.4. Определение необходимых затрат на охрану природы
- •10.5. Экологические кризисы в истории человечества [28]
- •Учебное издание
- •Игорь Александрович Золотухин
- •Концепции современного
- •Естествознания
- •Конспект лекций
- •614990, Г. Пермь, ул. Сибирская, 24, корп. 2, оф. 71,
- •614990, Г.Пермь, Комсомольский проспект, 29а, оф.113,
9.4. Виды информации
Описанный подход к измерению информации, позволяя сравнительно хорошо решать некоторые проблемы технических систем связи, не решает многих проблем, связанных с описанием информационных процессов в более сложных системах. Покажем это на примере.
Человек (потребитель информации), находящийся далеко от дома, имеет канал связи с ограниченными возможностями (1 сообщение в день). Потребитель получает информацию о том, что для него на входе канала есть два сообщения: одно больше, другое меньше, и надо выбрать, какое он желает получить первым. Можно ожидать, что человек захочет получить сначала бόльшее сообщение. Сообщение оказывается таким: «Кошка родила». Количество полученной информации, исходя из 5 бит на букву, составит 55 бит. На следующий день поступает более короткая информация (35 бит): «Умер дед». Можно представить, насколько негативно отнесётся наш пользователь к такой системе оценки информации. А если вторым сообщением окажется: «Идёт цунами» (50 бит), то наш герой к моменту получения информации, может уже вообще распрощаться с жизнью.
Пример показывает, что информация, измеренная рассмотренным вероятностным (статистическим) методом, явно нуждается в дополнительных характеристиках. Такими характеристиками можно считать смысл информации, её ценность, полезность, важностью и т.д. В связи с этим имеются попытки разработать новые методы количественной оценки информации, учитывающие указанные свойства. А информация, которую мы измеряли в наших примерах с помощью вероятностного метода, получила название статистической информации.
Статистическая информация, по сути дела, является величиной, оценивающей только количество передаваемых сигналов. На вопросы, что означают эти сигналы, какой смысл они несут для принимающей системы, статистическая информация ответа не даёт.
Информацию, которая представляла бы собой оценку смысла поступающих сигналов предложено называть семантической информацией. Эта информация должна указывать, каким природным объектам или явлениям соответствует та или иная комбинация поступающих сигналов. Как, например, можно узнать, что одному комплексу сигналов, поступающих в мозг животного, соответствует образ хищника, а другому комплексу сигналов соответствует образ пищи.
Вопрос о методе оценки информации с точки зрения её смысла оказался весьма сложным и не разрешённым до настоящего времени. Многими авторами предложены различные формулы для вычисления семантической информации. Нот все эти формулы либо не выдерживают критики, либо являются трудными для понимания принципов их построения и практического использования.
Однако и семантическая информация совместно со статистической ещё не обеспечивают полноты описания информационного взаимодействия, поскольку соотнесение сигналов с каким-либо объектом ещё не даёт возможность оценить ценность или полезность данного объекта для воспринимающей системы. Нужен информационный показатель, который позволял бы оценивать получаемую информацию с точки зрения её практической значимости, полезности или вредности. Такой показатель предложено называть прагматической информацией. Для измерения этой информации также предлагаются различные формулы, авторы которых отмечают, что в ряде конкретных случаев прагматическую информацию трудно отличить от семантической информации.
Одной из наиболее удачных и понятных является формула, предложенная А.А. Харкевичем в 1960 г. [39, с.123]:
IП = log (р1/ р0), (9.7) где IП – ценность информации (или прагматическая информация), р0 – вероятность достижения цели до получения информации,
р1 – вероятность достижения цели после получения информации.
В этой формуле хорошо видно, что ценность имеется, если (р1> р0). Если же вероятность р1 после получения информации остаётся без изменений (р1= р0), то ценность полученной информации равна нулю ( log 1 = 0). А если вероятность достижения цели после получения информации ещё и уменьшилась (р1< р0), то мы имеем отрицательную прагматическую информацию (логарифм числа, меньшего единицы, всегда отрицателен). Можно сказать, что мы в этом случае получили то, что называется дезинформацией, которую, оказывается, тоже можно измерить.
Хорошо было бы, если кто-нибудь ещё и объяснил, как определить р1 и р0? В указанном источнике [39] такого объяснения не даётся.
Как видим, в теории информации существуют проблемы, которые ещё не решены, а некоторые, возможно, ещё и не сформулированы. Читатель может заняться решением этих проблем, да и всех остальных, упомянутых в этой книге.