- •Содержавние
- •Глава 1 Границы применимости формализма классической теории информации 5
- •Глава 2 Информация — объект постнеклассическои науки 20
- •Глава 3 Эволюция систем — это эволюция ценности информации 36
- •Глава 4 Эволюция логической информации: развитие социокультурных систем 59
- •Глава 5 Научные основы междисциплинарных исследований 77
- •Введение
- •Глава 1 Границы применимости формализма классической теории информации
- •1.1. Истоком информации является случайный выбор
- •20 1.2. Характеристики информации: качество, количество, ценность и эффективность
- •1.2.1. Качество информации.
- •1.2.2. Количество информации.
- •1.2.3. Ценность информации и ее эффективность.
- •Imax — оптимальное количество информации, Emax — максимальное значение эффективности
- •1.3. О микро- и макроинформации
- •1.4. Методологический анализ экстраполяции негэнтропииного принципа
- •Глава 2 Информация — объект постнеклассическои науки
- •2.1. Почему попытки однозначного определения понятия "информация" всегда неудачны?
- •2.2. Информация — это необратимый процесс в многомерном, нелинейном мире
- •2.3. Сколько у информации свойств?
- •Глава 3 Эволюция систем — это эволюция ценности информации
- •3.1. Создание информации как событие в аспекте становления эволюционирующих систем
- •3.2. Иерархия уровней информации на шкале универсальной эволюции
- •3.2.1 Синергетическая информация (s-информация).
- •3.2.2 Генетическая информация.
- •3.2.3 Поведенческая информация.
- •3.2.4 Логическая информация.
- •Развитие логической информации.
- •3.3. Термодинамика информационных систем
- •3.4. Динамика информации: модели эволюции ценности и эффективности
- •Глава 4 Эволюция логической информации: развитие социокультурных систем
- •4.1. Методологические возможности информационно-синергетического подхода к исследованию социокультурных систем
- •Функции отдельных элементов задержанных цивилизаций
- •4.2. Эволюция социокультурных систем
- •4.3. Методология сопоставления взглядов на пути развития культуры
- •Глава 5 Научные основы междисциплинарных исследований
- •5.1. Логическая информация и проблема "двух культур"
- •5.2. Исследование социальных следствий синергетики
- •Заключение
20 1.2. Характеристики информации: качество, количество, ценность и эффективность
1.2.1. Качество информации.
В некоторых работах термин "качество" употребляется в смысле "ценность" [193], что вносит путаницу в терминологию. Понятие о качестве связано с существованием иерархической структуры информации. Эта характеристика иллюстрируется продолжением выбора пути при разветвлениях [110, с. 18, 19]. Так, идя по дороге и встречая разветвление 1, путешествен-
Рис. 1.4. Иллюстрация различных уровней генерируемой информации
ник выбирает ветвь 1-2 (рис. 1.4). Допустим, что этот выбор случайно оказался удачным, но в пункте 2 он встречает еще одно разветвление, снова оказываясь перед выбором. Это разветвление имеется только на уже выбранном ранее направлении, т. е. этот новый выбор совершается на основе прежнего, причем прежний не предрешает последующего. Поэтому, несмотря на связь выборов, необходимо различать их уровни, т. е. уровни генерируемой информации. Выбор в пункте 1 является общим для второго и третьего. Рецепция и генерация в пунктах 2 и 3 невозможна без генерации (рецепции) в пункте 1. Отсюда появляется возможность говорить об уровнях информации.
Примером последовательных выборов системой пути своего развития является бифуркационная кривая (рис. 1.5). В точке Б1 система совершает выбор между ветвями Б1В1 и Б1Г1; если выбор сделан в пользу Б1В1, то в точке Б2 система снова оказывается перед выбором: ветвь Б2В2 или ветвь Б2Г2. Очевидно, только предыдущий выбор ветви Б1В1 делает актуальным этот второй, затем третий и т. д. выборы, как и в предыдущем примере. Ни один из последующих выборов не предрешается предыдущим. Отсюда — необходимость различать уровни генерируемой информации, каждый из которых отвечает определенному качеству.
Эта разнокачественность обеспечивает иерархическую структуру. Информации на уровнях не только качественно различаются, образуя ряд подмножеств, но и связаны друг с другом, ведь для информации высокого уровня совершенно необходима более "древняя" информация нижних уровней. Так, перед юношей, не выучившимся ни читать, ни писать, не может возникнуть проблема осознанного выбора высшего учебного заведения.
Существует специальный термин "тезаурус"*), который означает информацию более нижнего уровня, которая необходима для генерации или рецепции информации на верхнем уровне, качественно отличном от нижнего. Выбор варианта делается не между вариантами разных уровней, а всегда только на одном уровне. Это заложено в определении того, что есть генерация информации: выбор одного варианта среди нескольких возможных и равноправных. "Равноправные" варианты — это варианты одного качества, т. е. одного иерархического уровня.
1.2.2. Количество информации.
Как было отмечено выше, формула (1.1), позволяющая определить количество информации, передаваемой по каналам связи, согласующаяся с ролью случайного выбора в процессе генерации информации, была получена Шенноном. Возможность обобщения этой формулы на все виды языков, передачу и использование любых видов сигналов, которые служат для передачи информации, наиболее полно проанализирована В.И. Корогодиным [76, с. 14-18]. Целесообразно изложить его точку зрения не только потому, что она в этой части совпадает с точкой зрения автора, но и потому что многократные попытки приложить теорию Шеннона к самым различным областям человеческой деятельности встречаются с явными трудностями. Остановимся на двух из них.
Во-первых, в процессе упомянутых попыток определенные элементы сообщений совершенно неправомерно отождествлялись с информацией как таковой. Эти элементы связаны лишь закономерностями передачи по каналам связи различных сигналов, не связанных с семантикой сообщения. Если сохранить все буквы осмысленного сообщения, переставив их, то осмысленность исчезнет, а количество информации, определяемое формулой (1.2), останется прежним. Получается бессмысленная информация, т. е. вообще не информация. Получившееся в результате перестановок букв бессодержательное нечто не может называться информацией. В работе [76] предлагается назвать частотную характеристику элементов сообщения, определяемую правой частью формулы (1.2), информационной тарой, которая может содержать полезную информацию, а может быть пустой. Очевидно, что емкость информационной тары имеет вполне определенное числовое значение, не зависящее от степени заполнения тары.
Во-вторых, остается неясным вопрос о том, как сопоставить количество информации данного сообщения при переходе к другому языку. Другими словами, не известно, как в общем случае изменяется количество информации при переводе с одной системы записи на другую. Если Н — емкость информационной тары и если текст сообщения абсолютно компактен, то количество информации сообщения (I) равно емкости информационной тары. И только в этом случае можно пользоваться для определения I формулой (1.2). В общем случае I< H.
Стремление некоторых авторов использовать формулу (1.2) для определения количества информации, связанной с любыми событиями, основано на допущении о том, что информация, будучи общим свойством материи, содержится во всех объектах и событиях природы. Эта неверная посылка и абсурдные следствия из нее свидетельствуют о том, что "вероятностное определение количества информации, перенесенное из математической теории связи в обобщенную теорию информации, утрачивает свою эвристичность" [76, с. 17].
Наличие формулы Шеннона (1.1) еще не означает, что можно всерьез верить расчетам "информационных характеристик" опытов по телепатии [71] или расчетам изменения информации, содержащейся в организме в ходе его онтогенеза.
Формула (1.1) служит основанием для определения пропускной способности каналов связи и энтропии источников сообщений. Это позволяло ставить и решать актуальные в теории связи задачи улучшения методов кодирования и декодирования сообщений, выбора помехоустойчивых кодов, уменьшения уровня шума и искажений. Совокупность результатов этих работ, названных К. Шенноном "математической теорией связи", и явилась основой классической (традиционной) теории информации. Основные черты этой теории можно резюмировать следующим образом.
1. В ней отсутствует определение понятия "информация", что не является преградой для ее создателей, развивавших не теорию информации, а теорию связи.
2. Термин "количество информации" используется как синоним статистических характеристик букв, составляющих сообщение. Буквы, сигналы, передаваемые по каналам связи, сами по себе не несут той информации, для обмена которой существуют системы связи. Передаваемая информация связана с осмысленным сочетанием букв. Эта осмысленность никак не учитывалась формулой для "количества информации".
Таким образом, решение актуальных задач математической теории связи отнюдь не содержало того поризма ), который позволил бы определять количество информации, связанное с множеством событий, а не только с появлением на выходе канала связи очередного символа. То, что методологические следствия теории связи имеют весьма ограниченный характер, поскольку эта теория раскрывает лишь количественную, но не сущностную характеристику феномена информации, лучше и раньше других понимал сам Клод Шеннон. "Очень редко, — писал Шеннон, — удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов таких, как информация, энтропия, избыточность... нельзя решить всех нерешенных проблем" [192, с. 667].
