Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ответы КСЕ.docx
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
393.13 Кб
Скачать

49. Информация как мера организованности системы

Информация — специфическая форма взаимодействия между объектами любой физической природы или, точнее, такой аспект взаимодействия, который несет сведения о взаимодействующих объектах. В сущности информация - мера организованности системы в противоположность понятию энтропии как меры неорганизованности. Представление об энтропии как мере неорганизованности было введено Р. Клаузиусом в связи с изучением термодинамических явлений. Л. Больцман дал статистическую интерпретацию энтропии, позволившую рассматривать энтропию как меру вероятности пребывания системы в конкретном состоянии. Больцман показал, что природные процессы стремятся перевести термодинамическую систему из состояний менее вероятных в состояния более вероятные, т.е. привести систему в равновесное состояние, для которого значения энтропии (неупорядоченности) максимальны. После построения в середине XX в. К.Э. Шенноном теории информации оказалось, что формула Больцмана для термодинамической энтропии и формула Шеннона для информационной энтропии тождественны. Таким образом, понятие энтропии приобрело более универсальный смысл в изучении систем различного происхождения. Изучение потоков информации в системах имеет очень большое значение. Так, если вещественные и энергетические потоки обеспечивают целостность системы и возможность ее существования, то потоки информации, переносимые сигналами, организуют все ее функционирование, управляют ею. Информационный анализ систем использует представление о сигналах - носителях информации, средстве перенесения информации в пространстве и времени. В качестве сигналов выступают состояния некоторых объектов: чтобы два объекта содержали информацию друг о друге, необходимо соответствие между их состояниями; тогда по состоянию одного объекта можно судить о состоянии другого. Не всякое состояние имеет сигнальные свойства, поскольку объект взаимодействует не только с тем объектом, информацию о котором требуется получить, но и с другими объектами, в результате чего соответствие состояний ослабевает. Условия, обеспечивающие установление и способствующие сохранению сигнального соответствия состояний, называют кодом, а посторонние воздействия, нарушающие это соответствие, - помехами или шумами. Нарушение соответствия состояний возможно не только вследствие помех, но и из-за рассогласования кодов взаимодействующих объектов.

Сигналы делятся на два типа:

1) статические сигналы, являющиеся стабильными состояниями физических объектов (например, книга, фотография, магнитофонная запись, состояние памяти компьютера, положение триангуляционной вышки и т.д.);

2) динамические сигналы, в качестве которых могут выступать динамические состояния силовых полей. Изменение состояния таких полей приводит к распространению возмущения, конфигурация которого во время распространения обладает определенной устойчивостью, что обеспечивает сохранение сигнальных свойств.

При обмене информацией между системами возникают специфические эффекты, полезные для анализа систем. Например, избыточность - явление не всегда отрицательное. При искажениях, выпадениях и вставках символов именно избыточность позволяет обнаружить и исправить ошибки. Важным понятием информационного характера является скорость передачи информации - количество информации, передаваемое в единицу времени. Скорость передачи информации по каналу связи зависит от многих факторов (энергия сигнала, количество символов в алфавите, избыточность, способ кодирования и декодирования и т.д.) и не превышает некоторого предела, называемого пропускной способностью канала.

Теория информации имеет большое значение для системного подхода. Ее конкретные методы и результаты позволяют проводить количественные исследования информационных потоков в изучаемой системе. Однако более важным является эвристическое значение основных понятий теории информации - неопределенности, энтропии, количества информации, избыточности, пропускной способности и др.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]