Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Основы информатики программирования и вычислительной математики. Ча

.pdf
Скачиваний:
26
Добавлен:
15.11.2022
Размер:
1.75 Mб
Скачать

ных нормативных правовых актах понятие «информация» употребляется в различных видах. Наиболее общим является философское понимание информации как результата отражения различных сторон и элементов окружающего нас мира. Заметим, что слово «информация» широко распространилось относительно недавно. В Большой советской энциклопедии оно появилось лишь 50 лет назад, во втором издании, где ему отводилось всего несколько строк,

вкоторых информация рассматривалась как особый вид газетного жанра, т.е. одно из понятий журналистики.

2.Информатика является комплексным научным направлением, имеющим междисциплинарный характер. Попытки сформировать понятие, обобщающее различное понимание информации в разных научных дисциплинах, наталкиваются на препятствие, состоящее

втом, что в каждой из этих дисциплин они включены в различные системы понятий. Понятия этих систем при таком обобщении должны быть согласованы, непротиворечивы, а это осложняется использованием в разных системах понятий одних и тех же терминов в различных смыслах. К числу таких терминов могут быть отнесены «данные», «знания». Поскольку в каждом конкретном случае рассматривается не весь комплекс дисциплин, соотнесенных

с информатикой, и, более того, не весь круг вопросов, входящих

врассматриваемые дисциплины, то в определении фиксируются лишь некоторые, наиболее важные в данном контексте аспекты информации. Вследствие этого определения информации, а также тесно связанных с ним понятий, таких как «данные», «знания», приводимые в разных монографиях, учебниках и учебных пособиях, не соответствуют, а иногда и противоречат друг другу.

Мы будем рассматривать понятие «информация» как базовое, основное содержание которого поясняется определением, приведенным

вФедеральном законе «Об информации, информатизации и защите информации». Согласно этому определению информация – сведения (сообщения, данные), независимо отформыих представления.

Таким образом, под информацией понимается вся совокупность сведений об объектах, событиях, процессах и фактах, имеющих ме-

11

elib.pstu.ru

сто в живой и неживой природе, которая уменьшает имеющуюся неопределенность, неполноту знаний о них.

Понятие неопределенности, неполноты знаний, которое фигурирует в определении информации, является ключевым и служит дальнейшему изучению термина «энтропия», который будет рассмотрен несколько позже.

Рассмотрим основные понятия, непосредственно связанные с понятием информации.

С позиций материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). В широком смысле информация – это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Для передачи или хранения информации используют различные знаки (символы), позволяющие выразить (представить) ее в некоторой форме.

Сообщение – это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п.

Как правило, носителем сообщения или информации является сигнал (от латинского signum – знак). Сигнал – это физический процесс, отображающий передаваемое сообщение и распространяющийся в определенном направлении. Приведем примеры некоторых сигналов. Сигналы бывают аналоговые и цифровые. Рассмотрим для примера график некоторой функции (рис. 2). Каждая точка на этом графике – это сигнал, а совокупность точек, принадлежащих этому графику, – сообщение. В данном слу-

чаемывидим, чтосигналы

Рис. 2. Пример аналогового сигнала

12

elib.pstu.ru

Рис. 3. Пример цифрового сигнала

представляют собой непрерывную последовательность точек, т.е. график некоторой функции – это и есть аналоговый сигнал.

На следующем графике (рис. 3) мы видим, что сигналы представляют собой некоторое определенное дискретное или конечное значение функции, не так, как в предыдущем случае, когда зна-

чение могло быть любым. В этом случае сигнал это и есть значение дискретной величины той или иной функции, а сообщение – это совокупность этих сигналов. Это пример цифрового сигнала.

Сигналы и сообщения встречаются повсеместно и всюду. Например, мы можем закодировать с помощью нулей и единиц некоторую последовательность информации, которая будет нести определенный смысл и значение для получателя (рис. 4, а). И в данном случае эти нули и единицы будут представлять собой сигнал, а вся совокупность нулей и единиц – сообщение. Точно так же сообщение может быть не только в двоичной, но и в любой другой системе счисления с положительными, отрицательными, вещественными значениями. Например, сообщение «дважды два равно четыре» – это тоже сообщение, которое состоит из сигналов. Ну и наконец, представим себе графическое изображение; это тоже сообщение (рис. 4, б). Каждая точка на рисунке или фотографии представляет собой сигнал, который отображается в виде координат этой точки и цвета, контрастности, яркости. Из этих сигналов состоит сообщение, которое в данном случае представляет собой некоторое изображение или картинку. Итак, мы видим, что сигналы и сообщения присутствуют повсеместно в деятельности человека и представляют собой прием и обработку информации.

13

elib.pstu.ru

а

б

Рис. 4. Примеры сигналов и сообщений: а – кодирование информации; б – кодирование графического изображения

Данные – это информация, представленная в виде, пригодном для обработки автоматическими средствами при возможном участии человека (например, обработка информации в базе данных, в текстовых редакторах– приход, расход денежных средств и др.). Для того чтобы проиллюстрировать отличие данных от информации, приведем пример. Если написать на листе бумаги десять номеров телефонов в виде последовательности десяти чисел и показать их собеседнику, он воспримет эти цифры как данные, так как они не предоставляют ему никаких сведений. Если же напротив каждого из этих номеров телефонов указать название фирмы и род ее деятельности, то для собеседника непонятные цифры обретут определенность и превратятся из данных в информацию, которую он в дальнейшем мог бы использовать. Таким образом, отличие данных от информации заключается в следующем: если появляется возможность использовать какие-либо данные для уменьшения степени неопределенности о чем-либо, то данные превращаются в информацию. Поэтому можно утверждать, что информацией являются используемые данные.

Знания – это информация, на основании которой, путем логических рассуждений, могут быть получены определенные заключения или выводы, т.е. знания позволяют нам делать новые выводы, полу-

14

elib.pstu.ru

чать новые знания. Знания дают новые знания: мы на основании имеющихся фактов получаем новые факты и эти факты становятся знаниями. Например, на базе собранных данных о работе предприятия принимается решение о дальнейших планах работы. Этот пример позволяет проиллюстрировать отличие знаний от данных и то, как они связаны с понятием «информация».

Таким образом, попробуем сформулировать определения понятий «информация», «данные» и «знания» в общем виде.

Информация – это полезное содержание данных. Данные – это удобная форма представления информации.

Знания – это систематизированная информация, позволяющая принимать решения.

1.1. Свойства информации

Говоря о свойствах информации, необходимо иметь в виду, что даже в учебной литературе можно встретить их перечни, весьма различающиеся не только по количеству и составу, но и по определению некоторых свойств.

Свойства информацииможно разделить на трикатегории(рис. 5): 1. Атрибутивные свойства – это свойства, без которых инфор-

мация не может существовать. К ним относятся:

Дискретность. Содержащиеся в информации сведения и знания дискретны, т.е. характеризуют отдельные фактические данные

изакономерности, свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линий, цвета, букв, символов, знаков. Все это дискретно, т.е. имеет определенные границы и окончания.

Непрерывность. Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя ее поступательному развитию и дальнейшему накоплению.

Неотрывность информации от физического носителя. Инфор-

мация приходит к нам как к приемнику информации на каких-либо носителях, без которых она не существует. Например, звуковая информация передается посредством колебаний волн и окружающей среды, для

15

elib.pstu.ru

визуальной информации носителями являются также окружающая среда и человеческие органы зрения, текстовая информация передается посредством бумаги. Из области вычислительной техники носителями информациимогутбытьжесткиедиски, флеш-памятьит.д.

– Языковая природа информации.

Рис. 5. Классификация свойств информации

2. Прагматические свойства – это свойства, характеризующие степень полезности информации для потребителя. К прагматическим свойствам относятся:

– Смысл и новизна. Если информация не несет смысла или является устаревшей, то она, возможно, не нужна приемнику инфор-

16

elib.pstu.ru

мации и будет не столь важной, как та информация, которая имеет глубокий смысл и обладает большей новизной.

Полезность информации. Данное свойство говорит о количественныххарактеристикахинформации, позволяющихуменьшатьстепень неопределенности знаний об объекте. Информация является полезной, если она уменьшает неопределенность знаний об объекте. Отрицательным значением полезности информации является дезинформация, когда полученные сведения не уменьшают неопределенности об объекте, наоборот, сведениястановятсяещеболееразмытымиинечеткими.

Ценность информации. Для разных приемников информации одна и та же информация может представлять различную ценность. Например, для школьника основы электропривода являются информацией с нулевой ценностью, а для студента-электрика эта информация будет иметь более высокую ценность, чем для школьника.

Кумулятивность. Это свойство характеризует способность информации к накоплению и хранению.

Объективность. Более объективной принято считать ту информацию, в которую методы изучения объекта вносят меньший субъективный элемент. Например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком.

Полнота. Означает, что информация содержит минимальный, но достаточныйдля принятияправильного решения набор показателей.

Достоверность. Данные возникают в момент регистрации сигналов, но не все сигналы являются полезными, всегда присутствует уровень посторонних сигналов, называемых шумом. При увеличении уровня шумов достоверность информации снижается.

Адекватность. Характеризует степень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.д.

Доступность. Мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и их адекватность.

Актуальность. Степень соответствия информации текущему моменту времени.

17

elib.pstu.ru

3. Динамические свойства – это свойства, характеризующие изменение информации и ее свойств во времени. К динамическим свойствам относятся:

Рост информации. Информация увеличивает определенные знания, увеличивается накопление данных.

Старение информации. Через определенное время та информация, котораябылаценнаиважнадлянас, теряетэтикачестваиустаревает.

1.2. Количественные и качественные меры оценки информации

Существуют три направления в определении меры информации:

1)синтаксическая мера;

2)семантическая мера;

3)прагматическая мера.

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Таким образом, синтаксическая мера отражает способ представления информации: с помощью какого синтаксиса и в каком количестве представляется информация. Для измерения информации вводятся два понятия – это объем данных Vд и количество информации I(α) в синтаксическом смысле (рис. 6).

Рис. 6. Классификация мер информации

18

elib.pstu.ru

Объем данных Vд в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес, соответственно, меняется единица измерения данных:

в двоичной системе счисления единица измерения – бит (bit binary digit – двоичный разряд) – это количество информации, необходимое для различения двух равновероятных сообщений;

в десятичной системе счисления единица измерения – дит (десятичный разряд).

Как правило, информация представляется в двоичном виде, поэтому наибольшее распространениеполучила единица измерениябит.

Например, пусть сообщение представлено в двоичной системе

ввиде восьмиразрядного двоичного кода 11001011. Соответствен-

но, каждый разряд – это один бит, и общий объем данных Vд для этого сообщения составит 8 бит. Сообщение в десятичной системе

ввиде числа 281 934 имеет объем данных Vд = 6 дит.

Количество информации I(α) определяет изменение (уменьшение) неопределенности состояния системы. Данное понятие невозможно без понятия информационной энтропии.

Энтропия – это мера «хаотичности», неопределенности информации или состояния некоторой системы. Например, получение информации о какой-либо системе связано с изменением степени неосведомленности получателя информации о состоянии этой системы.

Пусть имеется некоторая система α, о которой некоторый наблюдатель или получатель информации пытается собрать информацию. Предварительно получатель информации имеет некоторые априорные сведения о системе α. Таким образом, априорная мера неосведомленности о системе α – H(α), т.е. это мера того, что он не знает об этой системе. Предположим, получатель информации из другого источника получил сообщение β, дополнительные сведения о системе α. Эту информацию обозначим Iβ(α). После получения этой информации получатель информации обладает так называемой апостериорной мерой неосведомленности о системе α – Hβ(α). Та-

19

elib.pstu.ru

ким образом, при получении новой информации степень неосведомленности должна уменьшиться (если это не дезинформация). Итак, дополнительная информация Iβ ( ) уменьшила меру неосве-

домленности о системе: Hβ( ) = H ( ) – Iβ ( ) , отсюда можно най-

ти меру той информации которая пришла от дополнительного источника: Iβ ( ) = H ( ) – Hβ ( ) , т.е. апостериорная информация –

это разница между априорной и апостериорной мерами неосведомленности о системе; количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Можно сделать следующие выводы.

Если конечная неопределенность Hβ ( ) обратится в нуль, т.е.

система α изучена полностью, то первоначальное знание заменится полным знанием и количество информации Iβ ( ) будет равным

H ( ) . Иными словами, энтропия системы H ( ) может рассматри-

ваться как мера недостающей информации.

Американским математиком и основателем теории информации Клодом Элвудом Шенноном были получены формулы для определения энтропии системы – формулы Шеннона. Энтропия системы H ( ) ,

имеющейN возможных состояний, согласно формуле Шеннонаравна

N

H ( ) Pi log Pi ,

i 1

где Pi – вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны (на-

пример, подкидывание монетки, когда равновероятны два состояния орел или решка), т.е. их вероятности равны,

Pi N1 ,

ее энтропия определяется соотношением

H ( ) 1

log 1 .

N

 

 

 

i 1

N

 

N

 

20

elib.pstu.ru