Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
2015_Информатика_ч1 / Лекции / Лекция2_инф_012.ppt
Скачиваний:
38
Добавлен:
15.03.2016
Размер:
5.61 Mб
Скачать

Некоторые сведения об информации (Продолжение)

ЛЕКЦИЯ 2

1

СВОЙСТВА ИНФОРМАЦИИ

Предметное содержание информации позволяет уяснить

ееосновные свойства

достоверность

полноту

ценность

актуальность

понятность

конфиденциальность.

Информация достоверна, если она не искажает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

2

Информация полна, если ее достаточно для понимания и принятия решений. Неполнота информации сдерживает принятие решений или может повлечь ошибки.

Ценность информации зависит от того, какие задачи мы можем решить с ее помощью.

При работе в постоянно изменяющихся условиях важно иметь актуальную, т. е. соответствующую действительности, информацию.

Информация становится понятной, если она выражена языком, доступным людям, для которых она предназначена.

Информация конфиденциальна, если доступ к ней ограничен в соответствии с законодательством страны и уровнем доступа к информационному ресурсу. Конфиденциальная информация становится доступной или раскрытой только санкционированным лицам, объектам или процессам

3

ИЗМЕРЕНИЕ ИНФОРМАЦИИ ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ

Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в картинах Леонардо да Винчи или в генетическом коде человека?

Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод:

В определенных, весьма широких условиях можно

 

пренебречь качественными особенностями информации,

 

выразить её количество числом, а также сравнить

 

количество информации, содержащейся в различных

 

группах данных.

4

Различают следующие подходы к измерению информации:

статистический. Учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Применяется при оценке значимости получаемой информации.

семантический. Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности.

структурный. Измеряет количество информации простым подсчетом информационных элементов, составляющих сообщение. Применяется для оценки возможностей запоминающих устройств компьютеров, объемов передаваемых сообщений, инструментов кодирования без учета статистических характеристик их эксплуатации.

5

Статистический подход к измерению информации

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.

Например, сообщение о каких-либо событиях, о чьей-либо

деятельности и т.п.

"Информировать" в этом смысле означает «сообщить нечто, неизвестное раньше».

Клод Шеннон, американский учёный, заложивший основы

теории информации, рассматривает информацию как

снятую неопределенность наших знаний о чем-то.

т.е., информация уменьшает степень неопределенности, неполноту знаний о лицах, предметах, событиях и т.д.

6

Формулы Хартли и Шеннона

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновозможных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял по

следующей формуле

Формула Хартли: I = log2N

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:

I = log2100 > 6,644.

Таким образом, сообщение о верно угаданном числе

 

содержит количество информации, приблизительно равное

 

6,644 единицы информации.

7

 

Приведем другие примеры равновозможных

сообщений:

при бросании монеты: "выпала решка", "выпал орел";

на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина".

Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, здание ТГАСУ, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

8

.Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу

определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, ..., pN равны, то

каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

9

В непрозрачном мешочке находится 50 белых, 25 красных, 25 синих шаров.

Какое количество информации будет содержать сообщение о цвете вынутого шара.

1)всего шаров 50+25+25=100

2)вероятности вынуть шар белого цвета 50/100=1/2, красного цвета 25/100=1/4, синего цвета 25/100=1/4

3)По формуле Шеннона количество информации о цвете вынутого шара

I= -(1/2 log21/2 + 1/4 log21/4 + 1/4 log21/4) = 1,5

Вкорзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?

Т.к. N = 16 шаров, то по формуле Хартли

I = log2 N = log2 16 = 4

10