Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции / лекции ист от 16.01.11 рогова.docx
Скачиваний:
136
Добавлен:
13.02.2014
Размер:
136.31 Кб
Скачать

Способы измерения информации в информационных системах

1) Синтаксические меры информации. - объем данных в сообщении измеряется количеством символов (разрядов) принятого алфавита. Информация кодируется числовыми кодами. В различных системах счисления один разряд имеет различный вес, следовательно, меняется единица измерения данных.

В двоичной – бит, а в десятичной – дит.

Пример:

101110112 Vд=8 бит

27590310 Vд=6 дит

1 байт = 8 бит

Определение количества информации на данном синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии).

Пусть до получения информации получатель имел некоторые предварительные (априорные) сведения о системе ; мера неосведомленности о системеявляется для него мерой неопределенности состояния системы. После получения некоторого сообщенияполучатель приобрел дополнительную информацию, уменьшившую его априорную неосведомленность так, что апостериорная неопределенность состояния системы стала, т.е. количество информации:

,Т.е. энтропия может рассматриваться как мера недостающей информации, т.е. как мера снятия неопределенности о состоянии системы.

По формуле Шеннона: .

–вероятность того, что система находится в i-ом состоянии; N – число возможных кодовых комбинаций;,m – символы, используемые при кодировании;n – количество разрядов в сообщении. Т.е. , Информация рассматривается как мера вероятности появления соответствующего события (сообщения). С этой точки зрения, чем событие более вероятно, тем меньшее количество информации в сообщении о нем мы имеем, и наоборот.

Формула Хартли: J= aN=amn= nam. отображает количество информации в сообщении через логарифм числа N возможных сообщений («слов»). Согласно, принятым Р.Хартли допущениям все символы, рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных «слов»:

Следовательно, количество информации в любом из N равновероятных сообщений равно логарифму вероятности появления этого сообщения, взятому с обратным (отрицательным) знаком.

Степень информативности сообщения:.

2) Семантическая мера информации. Измерение смыслового содержания информации, т.е. ее количество на семантическом уровне. Признание получила тезаурусная мера, введенная Шнейдером Ю.М. Она связывает семантические свойства информации со способностью пользователя воспринимать поступившие сообщения.

Т.е. тезаурус – это сведения, которыми располагает система или пользователь.

Количество семантической информации = тезаурус пользователя – тезаурус поступившей информации:

Если Ic=0 и:

а) Если , то пользователь не понимает поступившую информацию.

б) Если , то пользователю не нужна поступающая информация, т.к. она ему понятна.

Если Ic=max - поступившая информация понятна пользователю и несет ему ранее не известные сведения.

3) Прагматическая мера информации. Обусловлена особенностями использования информации потребителем (полезностью информации) для выработки управленческих решений в различных системах управления.

4) Геометрическая мера информации. Количество информации оценивается числом квантов, на которые может быть разбито данное информационное пространство.

Квант – минимальный неделимый элемент информации в дискретных моделях информационных систем.

5) Комбинаторная мера информации. Используется, когда необходимо оценить возможность передачи информации при помощи различных комбинаций элементов. Количество информации оценивается числом возможных комбинаций, которые можно сформировать из данных комбинационных элементов. [2].