- •Основные понятия
- •Свойства информации
- •Способы измерения информации в информационных системах
- •Энтропия
- •История развития информационных сетей:
- •Виды компьютерных сетей. Их классификация и основные характеристики
- •Архитектура ивс
- •Л.3Принципы построения информационных сетей.
- •Обобщенная структура канала связи
- •Основные характеристики каналов связи
- •Особенности адаптивных систем передачи данных (с ос)
- •Л.4.Согласование физических характеристик канала связи и сигнала.
- •Согласование статистических свойств источника сообщения и канала связи.
- •Цель лекции – изучение основных типов линий связи
- •Базовая эталонная модель вос и ее характеристики
- •Краткая характеристика уровней эталонной модели вос
- •Уровни протоколов и их связь с уровнями модели вос
- •Функциональные профили
- •Стеки протоколов и их назначение
- •Л.7.Основные принципы передачи информации на физическом уровне Виды сигналов и их физическая реализация
- •Информационные признаки сигналов, используемых в системах передачи данных (спд).
- •Квантование сигналов, его назначение и виды
- •Теорема Котельникова и ее практическое значение
- •Виды переносчиков сигналов и их характеристики.
- •Способы формирования сигналов.
- •Локальные вычислительные сети и их типовые топологии
- •Обмен данными в топологии типа «кольцо».
Способы измерения информации в информационных системах
1) Синтаксические меры информации. - объем данных в сообщении измеряется количеством символов (разрядов) принятого алфавита. Информация кодируется числовыми кодами. В различных системах счисления один разряд имеет различный вес, следовательно, меняется единица измерения данных.
В двоичной – бит, а в десятичной – дит.
Пример:
101110112 Vд=8 бит
27590310 Vд=6 дит
1 байт = 8 бит
Определение количества информации на данном синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии).
Пусть
до получения информации получатель
имел некоторые предварительные
(априорные) сведения о системе
;
мера неосведомленности о системе
является для него мерой неопределенности
состояния системы. После получения
некоторого сообщения
получатель приобрел дополнительную
информацию
,
уменьшившую его априорную неосведомленность
так, что апостериорная неопределенность
состояния системы стала
,
т.е. количество информации:
,Т.е.
энтропия
может рассматриваться как мера недостающей
информации, т.е. как мера снятия
неопределенности о состоянии системы.
По
формуле
Шеннона:
.
–вероятность
того, что система находится в i-ом
состоянии; N
– число возможных кодовых комбинаций;
,m
– символы, используемые при кодировании;n
– количество разрядов в сообщении. Т.е.
,
Информация рассматривается как мера
вероятности появления соответствующего
события (сообщения). С этой точки зрения,
чем событие более вероятно, тем меньшее
количество информации в сообщении о
нем мы имеем, и наоборот.
Формула
Хартли:
J=
aN=
amn=
n
am.
отображает количество информации в
сообщении через логарифм числа N
возможных сообщений («слов»). Согласно,
принятым Р.Хартли допущениям все символы,
рассматриваемого алфавита равновероятны,
поэтому равны и вероятности появления
любого из N
возможных «слов»:
Следовательно, количество информации в любом из N равновероятных сообщений равно логарифму вероятности появления этого сообщения, взятому с обратным (отрицательным) знаком.
Степень
информативности сообщения:
.
2) Семантическая мера информации. Измерение смыслового содержания информации, т.е. ее количество на семантическом уровне. Признание получила тезаурусная мера, введенная Шнейдером Ю.М. Она связывает семантические свойства информации со способностью пользователя воспринимать поступившие сообщения.
Т.е. тезаурус – это сведения, которыми располагает система или пользователь.
Количество семантической информации = тезаурус пользователя – тезаурус поступившей информации:


Если Ic=0 и:
а)
Если
,
то пользователь не понимает поступившую
информацию.
б)
Если
,
то пользователю не нужна поступающая
информация, т.к. она ему понятна.
Если Ic=max - поступившая информация понятна пользователю и несет ему ранее не известные сведения.
3) Прагматическая мера информации. Обусловлена особенностями использования информации потребителем (полезностью информации) для выработки управленческих решений в различных системах управления.
4) Геометрическая мера информации. Количество информации оценивается числом квантов, на которые может быть разбито данное информационное пространство.
Квант – минимальный неделимый элемент информации в дискретных моделях информационных систем.
5) Комбинаторная мера информации. Используется, когда необходимо оценить возможность передачи информации при помощи различных комбинаций элементов. Количество информации оценивается числом возможных комбинаций, которые можно сформировать из данных комбинационных элементов. [2].
