
- •Введение
- •История развития
- •Информация: сущность, основные понятия и свойства
- •Способы измерения информации в информационных системах
- •Вероятность и энтропия. Свойства энтропии
- •Единицы измерения энтропии
- •Скорость передачи данных по каналам связи, пропускная способность канала связи
- •Виды сигналов и их физическая реализация
- •Информационные признаки сигналов, используемых в спд
- •Сообщения и их виды
- •Квантование сигналов, назначение и виды
- •Теорема Котельникова и ее практическое значение
- •Виды переносчиков сигналов и их характеристики. Способы формирования сигналов.
- •Модуляция и ее виды. Демодуляция, физическая реализация этих операций
- •Передача информации по каналам связи Основные характеристики каналов связи
- •15. Согласование физических характеристик канала связи и сигналов
- •Согласование статических свойств источника сообщений и канала связи (кс)
- •Обобщенная структура канала связи
- •Использование методов кодирования информации в спд
- •Особенности аддитивных систем передачи информации
- •Методы и средства передачи данных в информационных сетях
- •Принципы построения информационных сетей (ис)
- •Типы и характеристики сред передачи данных в информационных сетях
- •Высокоскоростные системы цифровой передачи данных
- •Особенности организации передачи в спд
- •Виды компьютерных сетей, их классификация и основные характеристики
- •Локальные сети (лвс) и их типовые топологии
- •Методы коммутации узлов в сетях передачи данных
- •Понятие открытых систем и взаимосвязь между ними
- •Базовая эталонная модель взаимодействия открытых систем (вос)
- •Характеристика 7 уровневой структуры модели вос
- •Передача данных на физическом уровне и способы его реализации
- •Функции канального уровня модели вос и их физическая реализация
- •Сетевой уровень модели вос, его функции и особенности реализации
- •Транспортный уровень, его функции и реализация
- •Сеансовый уровень, его назначение и особенности реализации
- •Представительный уровень модели вос, его особенности
- •Прикладной уровень, его роль и функции
- •Сетевые протоколы, их роль и функции
- •Уровни протоколов и их связь с уровнями модели
- •Функциональные профили
- •Стеки протоколов, их назначение
- •Стек osi, его назначение и основные особенности
- •Базовые технологии локальных сетей и их основные информационно-технические характеристики
Способы измерения информации в информационных системах
Счетное множество дискретных элементов (символов), используемых для формирования дискретных сообщений, называется алфавитом, а элементы этого алфавита называются буквами.
Число букв в алфавите, называется объёмом алфавита.
В дискретных моделях информационных систем минимальные неделимые элементы информации называются квантами.
Геометрическая мера информации
В этом случае количество информации оценивается числом квантов, на которое может быть разбито данное информационное пространство в пределах заданных структурных габаритов.
Недостатком геометрической меры является зависимость количества информации от способа разбиения информационного пространства на элементарные ячейки.
Комбинаторная мера информации
Эта мера используется в тех случаях, когда необходимо оценить возможность передачи информации, при помощи различных комбинационных информационных элементов. Образование таких комбинаций представляет собой один из способов кодирования.
В комбинаторной мере количество информации оценивается числом возможных комбинаций, которые можно сформировать из данных комбинационных элементов.
Известны следующие
способы формирования комбинаций:
-
сочетания; Р=п!
– перестановки;
-размещения.
Недостатком комбинаторной меры является зависимость количества информации от способа комбинирования информационных элементов.
Аддитивная мера информации (мера Хартли)
Неоднозначность в оценке количества информации, присущая выше рассмотренным мерам, послужила основанием для разработки метода измерения количества информации, получившего название логарифмической, или аддитивной, меры. Эту методику предложил в 1928 году американский инженер Хартли.
В основу этой методики были положены следующие допущения:
1. Сигналы, посредством которых передаются сообщения, имеют дискретный характер.
2. Алфавит, используемый для передачи сообщений, состоит из конечного числа m элементов.
3. Все символы (буквы алфавита) статистически независимы, т.е. могут занимать любую позицию в слове.
4. Все буквы алфавита равновероятностные.
5. Передача сообщений осуществляется в отсутствии помех.
Если при этом
используются сообщения, каждое из
которых содержит n-символов,
то количество слов, которое можно
получить, равно
.
Хартли предложил оценивать количество информации через логарифм числа возможных сообщений (слов):
.
В общем случае выбор основания логарифма а – может быть произвольным и влияет только на выбор единицы измерения количества информации.
В соответствии с принятым представлением информации на основе бинарной системы, получаем, что количество информации в одну бинарную единицу соответствует сообщению, состоящему из одного символа двоичного алфавита.
Согласно принятым Хартли допущениям, все символы рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных слов.
,
(1)
Следовательно, количество информации в любом из N равновероятных сообщений, равно логарифму вероятности появления этого сообщения, взятому с обратным знаком.
Если равная вероятность событий или сообщений не выполняется, то формула Хартли к таким событиям не применимы.
Статическая мера информации (мера Шеннона)
Формула Хартли не отражает случайного, статистического характера событий, поэтому в общем случае необходимо обеспечить связь между количеством информации и вероятностью возникновения соответствующих событий (сообщений).
Эту задачу решил в 1946 году американский математик Клод Шеннон.
При статистическом (вероятностном) подходе информация рассматривается как мера вероятности появления соответствующего сообщения.
С этой точки зрения, чем событие более вероятно, тем меньшее количество информации в сообщении о нем мы имеем.
Многие виды сообщений могут быть сведены к двойным (бинарным) событиям.
В общем случае
событие можно рассматривать результаты
исхода некоторого эксперимента. Полная
группа всех возможных исходов разрешения
данной ситуации, называется ансамблем
событий,
причём
(Теорема о полной вероятности).
Пусть общее число всех возможных исходов равно N, из которых К не повторяются.
Тогда вероятность
какого-то i-того
события.
,
.
Каждая реализация
этого события несет некоторое количество
информации
,
тогда среднее количество информации
при проведении одного опыта, можно
представить в виде выражения:
т.е.
,
т.к.
(формула Хартли (1)), то
(2) – формула
Шеннона.
где
- энтропия (мера снятия неопределённости).