
- •Системы передачи информации и их назначение, и история развития
- •Информация: сущность, основные понятия и свойства
- •Свойства информации
- •Способы измерения информации в информационных системах
- •Геометрическая мера информации
- •Комбинаторная мера информации
- •Аддетивная мера информации (мера Хартли)
- •Статическая мера информации (мера Шеннона)
- •Вероятность и энтропия. Свойства энтропии.
- •Скорость передачи данных по каналам связи. Пропускная способность канала связи.
- •Виды сигналов и их физическая реализация
- •Непрерывные сигналы.
- •Дискретные сигналы
- •Информационные признаки сигналов, используемых в системах передачи данных (спд)
- •Сообщения и их виды
- •Квантование сигналов, его назначение и виды
- •Виды квантования
- •Теорема котельникова и ее практическое значение
- •Виды переносчиков сигналов и их характеристики. Способы формирования сигналов.
- •Амплитудная модуляция и ее особенности
- •Частотная и фазовая модуляции (угловая модуляция)
- •Полярная модуляция (пм)
- •Двукратные непрерывные модуляции
- •Импульсные методы модуляции, их виды
- •Передача информации по каналам связи. Основные характеристики каналов связи.
- •Согласование физических характеристик канала связи и сигнала
- •Согласование статических свойств источника сообщения и канала связи.
- •Использование методов кодирования в системах передачи данных (спд)
- •Особенности адаптивных систем передачи данных
- •Методы и средства передачи данных в информационных сетях
- •Обобщенная структурная схема телекоммуникационной системы (ткс)
- •Принципы построения информационных сетей
- •Типы и характеристики сред передачи данных телекоммуникационных систем (ткс)
- •Типы линий связи
- •Высокоскоростные системы цифровой передачи данных
- •Виды компьютерных сетей. Их классификация и основные характеристики
- •Локально вычислительные сети и их типовые топологии
- •Методы обмена данными в локально вычислительных сетях (лвс)
- •Методы коммутации узлов в системах передачи данных (спд)
- •Понятие об открытых системах и о взаимосвязи между ними
- •Базовая эталонная модель вос и ее характеристики
- •Краткая характеристика уровней эталонной модели вос
- •Сетевые протоколы их роль и функции
- •Уровни протоколов и их связь с уровнями модели вос
- •Функциональные профили
- •Стеки протоколов и их назначение
- •Стек osi, его назначение и особенности
- •Стек tcp/ip и его характеристика
- •Базовые технологии локальных сететй и их основные информационно – технические характеристики
- •Приложение Дельта модуляция
- •Разностно – дискретная модуляция
Способы измерения информации в информационных системах
Счетное множество дискретных элементов, используемых для формирования дискретных сообщений называется «алфавитом», а элементы этого алфавита называются «буквами».
Число букв в «алфавите» называется объемом «алфавита».
В дискретных моделях информационных систем минимальные неделимые элементы информации называются квантами.
Важным аспектом теории информации является понятие меры (количества) информации.
Геометрическая мера информации
В этом случает количество информации оценивается числом квантов на которое может быть разбито данное информационное пространство в пределах заданных структурных габаритов.
ᄃ
Недостатком геометрической меры является зависимость количества информации от способа разбиения информационного пространства на элементарные ячейки.
Комбинаторная мера информации
Эта мера информации используется в тех случаях когда необходимо оценить возможность передачи информации с помощью различных комбинаций информационных элементов. Образование таких комбинаций представляет собой один из способов кодирования.
Недостатком комбинаторной меры является зависимость количества информации от способа комбинирования информационных элементов.
Аддетивная мера информации (мера Хартли)
Неоднозначность в оценке количества информации, присущая рассмотренным выше мерам послужила основанием для разработки метода измерения количества информации, получившего название логарифмической или аддетивной меры.
Эту меру предложил в 1928 г. американский инженер Хартли. В основу методики были положены следующие допущения:
Сигналы по средствам которых передаются сообщения имеют дискретный характер.
Алфавит, используемый для передачи сообщений состоит из конечного числа m- элементов.
Все символы («буквы») алфавита статически независимы, то есть могут занимать любую позицию в «слове».
Все «буквы» алфавита равновероятны n- элементов в «слове».
В этом случае количество «слов» которые можем получить из алфавита, которые содержат N=mn – объем «словаря».
Хартли предложил оценивать количество информации через логарифм числа возможных сообщений (слов):
N=mn=
a – единица измерения информации
N=1 (символ)
1 нит = 1,42269 бит
1 дит = 3,32193 бит
В соответствии с принятым в настоящее время способом представления информации на основе двоичной (бинарной) системы получаем, что количество информации в одну бинарную (двоичную) единицу соответствует сообщению, состоящему из одного символа двоичного алфавита.
Согласно, принятым Хартли допущениям все символы, рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных слов:
Поэтому можно записать:
р – равновероятность появления.
Следовательно, количество информации в любом из N равновероятных сообщений равно логарифм вероятности появления этого сообщения, взятому с обратным (отрицательным) знаком.
Если равная вероятность событий или сообщений не выполняется, то формула Хартли не применима.
Лекция №3
Статическая мера информации (мера Шеннона)
Формула Хартли не отражает статического характера появления сообщений. В общем случае необходимо установить связь между количеством информации и вероятностью совершения соответствующих событий (сообщений). Эту задачу решил в 1946 г. американский математик Клод Шеннон.
При статическом (вероятностном) подходе информация рассматривается как мера вероятности появления соответствующего события (сообщения). С этой точки зрения чем событие более вероятно, тем меньшее количество информации в сообщении о нем мы имеем.
В общем случае любое событие можно рассматривать как результат исхода некоторого эксперимента.
Полная группа всех возможных исходов разрешения данной ситуации называется ансамблем событий
где N – общее число возможных исходов.
Каждая реализация такого события несет некоторое количество информации Ji, тогда среднее количество информации при проведении одного из экспериментов можно подсчитать следующим образом:
(*)
– формула Хартли
– формула Шеннона
H – энтропия.