
- •2 Основные понятия информации
- •Основные свойства информации
- •3 Меры информации
- •Геометрическая мера информации
- •Комбинаторная мера информации
- •Адекватная мера информации (мера Хартли)
- •Статическая мера информации. Вероятность и информация
- •4 Статическая мера информации. Вероятность и информация
- •Свойства энтропия
- •7 Виды сигналов и их формирование Физические сигналы и их математическое описание
- •Непрерывные сигналы
- •Дискретные сигналы
- •12 Способы формирования сигналов
- •10 Квантование сигналов
- •11 Условие выбора оптимального шага дискретизации (теорема Котельникова)
- •14 Передача информации по каналам связи Основная характеристика каналов связи
- •15 Согласование физических характеристик канала связи и сигнала
- •16 Согласование статических свойств источника сообщений и канала связи
- •18 Исследование методов кодирования в канале связи
- •19 Особенности адаптивных систем передачи информации
- •20 Методы с средства передачи данных в информационных сетях
- •21 Принцип построения ис Типы и характеристики линей связи
- •Оптоволоконный канал
- •Высокоскоростные системы цифровой передачи данных
- •24 Методы синхронизации в системе передачи данных (спд)
- •25 Классификация информационных сетей
- •Топология информационных сетей
- •Методы обмена данными
- •Суть алгоритма
- •Алгоритм передачи
- •Методы кольцевых сегментов (слотов)
- •Алгоритм работы по данному методу:
- •28 Методы коммутации
- •29 Открытые системы и взаимосвязь между ними
- •30-38 Базовая эталонная модель взаимодействия открытых систем
- •Структура эталонной модели вос (взаимосвязь открытых систем)
- •Методы передачи данных на канальном уровне
- •44 Стек tcp/ip и его характеристики
3 Меры информации
Счетное множество дискретных элементов (символов), используемых для формирования дискретных сообщений, называется алфавитом, а элементы этого алфавита называются буквами.
Число букв в алфавите, называется объектом.
В дискретных моделях информационных систем минимальные неделимые элементы информации, называются квантами.
Геометрическая мера информации
В этом случае количество информации оценивается числом квантов, на которое может быть разбито данное информационное пространство в пределах заданных структурных габаритов.
Недостатком геометрической меры является зависимость количества информации от способа разбиения информационного пространства на элементарные ячейки.
Комбинаторная мера информации
Эта мера используется в тех случаях, когда необходимо оценить возможность передачи информации, при помощи различных комбинационных информационных элементов. Образование таких комбинаций представляет собой один из способов кодирования.
В комбинаторной мере количество информации оценивается числом возможных комбинаций, которые можно сформировать из данных комбинационных элементов.
В комбинаторике известны способы формирования комбинаций элементов. Это сочетание перестановки и размещение.
Недостатками комбинаторной меры является зависимость количества информации от способа комбинирования информационных элементов.
Адекватная мера информации (мера Хартли)
Неоднозначность в оценке количества информации присущая выше рассмотренным мерам послужила основанием для разработки метода измерения количества информации, получившего название логарифмической или адетивной меры. Эту методику предложил в 1928 году американский инженер Хартли.
В основу этой методики были положены следующие допущения:
1. Сигналы, по средствам которых передаются сообщения, имеют дискретный характер.
2. Алфавит, используемый для передачи сообщений, состоит из конечного числа m-элементов.
3. Все символы (буквы алфавита) статистически не зависимы, т.е. могут занимать любую позицию в слове.
4. Все буквы алфавита равновероятностные.
5. Передача сообщений осуществляется в отсутствии помех.
Если при этом
используется сообщение, каждый из
которых содержит n-символов,
то количество слов, которые могут
получить, равно
- число слов.
Хартли предложил оценивать количество информации:
.
В общем случае выбор основания логарифма а – может быть произвольным и влияет только на величину единицы информации.
В соответствии с принятым представлением информации на основе бинарной системы, получаем, что количество информации в одну бинарную единицу соответствует сообщению, состоящему из одного символа двоичного алфавита.
Согласно принятым Хартли допущениям, все символы рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных слов.
,
.
Следовательно, количество информации в любом из N равновероятных сообщений, равно логарифму вероятности появления этого сообщения, взятому с обратным знаком.
Если равная вероятность событий или сообщений не выполняется, то формула Хартли к таким событиям не применимы.