
- •1. Введение: системы передачи информации, их назначение
- •История развития
- •2. Информация: сущность, основные понятия и свойства
- •3. Способы измерения информации в информационных системах
- •4. Вероятность и энтропия. Свойства энтропии
- •5. Единицы измерения энтропии. Их физический смысл
- •6 Скорость передачи данных по каналам связи, пропускная способность канала связи
- •7. Виды сигналов и их физическая реализация
- •8. Информационные признаки сигналов используемых в спд
- •9. Сообщение и их виды
- •10. Квантование сигналов, назначение и виды
- •11. Дискретизация сигналов и требования к ним. Теорема Котельникова м ее практическое значение
- •12. Виды переносчиков сигналов и их характеристики. Способы формирования сигналов.
- •13. Модуляция и ее виды. Демодуляция, физическая реализация этих операций
- •14 . Передача информации по каналам связи. Основная характеристика каналов связи
- •15. Согласование физических характеристик канала связи и сигналов
- •16. Согласование статических свойств источника сообщений и канала связи (кс)
- •17 Обобщенная структура канала связи
- •18. Использование методов кодирования информации в спд
- •19 Особенности аддитивных систем передачи информации
- •20 Методы и средства передачи данных в информационных сетях
- •21 Принципы построения информационных сетей (ис)
- •22 Типы и характеристики сред передачи данных в информационных сетях
- •23. Высокоскоростные системы цифровой передачи данных
- •24. Особенности организации передачи в спд
- •25. Виды компьютерных сетей, их классификация и основные характеристики
- •26. Локальные сети (лвс) и их типовые топологии
- •27. Методы обмена данными в лвс
- •28. Методы коммуникации узлов в сетях передачи данных
- •29 Понятие открытых систем и взаимосвязь между ними
- •30 Базовая эталонная модель взаимодействия открытых систем (вос)
- •31. Характеристика 7-ми уровневой структуры модели вос
- •32. Передача данных на физическом уровне и способы его реализации
- •33. Функции канального уровня модели вос и их физическая реализация
- •34 Сетевой уровень модели вос, его функции и особенности реализации
- •35 Транспортный уровень, его функции и реализация
- •36 Сеансовый уровень, его назначение и особенности реализации
- •37 Представительный уровень модели вос, его особенности
- •38 Прикладной уровень, его роль и функции
- •40. Уровни протоколов и их связь с уровнями модели
- •41. Функциональные профили
- •42. Стеки протоколов, их назначение
- •43. Стек osi, его назначение и основные особенности
- •45. Базовые технологии локальных сетей и их основные информационно-технические характеристики
4. Вероятность и энтропия. Свойства энтропии
При статистическом (вероятностном) подходе информация рассматривается как мера вероятности появления соответствующего сообщения. Пусть общее число всех возможных исходов равно N, из которых К не повторяются. Тогда вероятность какого-то i-того события.
,
.
среднее количество информации при проведении одного опыта
(2) – формула
Шеннона,
- энтропия.
1. Энтропия измеряется в тех же единицах, что и количество информации (бит, нит, дит).
Знак “-” в формуле
(2) означает, что энтропия всегда не
отрицательна, т.е.
.
2. Энтропия достигает максимума, если все события равновероятны.
3. Н=0, если вероятность одного из i-ых событий равна 1.
Т. о., энтропия является мерой неопределенности в поведении источника сообщений и характеризует способность этого источника выдавать информацию.
При увеличении числа возможных состояний системы энтропия увеличивается.
В общем случае, можно считать, что количество информации характеризует уменьшение энтропии в результате процесса познания.
Если неопределенность снимается полностью, то количество энтропии равно количеству информации, выданной источником.
В случае неполного разрешения ситуации, количество информации определяется разностью между начальным и конечным значением энтропии:
,
т.е. количество информации будет определяться разностью между начальным и конечным значением энтропии.
Реальные события, а также символы в реальных соотношениях не являются взаимно независимыми и равновероятными. Поэтому количество информации, которое реально переносит каждый отдельный символ, будет меньше максимального, теоретически возможного значения.
Потери количества информации характеризуется коэффициентом избыточности:
,
.
Для каналов передачи информации используют характеристику, называемую скоростью передачи информации по каналам, она равна среднему количеству информации, которая может быть передана по каналу связи в единицу времени.
Среднее количество информации, выдаваемое источником сообщения в единицу времени, называется производительностью источника.
Максимальная скорость передачи информации по каналу, называется пропускной способностью канала.
5. Единицы измерения энтропии. Их физический смысл
При статистическом (вероятностном) подходе информация рассматривается как мера вероятности появления соответствующего сообщения. Пусть общее число всех возможных исходов равно N, из которых К не повторяются. Тогда вероятность какого-то i-того события.
,
.
Хартли предложил оценивать количество информации:
.
Каждая
реализация этого события несет некоторое
количество информации
,
(1)
- формула Хартли.
среднее количество информации при проведении одного опыта
(2) – формула
Шеннона.
- энтропия.
Энтропия измеряется в тех же единицах, что и количество информации (бит, нит, дит).
Знак “-” в формуле
(2) означает, что энтропия всегда не
отрицательна, т.е.
.
По формуле Хартли:
а= 10,
е=2,72,
2,
Т. о., энтропия является мерой неопределенности в поведении источника сообщений и характеризует способность этого источника выдавать информацию.
При увеличении числа возможных состояний системы энтропия увеличивается.
В общем случае, можно считать, что количество информации характеризует уменьшение энтропии в результате процесса познания.