
- •1. Введение: системы передачи информации, их назначение
- •История развития
- •2. Информация: сущность, основные понятия и свойства
- •3. Способы измерения информации в информационных системах
- •4. Вероятность и энтропия. Свойства энтропии
- •5. Единицы измерения энтропии. Их физический смысл
- •6 Скорость передачи данных по каналам связи, пропускная способность канала связи
- •7. Виды сигналов и их физическая реализация
- •8. Информационные признаки сигналов используемых в спд
- •9. Сообщение и их виды
- •10. Квантование сигналов, назначение и виды
- •11. Дискретизация сигналов и требования к ним. Теорема Котельникова м ее практическое значение
- •12. Виды переносчиков сигналов и их характеристики. Способы формирования сигналов.
- •13. Модуляция и ее виды. Демодуляция, физическая реализация этих операций
- •14 . Передача информации по каналам связи. Основная характеристика каналов связи
- •15. Согласование физических характеристик канала связи и сигналов
- •16. Согласование статических свойств источника сообщений и канала связи (кс)
- •17 Обобщенная структура канала связи
- •18. Использование методов кодирования информации в спд
- •19 Особенности аддитивных систем передачи информации
- •20 Методы и средства передачи данных в информационных сетях
- •21 Принципы построения информационных сетей (ис)
- •22 Типы и характеристики сред передачи данных в информационных сетях
- •23. Высокоскоростные системы цифровой передачи данных
- •24. Особенности организации передачи в спд
- •25. Виды компьютерных сетей, их классификация и основные характеристики
- •26. Локальные сети (лвс) и их типовые топологии
- •27. Методы обмена данными в лвс
- •28. Методы коммуникации узлов в сетях передачи данных
- •29 Понятие открытых систем и взаимосвязь между ними
- •30 Базовая эталонная модель взаимодействия открытых систем (вос)
- •31. Характеристика 7-ми уровневой структуры модели вос
- •32. Передача данных на физическом уровне и способы его реализации
- •33. Функции канального уровня модели вос и их физическая реализация
- •34 Сетевой уровень модели вос, его функции и особенности реализации
- •35 Транспортный уровень, его функции и реализация
- •36 Сеансовый уровень, его назначение и особенности реализации
- •37 Представительный уровень модели вос, его особенности
- •38 Прикладной уровень, его роль и функции
- •40. Уровни протоколов и их связь с уровнями модели
- •41. Функциональные профили
- •42. Стеки протоколов, их назначение
- •43. Стек osi, его назначение и основные особенности
- •45. Базовые технологии локальных сетей и их основные информационно-технические характеристики
3. Способы измерения информации в информационных системах
Счетное множество дискретных элементов (символов), используемых для формирования дискретных сообщений, называется алфавитом, а элементы этого алфавита называются буквами.
Число букв в алфавите, называется объектом.
В дискретных моделях информационных систем минимальные неделимые элементы информации, называются квантами.
Геометрическая мера информации. В этом случае количество информации оценивается числом квантов, на которое может быть разбито данное информационное пространство в пределах заданных структурных габаритов.
Недостатком геометрической меры является зависимость количества информации от способа разбиения информационного пространства на элементарные ячейки.
Комбинаторная мера информации. Эта мера используется в тех случаях, когда необходимо оценить возможность передачи информации, при помощи различных комбинационных информационных элементов. Образование таких комбинаций представляет собой один из способов кодирования.
В комбинаторной мере количество информации оценивается числом возможных комбинаций, которые можно сформировать из данных комбинационных элементов.
Известны следующие
способы формирования комбинаций:
-
сочетание; Р=п!
– перестановка;
-размещение.
Недостатками комбинаторной меры является зависимость количества информации от способа комбинирования информационных элементов.
Аддитивная мера информации (мера Хартли). Неоднозначность в оценке количества информации присущая выше рассмотренным мерам послужила основанием для разработки метода измерения количества информации, получившего название логарифмической или аддитивной меры. Эту методику предложил в 1928 году американский инженер Хартли.
В основу этой методики были положены следующие допущения:
1. Сигналы, по средствам которых передаются сообщения, имеют дискретный характер.
2. Алфавит, используемый для передачи сообщений, состоит из конечного числа m-элементов.
3. Все символы (буквы алфавита) статистически не зависимы, т.е. могут занимать любую позицию в слове.
4. Все буквы алфавита равновероятностные.
5. Передача сообщений осуществляется в отсутствии помех.
Если при этом
используется сообщение, каждый из
которых содержит n-символов,
то количество слов, которые могут
получить, равно
- число слов.
Хартли предложил оценивать количество информации:
.
В общем случае выбор основания логарифма а – может быть произвольным и влияет только на величину единицы информации.
В соответствии с принятым представлением информации на основе бинарной системы, получаем, что количество информации в одну бинарную единицу соответствует сообщению, состоящему из одного символа двоичного алфавита.
Согласно принятым Хартли допущениям, все символы рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных слов.
,
.
Следовательно, количество информации в любом из N равновероятных сообщений, равно логарифму вероятности появления этого сообщения, взятому с обратным знаком.
Если равная вероятность событий или сообщений не выполняется, то формула Хартли к таким событиям не применимы.
Статическая мера информации (мера Шеннона). Формула Хартли не отражает случайно статистического характера событий, поэтому в общем случае необходимо обеспечить связь между количеством информации и вероятностью возникновения соответствующих событий (сообщений).
Эту задачу решил в 1946 году американский математик Клод Шеннон.
При статистическом (вероятном) подходе информация рассматривается как мера вероятности появления соответствующего сообщения.
С этой точки зрения, чем событие более вероятно, тем меньше количество информации в сообщении о нем мы имеем.
Многие виды сообщений могут быть сведены к двойным событиям.
В общем случае,
событие можно рассматривать результаты
исхода некоторого эксперимента. Полная
группа всех возможных исходов разрешения
данных ситуаций, называется ансамблем
событий.
.
Пусть общее число всех возможных исходов равно N, из которых К не повторяются.
Тогда вероятность
какого-то i-того
события.
,
.
Каждая реализация
этого события несет некоторое количество
информации
,
тогда среднее количество информации
при проведении одного опыта, можно
представить в виде выражения:
,
(1)
- формула Хартли.
(2) – формула
Шеннона.
- энтропия.