
- •2010 Г.
- •2. Способы измерения информации в информационных системах. Вероятность и энтропия.
- •Способы измерения информации в информационных системах
- •Вероятность и энтропия. Свойства энтропии.
- •Виды сигналов и их физическая реализация
- •Информационные признаки сигналов, используемых в системах передачи данных (спд).
- •Квантование сигналов, его назначение и виды
- •Теорема Котельникова и ее практическое значение
- •Виды переносчиков сигналов и их характеристики.
- •Способы формирования сигналов.
- •Виды компьютерных сетей. Их классификация и основные характеристики
- •Локальные вычислительные сети и их типовые топологии
- •Согласование статистических свойств источника сообщения и канала связи.
- •Особенности адаптивных систем передачи данных
- •Обмен данными в топологии типа «кольцо».
- •Базовая эталонная модель вос и ее характеристики
- •Краткая характеристика уровней эталонной модели вос
Балаковский институт техники, технологии и управления (филиал)
ГОУ ВПО Саратовский государственный технический университет
Факультет инженерно-строительный
ЛЕКЦИИ
по дисциплине «ИСТ»
специальности 220201.65-Управление и информатика в технических системах
для студентов очной формы обучения
Автор: к.т.н. доцент Рогова М.В.
2010 Г.
Лекция 1.
Цель лекции – изучить основы теории информации
Задачи лекции:
- изучить основные свойства информации, способы организации сигналов и сообщений,
- изучить способы измерения количества информации в ИВС.
Вопросы, рассматриваемые на лекции:
1. Основы теории информации: сущность, основные понятия и свойства
2. Способы измерения информации в информационных системах. Вероятность и энтропия.
В современном естествознании под информацией понимается упорядоченная, количественно оцениваемая совокупность материально–энергетических проявлений окружающего мира, способная быть объектом хранения, преобразования и передачи. [1].
Свойства информации:
1. Информация обеспечивает получение новых сведений (знаний) об окружающих объектах и явлениях в соответствующей области физического пространства и времени.
2. Информация в чистом виде нематериальна, но реализуется в форме материальных носителей: знаков (символов) и (или) сигналов.
3. Информация может заключаться не только в виде материальных носителей как таковых, но и в их взаимном (пространственном или временном) расположении.
4. Знаки и сигналы несут информацию только получателю, способному их воспринимать и распознавать.
Знаки (символы) являются статическими носителями информации, представляющими собой устойчиво и однозначно распознаваемые получателем материальные объекты, а именно буквы, цифры, условные обозначения и т.д.
Сигналами называются динамические процессы, характеризуемые изменением состояния во времени физических полей произвольной природы, параметры которых выступают как определенные функции времени (детерминированные, либо стохастические).
Упорядоченная последовательность символов или сигналов называется сообщением, при этом каждый из символов или сигналов в отдельности также является элементарным сообщением.
Правило, по которому производится сопоставление символов данного алфавита с сигналами, используемыми для передачи сообщений, или же с символами другого алфавита, называется правилом кодирования (кодом), а сам процесс такого сопоставления называется кодированием. Процесс, обратный произведенному кодированию, называется декодированием.
При передаче информации в цифровых технических и информационных системах в последнее время стал широко применяться термин «передача данных».
Понятие «информация» является более широким и универсальным понятием, чем понятие «данные», так как под термином «данные» принято понимать способ представления информации в соответствующем формализованном виде, позволяющем облегчать процесс передачи, обработки и хранения соответствующей информации в АИСТ(автоматизированные информационные системы).
Способы измерения информации в информационных системах
Подавляющее большинство современных информационно-вычислительных систем являются «цифровыми»,то есть используют операции под двоичными дискретными сигналами.
Счетное множество дискретных элементов, используемых для формирования дискретных сообщений, называется «алфавитом», а элементы этого алфавита называются «буквами».
Число «букв» в «алфавите» называется «объемом «алфавита».
В дискретных моделях информационных систем минимальные неделимые элементы информации называются квантами (например, символы «ø» и «1» и соответствующие им символы).
Важным аспектом теории информации является понятие меры (количества) информации. В структурной теории различают геометрическую, комбинаторную и аддитивную меры информации [2].
а) Геометрическая мера информации: в этом случает количество информации оценивается числом квантов, на которое может быть разбито данное информационное пространство (область) в пределах заданных структурных габаритов.
б) Комбинаторная мера информации: эта мера информации используется в тех случаях, когда необходимо оценить возможность передачи информации с помощью различных комбинаций информационных элементов: сочетания; перестановки; размещения.
в) Аддитивная мера информации (мера Хартли) - метод оценки количества информации, получившего название логарифмической, или аддитивной меры.
Р.Хартли
предложил оценивать количество информации
через логарифм числа N
возможных сообщений («слов»): J=
aN=
amn=
n
am.
В соответствии с наиболее распространенным в настоящее время способом представления данных на основе двоичной (бинарной) системы счисления получаем, что количество информации в одну бинарную (двоичную) единицу соответствует сообщению, состоящему из одного символа двоичного алфавита. Эта единица получила название «1 Бит» (от английского «binary digit»)
Согласно, принятым Р.Хартли допущениям все символы, рассматриваемого алфавита равновероятны, поэтому равны и вероятности появления любого из N возможных «слов»:
Следовательно, количество информации в любом из N равновероятных сообщений равно логарифму вероятности появления этого сообщения, взятому с обратным (отрицательным) знаком.
Если равная вероятность событий или сообщений не выполняется, то формула Хартли не применима, поскольку теряет смысл.
г) Статистическая мера информации (мера Шеннона): при статистическом (вероятностном) подходе информация рассматривается как мера вероятности появления соответствующего события (сообщения). С этой точки зрения, чем событие более вероятно, тем меньшее количество информации в сообщении о нем мы имеем, и наоборот.
«Энтропия», по аналогии с соответствующей термодинамической величиной, характеризует меру неопределенности (беспорядка) в системе.
Вопросы для самопроверки
1. Дать естественно - научное определение информации.
2. Перечислить основные свойства информации.
3. Дать понятие «знак» и «знаковая система».
4. Какова роль сигналов в передаче информации?
5. Какие способы организации сообщений вы знаете?
6. Дать определение «кодирования» и «декодирования».
7. На чем основаны способы измерения количества информации в ИВС?
8. В каких случаях применима формула Хартли?
9. Как рассматривается информация при статистическом (вероятностном) подходе?
10. В чем состоит смысл «энтропии» в теории информации?
Лекция 2.
Цель лекции – изучение характеристик каналов связи, способов физической реализации сигналов
Задачи лекции:
- изучить основные свойства энтропии, характеристики каналов связи
- изучить способы физической реализации сигналов, информационные признаки сигналов
Вопросы, рассматриваемые на лекции:
1. Скорость передачи данных по каналам связи. Пропускная способность канала связи.
2. Виды сигналов и их физическая реализация. Информационные признаки сигналов, используемых в системах передачи данных (СПД).