- •Введение в курс. Информационное общество. Роль информатизации в развитии общества.
- •Проблемы информатизации. Человек в информатизированной среде.
- •Свойства информации
- •Количественные характеристики информации:
- •Количество информации (Формула Шеннона)
- •Данные и их кодирование. Получение, передача и хранение информации. Кодирование
- •Двоичная система исчисления. Бит. Байт.
- •Как перевести десятичное число в двоичное?
- •Как перевести двоичное число в десятичное?
- •Кодирование текста
- •Кодирование изображения
- •Файлы и файловая структура. Файловая система ос
- •Классификация файловых систем
- •Вычислительная техника. Устройство современных вычислительных машин Структура эвм. Основные элементы пк.
- •Архитектура персонального компьютера
- •1. Центральный процессор и сопроцессор
- •Операционные системы и их основные функции. Организация файловой системы и работа с ней. Операционные системы и их основные функции. Организация файловой системы.
- •Сети локальные и глобальные. Основные понятия. Сети локальные и глобальные. Основные понятия.
- •Интернет. Основные понятия. Службы Интернета. Интернет. Основные понятия.
- •Службы интернета.
- •Поиск и получение информации из сети. Поиск и получение информации из сети.
- •Классы программных продуктов. Инструментарий технологии программирования. Пакеты прикладных программ. Классы программных продуктов.
- •Инструментарий технологии программирования.
- •Пакеты прикладных программ.
Свойства информации
Качественные характеристики информации:
Достаточность (Полнота) - характеризует качество информации и определяет минимальный, но достаточный набор данных для принятия решений или для создания новых данных, на основе имеющихся. Доступность – это мера возможности получить ту или иную информацию.
Пример: Вы прочитали в газете такое сообщение: "Будет дождь". Это неполная информация, т. к. не сказано, когда именно будет дождь. "Завтра после полудня будет дождь" - полная информация
Актуальность - это степень соответствия информации текущему моменту времени.
"На прошлой неделе в это время в Ярославле шёл дождь" - эта информация для нас не актуальна, т. к. она является устаревшей. "Завтра в Лондоне будет дождь" - это может быть новая, достоверная и полная информация, но для нас она не актуальна, т.к. мы не поедем в Лондон и нам не интересно, какая там погода. "Скоро улицы нашего города будут затоплены" - такая информация является для нас актуальной.
Адекватность – это степень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п.
Количественные характеристики информации:
Меры информации |
||
Синтаксическая мера |
Семантическая мера |
Прагматическая мера |
оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. (На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации)
|
измерения смыслового содержания информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. |
определяет полезность информации (ценность) для достижения пользователем поставленной цепи |
Количество информации (Формула Шеннона)
Количество информации определяется так же через понятие энтропии системы. Энтропия Больцмана – это мера беспорядка. При равновероятном распределении параметров системы (например, направлений движения молекул) энтропия максимальна! При упорядочивании системы (задание определенного направления движения) энтропия уменьшается.
Текст с максимальной энтропией – равновероятное распределение букв – бессмысленное содержание – 0 информации. Теперь пусть в неком информационном сообщении (в SMS-сообщении) случайным образом из-за помех некоторые буквы были заменены. Информация – это нужные, верные, достоверные сигналы - I. Неверные буквы - это шум, беспорядок - H.
H + I = 1
Пусть Pi это вероятность того, что система находится в состоянии i. (вероятность того, что буква будет, например «В»). Кол-во возможных состояний N. Тогда энтропия по Шеннону – это мера недостающей информации:
Энтропия Шеннона количественно характеризует достоверность передаваемых сигналов.
