- •Наука информатика Глава 1. Информатика — предмет и задачи
- •1.1. Появление и развитие информатики
- •1.2. Структура информатики
- •1.3. Влияние информатики на развитие общества: информационные революции
- •1.4. Информационные технологии: этапы развития
- •Глава 2. Технические средства информатики
- •2.1. Классификация эвм
- •2.2. Архитектура эвм
- •2.3. Основные характеристики вычислительной техники
- •2.4. Архитектура персонального компьютера
- •2.4.1. Системный блок
- •2.4.2. Материнская плата
- •2.4.3. Внутренняя память
- •2.4.4. Внешняя память
- •2.4.5. Устройства ввода
- •2.4.6. Устройства вывода
- •Глава 3. Программные средства информатики.
- •3.1. Классификация программных продуктов
- •3.2. Системное программное обеспечение
- •3.3. Пользовательское программное обеспечение
- •3.4. Инструментарий технологии программирования
- •II. Информация и информационные процессы. Глава 1. Информация.
- •1.1. Информация и данные.
- •1.2. Количественные характеристики информации.
- •Синтаксическая мера информации.
- •Семантическая мера информации
- •1.3. Качественные характеристики информации.
- •Глава 2. Технологии работы с информацией.
- •2.1. Технология кодирования информации
- •Кодирование чисел
- •Двоичная система счисления
- •Кодирование музыки
- •Кодирование текста
- •Кодирование изображений
- •Кодирование фильмов
- •2.2. Технология упаковки информации
- •1. Для любой последовательности данных существует теоретический предел сжатия, который не может быть превышен без потери части информации.
- •2. Для любого алгоритма сжатия можно указать такую последовательность данных, для которой он обеспечит лучшую степень сжатия, чем другие методы.
- •3. Для любого алгоритма сжатия можно указать такую последовательность данных, для которой данный алгоритм вообще не позволит получить сжатия.
- •Сжатие с потерей информации
- •Обратимое сжатие информации
- •2.3. Технология шифрования информации
- •Алгоритмы симметричного шифрования
- •Алгоритмы ассиметричного шифрования
- •Сравнение алгоритмов шифрования
- •Глава 3. Информационные процессы и информационные системы.
- •3.1. Информационная деятельность и информационные процессы
- •Получение информации
- •Передача и хранение информации
- •Обработка и преобразование информации
- •3.2. История развития вычислительных устройств
- •3.3. Информационные системы
- •Задачи, решаемые информационными системами
- •Алгоритмизация и программирование. Глава 1. Технология решения задач
- •1.1. Этапы решения задачи на эвм
- •1.2. Категории специалистов, занятых разработкой и сопровождением программного обеспечения
- •Глава 2. Алгоритмизация
- •2.1. Понятие, определение и свойства алгоритма
- •2.2. Способы записи алгоритмов
- •2.3. Виды алгоритмов
- •Глава 3. Программирование
- •Виды языков программирования
- •3.2. Основные понятия программирования
- •3.3. Основные конструкции языка программирования на примере basic
- •3.4. Жизненный цикл программного продукта
- •Основы информационной культуры Глава 1. Информационное общество
- •1.1. Представление об информационном обществе и информационной культуре
- •1.2. Информационные ресурсы и рынок информационных услуг
- •Глава 2. Всемирная компьютерная сеть
- •2.1. Разновидности компьютерных сетей
- •Модель взаимодействия «клиент – сервер».
- •4. Смешанные топологии
- •2.2. История Интернет
- •2.3. Структура Интернет
- •2.4. Сервисы Интернет Электронная почта
- •Поисковые системы
- •Телеконференции
- •Чаты (irc)
- •Содержание
1.2. Количественные характеристики информации.
Рис. 1.2.1 Классификация мер информации.
Синтаксическая мера информации.
Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации.
Объём данных (VД) понимается в техническом смысле этого слова как информационный объём сообщения или как объём памяти, необходимый для хранения сообщения без каких-либо изменений.
Информационный объём сообщения измеряется в битах и равен количеству двоичных цифр («0» и «1»), которыми закодировано сообщение.
В компьютерной практике слово «бит» используется также как единица измерения объёма памяти. Ячейка памяти размером в 1 бит может находиться в двух состояниях («включено» и «выключено») и в неё может быть записана одна двоичная цифра (0 или 1). Понятно, что бит — слишком маленькая единица измерения информации, поэтому пользуются кратными ей величинами. Основной единицей измерения информации является байт. 1 байт равен 8 битам. В ячейку размером в 1 байт можно поместить 8 двоичных цифр, то есть в одном байте можно хранить 256 = 28 различных чисел. Для измерения ещё бóльших объёмов информации используются такие величины:
1 Килобайт = |
210 байт = |
1024 байт |
1 Мегабайт = |
210 Килобайт = |
1024 Килобайт |
1 Гигабайт = |
210 Мегабайт = |
1024 Мегабайт |
1 Терабайт = |
210 Гигабайт = |
1024 Гигабайт |
Важно иметь представление, сколько информации может вместить килобайт, мегабайт или гигабайт. При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт. На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50 x 60 = 3000 байт ≈3 Килобайта. Вся книга среднего формата занимает ≈ 0,5 Мегабайт. Один номер четырёхстраничной газеты — 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации. Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300 Кб информации, цветной кадр содержит уже около 1 Мб информации. Телевизионный фильм продолжительностью 1,5 часа с частотой 25 кадров в секунду — 135 Гб.
Количество информации I на синтаксическом уровне определяется через понятие энтропии системы. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе α. Мерой его неосведомленности о системе является функция H(α), которая в то же время служит и мерой неопределенности состояния системы.
После получения некоторого сообщения β получатель приобрел некоторую дополнительную информацию Iβ(α), уменьшившую его априорную неосведомленность так, что неопределенность состояния системы после получения сообщения β стала Hβ(α). Тогда количество информации Iβ(α) о системе, полученной в сообщении β, определится как Iβ(α)=H(α)-Hβ(α), т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Если конечная неопределенность Hβ(α) обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации Iβ(α)=H(α). Иными словами, энтропия системы Н(а) может рассматриваться как мера недостающей информации.
Энтропия системы H(α), имеющая N возможных состояний, согласно формуле Шеннона, равна:
,гдеPi —вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, т.е. их вероятности равныPi=, ее энтропия определяется соотношением .
Часто информация кодируется числовыми кодами в той или иной системе счисления, особенно это актуально при представлении информации в компьютере. Естественно, что одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, что можно представить в виде соотношения N=mn, где N — число всевозможных отображаемых состояний; m — основание системы счисления (разнообразие символов, применяемых в алфавите); n —число разрядов (символов) в сообщении. Допустим, что по каналу связи передается n-разрядное сообщение, использующее m различных символов. Так как количество всевозможных кодовых комбинаций будет N=m", то при равновероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет I=log N=n log m — формула Хартли. Если в качестве основания логарифма принять m, то / = n. В данном случае количество информации (при условии полного априорного незнания абонентом содержания сообщения) будет равно объему данных /=VД , полученных по каналу связи.
Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.
Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.
.
С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.