- •1. Информация, информатика, информационные технологии
- •1.1 Информация
- •1.1.1. Понятие информации
- •1.1.2. Свойства информации
- •1.1.3. Понятие количества информации
- •1.1.4. Информационные процессы
- •1.1.5. Информация в жизни человечества
- •1.2. Предмет и структура информатики
- •Информатика
- •Аппаратное обеспечение
- •1.3. Представление (кодирование) данных
- •Системы счисления
- •Преобразование чисел из одной системы счисления в другую
- •Представление чисел в двоичном коде
- •1.3.2. Представление символьных и текстовых данных
- •1.3.3. Представление звуковых данных в двоичном коде
- •1.3.4. Представление графических данных в двоичном коде
- •1.3.5. Понятие сжатия информации
- •1.4. Структуры данных
- •1.5. Хранение данных
- •1.6. Математические основы информатики
- •1.6.1. Элементы теории множеств
- •1.6.2. Элементы теории графов
- •Основные понятия
- •Логические операции
- •Логические выражения. Порядок логических операций
- •Зависимости между логическими операциями
- •Табличное и алгебраическое задание булевских функций
- •1 1.7 Синтез цифровых схем.
- •1.7.1. Устройства обработки данных.
- •1.7.2. Построение элементов памяти цифровых устройств.
1.1.3. Понятие количества информации
Свойство полноты информации негласно предполагает, что имеется возможность измерять количество информации. Какое количество информации содержится в данной книге, какое количество информации в популярной песенке? Что содержит больше информации: роман «Война и мир» или сообщение, полученное в письме от товарища? Ответы на подобные вопросы не просты и не однозначны, т.к. во всякой информации присутствует субъективная компонента. А возможно ли вообще объективно измерить количество информации? Важнейшим результатом теории информации является вывод о том, что в определенных, весьма широких условиях, можно пренебрегая качественными особенностями информации, выразить её количество числом, а, следовательно, сравнивать количество информации, содержащейся в различных группах данных.
Существует несколько походов к понятию количества информации – это текстовый, Шеннона, и др.
В текстовом подходе единицей информации служит символ, с помощью символов записывается текст, чем больше символов (букв например), тем больше информации.
В подходе Шеннона замечено, что между информацией и неопределенностью (количеством вариантов выбора) существует тесная связь – увеличение информации, уменьшает неопределенность, а полная информация не оставляет вариантов вообще.
Количеством информации называют числовую характеристику информации, отражающую ту степень неопределенности, которая исчезает после получения информации.
Рассмотрим пример: сидя дома осенним утром, старушка предположила, что могут быть осадки, а могут и не быть, а если будут, то в форме снега или в форме дождя, то есть «бабушка надвое сказала – то ли будет, то ли нет, то ли дождик, то ли снег». Затем, выглянув в окно, увидела пасмурное небо и с большой вероятностью предположила – осадки будут, то есть, получив информацию, снизила количество вариантов выбора. Далее, взглянув на наружный термометр, она увидела, что температура отрицательная, значит, осадки следует ожидать в виде снега. Таким образом, получив последние данные о температуре, бабушка получила полную информацию о предстоящей погоде и исключила все, кроме одного, варианты выбора.
За единицу информации принимается один бит (англ. bit — binary digit — двоичная цифра). Это количество информации, при котором неопределенность, т.е. количество вариантов выбора, уменьшается вдвое или другими словами, это ответ на вопрос, требующий односложного разрешения – да или нет.
Бит — слишком мелкая единица измерения информации, она отображает всего два состояния объекта, например, интересующий нас поезд приедет в первой или во второй половине дня. Тот же случай с бабушкой синоптиком уже потребует два бита информации для описания всех возможных состояний погоды (четыре состояния). Можно использовать группы, состоящие из трех бит – триады, они отображают 23=8 состояний, группы из четырех бит тетрады 16 состояний. На практике чаще применяются более крупные единицы, например, байт, являющийся последовательностью из восьми бит. Именно восемь битов или один байт используется для того, чтобы закодировать символы алфавита, клавиши клавиатуры компьютера. Один байт также является минимальной единицей адресуемой памяти компьютера, т.е. обратиться в память можно как минимум к байту, а не биту.
Широко используются ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации. Но эта единица используется редко в компьютерной технике, связано это с аппаратными особенностями компьютеров.
