![](/user_photo/2706_HbeT2.jpg)
- •Информатика теоретические основы информатики
- •Курс: информатика
- •Оглавление
- •Дидактический план
- •Тематический обзор
- •1. Информатика как наука и как вид практической деятельности
- •1.1. Основные понятия информатики. Информационный ресурс
- •1.1.1. Объект и предмет информатики
- •1.1.2. Структура современной информатики
- •1.1.3. Информационные ресурсы
- •1.2. История развития информатики
- •1.3. Место информатики в ряду других фундаментальных наук
- •1.4. Информационные технологии
- •1.5. Социально-экономические аспекты информационных технологий
- •1.6. Правовые и этические аспекты информационных технологий
- •2. Информация
- •2.1. Понятие информации. Носители информации. Сигналы
- •2.2. Измерение информации. Энтропия. Количество информации
- •2.2.1. Структурная мера информации
- •2.2.2. Статистическая мера информации
- •2.2.3. Семантическая мера информации
- •2.3. Свойства информации
- •3. Теоретические аспекты обработки информации
- •3.1. Абстрактные автоматы и понятие алгоритма. Программное управление
- •3.1.1. Понятие алгоритма
- •3.1.2. Формализация алгоритма. Абстрактные автоматы
- •3.2. Обработка аналоговой и цифровой информации. Кодирование информации
- •3.3. Системы счисления. Методы перевода чисел из одной системы счисления в другую
- •3.3.1. Основные понятия
- •Некоторые системы счисления
- •3.3.2. Двоичная система счисления
- •3.3.3. Восьмеричная и шестнадцатеричная системы счисления
- •Соответствие чисел в различных системах счисления
- •3.4. Устройства обработки информации и их характеристики
- •3.4.1. Краткая история развития устройств обработки информации
- •3.4.2. Классическая архитектура эвм
- •3.4.3. Характеристика основных блоков эвм
- •3.4.4. Основной цикл работы эвм
- •3.4.5. Накопители информации
- •3.4.6. Внешние устройства эвм
- •4. Автоматизированные информационные системы (аис)
- •4.1. Классификация аис
- •4.2. Информационный процесс в автоматизированных системах. Фазы информационного цикла и их модели
- •4.2.1. Этапы информационного процесса в аис
- •4.2.2. Сбор и преобразование информации
- •4.2.3. Передача информации
- •4.2.4. Обработка информации
- •Задания для самостоятельной работы
- •1. В следующей таблице в правом столбце запишите, что означают аббревиатуры, приведенные в левом столбце:
- •2. Сгруппируйте нижеперечисленные аис следующим образом:
- •3. Преобразуйте аналоговый сигнал X(t) в двоичный вид:
- •4. Вставьте в текст пропущенные термины:
- •5. Заполните таблицы сложения и умножения в шестеричной системе счисления:
- •6. Вычеркните неверные предложения:
- •9. О чем идет речь?
- •10. Вставьте в текст пропущенные термины:
- •11. О чем идет речь?
- •12. Вставьте пропущенные названия элементов в схеме:
- •13. Вставьте пропущенные названия элементов в схеме:
2.2. Измерение информации. Энтропия. Количество информации
Информационные меры, как правило, рассматриваются в трех аспектах: структурном, статистическом и семантическом.
В структурном аспекте рассматривается строение массивов информации и их измерение простым подсчетом информационных элементов или комбинаторным методом. Структурный подход применяется для оценки возможностей информационных систем вне зависимости от условий их применения.
При статистическом подходе используется понятие энтропии как меры неопределенности, учитывающей вероятность появления и информативность того или иного сообщения. Статистический подход учитывает конкретные условия применения информационных систем.
Семантический подход позволяет выделить полезность или ценность информационного сообщения.
2.2.1. Структурная мера информации
Информация всегда представляется в виде сообщения. Элементарная единица сообщений – символ. Символы, собранные в группы, – слова. Сообщение, оформленное в виде слов или отдельных символов, всегда передается в материально-энергетической форме (электрический, световой, звуковой сигналы и т. д.).
Различают информацию непрерывную и дискретную.
|
Рис. 2.1. Способы представления информации |
Функция x(t), изображенная на рис. 2.1, а, может быть представлена в непрерывном (рис. 2.1, б) и дискретном (рис. 2.1, в) видах. В непрерывном виде эта функция может принимать любые вещественные значения в данном диапазоне изменения аргумента t, т. е. множество значений непрерывной функции бесконечно. В дискретном виде функция x(t) может принимать вещественные значения только при определенных значениях аргумента. Какой бы малый интервал дискретности (т. е. расстояние между соседними значениями аргумента) ни выбирался, множество значений дискретной функции для заданного диапазона изменений аргумента (если он не бесконечный) будет конечно (ограничено).
При использовании структурных мер информации учитывается только дискретное строение сообщения, количество содержащихся в нем информационных элементов, связей между ними. При структурном подходе различаются геометрическая, комбинаторная и аддитивная меры информации.
Геометрическая мера предполагает измерение параметра геометрической модели информационного сообщения (длины, площади, объема и т. п.) в дискретных единицах. Например, геометрической моделью информации может быть линия единичной длины (рис 2.2,а – одноразрядное слово, принимающее значение 0 или 1), квадрат (рис. 2.2,б– двухразрядное слово) или куб (рис 2.2,в – трехразрядное слово). Максимально возможное количество информации в заданных структурах определяет информационную емкость модели (системы), которая определяется как сумма дискретных значений по всем измерениям (координатам).
В комбинаторной мере количество информации определяется как число комбинаций элементов (символов). Возможное количество информации совпадает с числом возможных сочетаний, перестановок и размещений элементов. Комбинирование символов в словах, состоящих только из 0 и 1, меняет значения слов. Рассмотрим две пары слов 100110 и 001101, 011101 и 111010. В них проведена перестановка крайних разрядов (изменено местоположение знакового разряда в числе – перенесен слева направо).
Аддитивная мера (мера Хартли), в соответствии с которой количество информации измеряется в двоичных единицах (битах), наиболее распространена. Вводятся понятия глубины q и длины n числа.
Глубина числа q – количество символов (элементов), принятых для представления информации. В каждый момент времени реализуется только один какой-либо символ. Глубина числа соответствует основанию системы счисления.
Длина числа n – количество позиций, необходимых и достаточных для представления чисел заданной величины. Длина числа соответствует разрядности системы счисления.
|
|
Рис. 2.2. Геометрическая модель информации |
I = log2N = n log2 q (2.1)
При n = 1, q = 2 I = log2 2 = 1 бит. Это и есть единица информации по Хартли.
Следовательно, 1 бит информации соответствует одному элементарному событию, которое может произойти или не произойти. Такая мера количества информации удобна тем, что она обеспечивает возможность оперировать мерой как числом. Количество информации при этом эквивалентно количеству двоичных символов 0 или 1. При наличии нескольких источников информации общее количество информации:
(2.2)
где I(qk) – количество информации от источника k.
Логарифмическая мера информации позволяет измерять количество информации и используется на практике.