- •Предисловие Цели и задачи изучения дисциплины
- •Краткая характеристика дисциплины, её место вучебном процессе
- •Лекция1. Понятие «информация». Количество информации
- •1.1. Понятие «информация» и свойства информации
- •1.2. Количество информации как мера уменьшения неопределенности знаний
- •1.3. Алфавитный подход к определению количества информации
- •1.4. Формула Шеннона
- •Контрольные вопросы
- •Лекция2. Системы счисления
- •2.1. Представление числовой информации с помощью систем счисления
- •2.2. Перевод чисел в позиционных системах счисления
- •2.3. Арифметические операции в позиционных системах счисления
- •Контрольные вопросы
- •Лекция3. Кодирование информации
- •3.1. Представление и кодирование информации
- •3.2. Двоичное кодирование информации в компьютере
- •3.3.Кодирование текстовой информации
- •3.4.Кодирование графической информации
- •3.5.Кодирование звуковой информации
- •Контрольные вопросы
- •Лекция4. Основы логики. Логические выражения
- •4.1. Формы мышления
- •4.2. Алгебра высказываний
- •4.3. Логические выражения и таблицы истинности
- •Контрольные вопросы
- •Лекция5. Логические основы компьютера
- •5.1. Логические функции
- •5.2. Логические законы и правила преобразования логических выражений
- •5.3. Логические основы компьютера
- •Контрольные вопросы
- •Лекция6. Основы алгоритмизации
- •6.1. Алгоритмы и их свойства
- •6.2. Основные алгоритмические конструкции
- •Контрольные вопросы
- •Лекция7. Основы программирования
- •7.1. Этапы решения прикладных задач с использованием компьютеров
- •7.2. Программа. Язык программирования
- •7.3. Основы программирования в системеTurboPascal
- •7.4. Структура программы на языке Паскаль
- •Контрольные вопросы
- •Лекция8. Моделирование и формализация
- •8.1. Исследование математических моделей
- •8.2. Геометрические модели
- •8.3. Геоинформационные модели
- •8.4. Оптимизационное моделирование
- •8.5. Логические модели
- •Контрольные вопросы
- •Список рекомендуемой литературы:
1.3. Алфавитный подход к определению количества информации
При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания, ее понятности и новизны для человека. С этой точки зрения в опыте по бросанию монеты одинаковое количество информации содержится и в зрительном образе упавшей монеты, и в коротком сообщении «Орел», и в длинной фразе «Монета упала на поверхность земли той стороной вверх, на которой изображен орел».
Однако при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее).
Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле (2.1) можно рассчитать, какое количество информации несет каждый символ.
Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда:
32 = 2I,
откуда I=5 битов.
Каждый символ несет 5 битов информации (его информационная емкость равна 5 битов). Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет один символ, на количество символов.
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
1.4. Формула Шеннона
Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения «орла» и «решки» будут различаться.
Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле:
(4.1)
где I — количество информации;
N — количество возможных событий;
pi — вероятность i-го события.
Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:
р1 = 1/2, р2 = 1/4, р3 = 1/8, p4 = 1/8.
Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле (4.1):
I = -(1/2*log21/2 + 1/4*log21/4 + 1/8*log21/8 + 1/8*log21/8) = (1/2 + 2/4 + 3/8 + 3/8) битов = 14/8 битов = 1,75 бита.
Этот подход к определению количества информации называется вероятностным.
Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле:
(4.2)
По формуле (4.2) можно определить, например, количество информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамидки:
I = log24 = 2 бита.
Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны.
Количество информации, которое мы получаем достигает максимального значения, если события равновероятны.