
- •Информатика как наука и как вид практической деятельности.
- •Место информатики в системе наук, направления развития информатики.
- •Направления развития теоретической информатики.
- •Понятие информации. Свойства информации.
- •7. Информация и данные.
- •Структурные типы данных
- •Теория информации. Основные понятия теории информации.
- •Теория кодирования. Основные понятия теории кодирования.
- •Вероятностный подход к определению количества информации.
- •Понятие энтропии, свойства энтропии. Условная энтропия.
- •Условная энтропия
- •Кодирование и декодирование. Эффективность кодирования.
- •Системы счисления.
- •Кодирование алфавитно-цифровой информации в компьютере.
- •Двоичное кодирование. Прямой, обратный, дополнительный код.
- •Прямой код двоичного числа
- •Обратный код двоичного числа
- •Дополнительный код двоичного числа
- •Кодирование текстовой информации.
- •Кодирование графической информации.
- •Разделимые коды. Префиксные коды. Равномерные коды. Избыточные коды.
- •Формула Хартли. Формула Шеннона.
- •Коды с обнаружением ошибок. Коды с исправлением ошибок. Блочные коды.
- •Оптимальные коды. Метод Хафмана.
- •Кодирование Хаффмана
- •Коды Хемминга. Величины Хемминга.
- •Систематические коды[править | править вики-текст]
- •Самоконтролирующиеся коды[править | править вики-текст]
- •Самокорректирующиеся коды[править | править вики-текст]
- •Теоремы Шеннона.
- •Криптографический подход.
- •Машина Тьюринга.
- •Кодирование по Шеннону-Фано
Теория кодирования. Основные понятия теории кодирования.
Теория кодирования информации является одним из разделов теоретической информатики. К основным задачам, решаемым в данном разделе, необходимо отнести следующие: разработка принципов наиболее экономичного кодирования информации; согласование параметров передаваемой информации с особенностями канала связи; разработка приемов, обеспечивающих надежность передачи информации по каналам связи, т.е. отсутствие потерь информации. Понятие кодирование означает преобразование информации в форму, удобную для передачи по определенному каналу связи. Декодирование – восстановление принятого сообщения из-за кодированного вида в вид доступный для потребителя.
Алфавитное кодирование, двоично-десятичное кодирование. Арифметическое кодирование и т. д.
Вероятностный подход к определению количества информации.
Количество информации в случае различных вероятностей событий определяется
по формуле
Шеннона:
где Pi – вероятность i-го события,
N – количество возможных событий
Формула была предложена в 1948 г.
Задача 1. В коробке 50 шаров, из них 40 белых и 10 чёрных. Определить количество информации в сообщении о вытаскивании наугад белого шара и чёрного шара.
Решение: Вероятность вытаскивания белого шара - P1 = 40/50 = 0,8
Вероятность вытаскивания чёрного шара P2 = 10/50 = 0,2
Количество информации о вытаскивании белого шара i1 = log2(1/0,8) = log21,25
= log1,25/log2 0,32 бит
Количество информации о вытаскивании чёрного шара i2 = log2(1/0,2) = log25 = log5/log2 2,32 бит
Ответ: 0,32 бит; 2,32 бит
Вычисление количества информации для равновероятных событий определяется по формуле Хартли:
Формула Хартли - частный случай формулы Шеннона для равновероятных событий:
где N – число возможных событий,
i – количество информации в битах.
Формула была предложена Р. Хартли в 1928 г.
Задача 1. В коробке 32 карандаша, все карандаши разного цвета. Наугад вытащили красный. Какое количество информации при этом было получено?
Решение: Так как вытаскивание карандаша любого цвета из имеющихся в коробке 32 карандашей является равновероятным, то число возможных событий равно 32.
N = 32, i = ? N = 2i, 32 = 25, i = 5 бит. Ответ: 5 бит.
Понятие энтропии, свойства энтропии. Условная энтропия.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.
Энтропия является количеством, определённым в контексте вероятностной модели для источника данных. Например, кидание монеты имеет энтропию:
бит на
одно кидание (при условии его независимости),
а оличество возможных
состояний равно:
возможных
состояния (значения) ("орёл" и
"решка").
У
источника, который генерирует строку,
состоящую только из букв «А», энтропия
равна нулю:
,
а количество возможных
состояний равно:
возможное
состояние (значение) («А») и от основания
логарифма не зависит.
Это тоже информация, которую тоже надо учитывать. Примером запоминающих устройств в которых используются разряды с энтропией равной нулю, но сколичеством информации равным 1 возможному состоянию, т.е. не равным нулю, являются разряды данных записанных в ПЗУ, в которых каждый разряд имеет только одно возможное состояние.
Так, например, опытным путём можно установить, что энтропия английского текста равна 1,5 бит на символ, что конечно будет варьироваться для разных текстов. Степень энтропии источника данных означает среднее число битов на элемент данных, требуемых для её зашифровки без потери информации, при оптимальном кодировании.
Некоторые биты данных могут не нести информации. Например, структуры данных часто хранят избыточную информацию, или имеют идентичные секции независимо от информации в структуре данных.
Количество энтропии не всегда выражается целым числом битов.
Математические свойства
Неотрицательность:
.
Ограниченность:
, что вытекает из неравенства Йенсена для вогнутой функции
и
. Если все
элементов из
равновероятны,
.
Если
независимы, то
.
Энтропия — выпуклая вверх функция распределения вероятностей элементов.
Если имеют одинаковое распределение вероятностей элементов, то
.
Эффективность
Алфавит может иметь вероятностное распределение далекое от равномерного. Если исходный алфавит содержит символов, тогда его можно сравнить с «оптимизированным алфавитом», вероятностное распределение которого равномерное. Соотношение энтропии исходного и оптимизированного алфавита — это эффективность исходного алфавита, которая может быть выражена в процентах. Эффективность исходного алфавита с символами может быть также определена как его -арная энтропия.
Энтропия ограничивает максимально возможное сжатие без потерь (или почти без потерь), которое может быть реализовано при использовании теоретически —типичного набора или, на практике, — кодирования Хаффмана, кодирования Лемпеля — Зива — Велча или арифметического кодирования.