
- •Часть 4. Элементы теории информации
- •Глава 1. Энтропия
- •1.1. Комбинаторный подход к вычислению количества информации. Формула Хартли
- •Аксиомы теории информации
- •1.2. Вероятностный подход к вычислению количества информации. Формула Шеннона. Понятие об энтропии
- •Вывод формулы Шеннона
- •1.3. Единицы измерения энтропии и информации
- •С точки зрения теории кодирования существует объяснение, почему используется двоичная система (основание логарифма).
- •1.4. Свойства функции энтропии
- •, Где коэффициент по Лагранжу, а – из условия ограничения.
- •1.5. Энтропия сложных событий. Условная энтропия
- •Глава 2. Информация
- •2.1. Понятие информации
- •2.2. Характеристики дискретных источников информации
- •2.3. Свойства информации
- •2.4. Условная информация
- •Свойства условной информации
- •2.5 Формы адекватности информации
- •Синтаксическая мера информации. Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
- •2.6 Качества информации
- •Глава 3. Кодирование информации. Общие понятия
Вывод формулы Шеннона
Рассмотрим
ряд чисел
,
где i
= 1,..,n,
а mi
– целые положительные числа, такие что
.
Для кодового слова длиной mi меру неопределенности закодированного состояния можно представить в виде:
.
Для примера, приведенного в таблице, мера неопределенности будет равна:
– среднее количество знаков в кодовом слове (математическое ожидание).
Если
взять не двоичную систему счисления, а
систему счисления с основанием a,
то для ряда чисел
,
закодированных кодовыми словами длиной
mi
меру
неопределенности
закодированного
состояния можно представить в виде:
.
Если
опять обратимся к таблице, то увидим,
что
– это вероятность состояния, закодированного
кодовым словом длиной mi,
то есть pi.
При этом
.
Поэтому, выражение для неопределенности (1.1) Шеннон записал, объединив формулу для любой системы счисления и получил:
,
назвав это выражение энтропией. На самом деле впервые функция энтропии была введена в термодинамику Р.Клаузиусом (термин «энтропия» был введен тоже Клаузиусом, образовавшим его от корня греческого слова «тропе», означающего «превращение» с добавлением заимствованной из слова «энергия» приставки «эн-»), усовершенствована Л.Больцманом и наконец М.Планком. Уже в этом виде ее применил Клод Шеннон.
То
есть, в самом общем случае, на вероятностном
языке для
опыта
с
таблицей
вероятностей
исходы опыта |
А1 |
А2 |
А3 |
… |
Аk |
|
вероятности |
|
|
|
… |
|
(1.2) |
мера неопределенности равна
и
называется энтропией
опыта
(или дискретного распределения (1.2).
Напомним, что
.
Итак, энтропия – это среднее количество информации, приходящееся на один исход опыта (для дискретных систем).
Аналогичная
(1.3) формула имеет место и при
в предположении сходимости соответствующего
ряда.
Наряду с энтропией дискретного распределения рассматривается также и энтропия непрерывной случайной величины, которая определяется формулой
, (1.4)
где
– плотность распределения вероятностей.
В предположении сходимости интеграл
(1.4) является мерой неопределенности
непрерывной случайной величины.
1.3. Единицы измерения энтропии и информации
Итак,
исторически первые шаги к введению
понятия энтропии были сделаны еще в
1928 г. американским инженером-связистом
Р.Хартли, предложившим характеризовать
степень неопределенности опыта с k
различными исходами числом log
k.
За
меру
неопределенности
опыта,
имеющего
k
равновероятных
исходов,
приняли число
.
В конкретных применениях «меры степени
неопределенности» обычно используются
логарифмы при основании два. Это означает,
что за единицу измерения степени
неопределенности здесь принимается
неопределенность, содержащаяся в
событии, имеющем два равновероятных
исхода (например, в событии, состоящем
в подбрасывании идеальной монеты). Такая
единица измерения неопределенности
называется двоичной единицей или битом
(bit образовано
из двух начальных и последней букв
английского выражения binary unit, что значит
двоичная единица). Таким образом, запись
(где не указано основание логарифма)
будет обычно означать
.
Кроме того, используется дит – это энтропия системы с десятью равновероятными состояниями, вычисленная с помощью логарифма с основанием десять. Иногда бурт физическую систему с е состояниями, тогда натуральную единицу количества информации называют нитом, при этом основание логарифма в формуле Шеннона равно е.
Взаимосвязь между единицами количества информации:
.