
- •Случайные явления
- •Природа случайных явлений.
- •Массовые случайные явления.
- •Статистический подход к описанию случайных явлений
- •Опыт, событие, случайная величина.
- •Частота события.
- •Свойства частот.
- •Вероятность события.
- •Выборочное среднее.
- •Выборочные дисперсия и среднее квадратическое отклонение.
- •Энтропия как мера неопределенности
- •Свойства энтропии
- •Понятие условной энтропии
- •Связь между энтропией и информацией
- •Объективность информации.
- •Понятие и основные задачи теории кодирования
- •Математическая постановка задачи кодирования
- •Равномерное алфавитное двоичное кодирование.
- •Байтовый код
- •Представление символьной информации в компьютере.
- •Кодирование с неравной длительностью элементарных сигналов.
- •Код Морзе
- •Блочное двоичное кодирование
- •Представление и обработка чисел в компьютере
- •Виды систем счисления
- •Перевод целых чисел из одной системы счисления в другую
- •Преобразование Zp z1 Zq
- •Преобразование Zp z10 Zq
- •Алгоритмы перевода z10 Zq
- •Алгоритмы перевода Zp z10
- •Перевод чисел между системами счисления 2 – 8 – 16
- •Кодирование чисел в компьютере и действия над ними
- •Кодирование и обработка в компьютере целых чисел без знака
- •Сложение
- •Умножение
- •Кодирование и обработка в компьютере целых чисел со знаком
Свойства энтропии
Как следует из (1.4), H = 0 только в двух случаях:
какая-либо из вероятностей p(Aj) = 1; однако, при этом следует, что все остальные p(Ai) = 0 (i
j), т.е. реализуется ситуация, когда один из исходов является достоверным (и общий итог опыта перестает быть случайным);
все вероятности p(Ai) = 0, т.е. никакие из рассматриваемых исходов опыта невозможны, поскольку нетрудно показать, что:
Во всех остальных случаях, очевидно, что H > 0.
Очевидным следствием свойства аддитивности (1.1) будет утверждение, что для двух независимых опытов и
(1.5)
Энтропия сложного опыта, состоящего из нескольких независимых, равна сумме энтропий отдельных опытов.
Пусть имеется два опыта с одинаковым числом исходов n, но в одном случае они равновероятны, а в другом – нет. Каково соотношение энтропий опытов? Примем без доказательства следующее утверждение:
(1.7)
При прочих равных условиях наибольшую энтропию имеет опыт с равновероятными исходами.
Другими словами, энтропия максимальна в опытах, где все исходы равновероятны.
Здесь усматривается аналогия (имеющая глубинную первооснову!) с понятием энтропии, используемой в физике.
Впервые понятие энтропии было введено в 1865 г. немецким физиком Рудольфом Клаузиусом как функции состояния термодинамической системы, определяющей направленность самопроизвольных процессов в системе.
Клаузиус сформулировал II начало термодинамики. В частности, он показал, что энтропия достигает максимума в состоянии равновесия системы.
Позднее (в 1872 г.) Людвиг Больцман, развивая статистическую теорию, связал энтропию системы с вероятностью ее состояния, дал статистическое (вероятностное) толкование II-му началу термодинамики и, в частности, показал, что вероятность максимальна у полностью разупорядоченной (равновесной) системы, причем, энтропия и термодинамическая вероятность оказались связанными логарифмической зависимостью.
Другими словами, в физике энтропия оказывается мерой беспорядка в системе.
При этом беспорядок понимается как отсутствие знания о характеристиках объекта (например, координат и скорости молекулы); с ростом энтропии уменьшается порядок в системе, т.е. наших знания о ней.
Сходство понятий и соотношений между ними в теории информации и статистической термодинамике, как оказалось позднее, совершенно не случайно.
Понятие условной энтропии
Найдем энтропию сложного опыта в том случае, если опыты не являются независимыми, т.е. если на исход оказывает влияние результат опыта .
Например, если в ящике всего два разноцветных шара и состоит в извлечении первого, а – второго из них, то полностью снимает неопределенность сложного опыта , т.е. оказывается H( ) = H( ), а не сумме энтропии, как следует из (1.5).
Связь
между
на
могут
оказывать влияние на исходы из
,
т.е. некоторые пары событий Ai
Bj не являются независимыми.
Доказано, что для энтропии сложного опыта справедливо соотношение:
(1.10)
где
есть
средняя условная энтропия опыта
при
условии выполнении опыта
.
Полученное выражение представляет собой общее правило нахождения энтропии сложного опыта. При этом выражение (1.5) является частным случаем (1.10) при условии независимости опытов и .
Относительно условной энтропии можно высказать следующие утверждения:
Условная энтропия является величиной неотрицательной.
= 0 только в том случае, если любой исход полностью определяет исход (как в примере с двумя шарами), т.е.
В этом случае H ( ) = H ( ).
Если
опыты
и
независимы,
то
,
причем это оказывается наибольшим
значением условной энтропии.
Другими словами, опыт не может повысить неопределенность опыта ; он может либо не оказать никакого влияния (если опыты независимы), либо понизить энтропию .
Приведенные утверждения можно объединить одним неравенством:
(1.11)
т.е. условная энтропия не превосходит безусловную.
Из соотношений (1.10) и (1.11) следует, что
(1.12)
причем равенство реализуется только в том случае, если опыты и независимы.