- •Лекция 14-15
- •План лекции
- •Понятие кода
- •Понятие кода
- •Кодирование и декодирование
- •Пример 1
- •Пример 2
- •Кодовое дерево
- •Пример кодового дерева
- •Пример кодового дерева
- •Префиксный код
- •Примеры префиксных кодов
- •Примеры префиксных кодов
- •Однозначная
- •Пример
- •Пример азбука Морзе
- •Понятие оптимального кода
- •Оптимальный двочиный префиксный код
- •Свойства оптимального двоичного префиксного
- •Свойства оптимального двоичного префиксного
- •Свойства оптимального двоичного префиксного
- •Построение дерева оптимального префиксного
- •Пример
- •Пример построения кода по кодовому дереву
- •Для разобранного примера можно построить другое дерево
- •Теорема
- •Алфавит, кодирование, код
- •Метод Фано
- •Метод Фано
- •Метод Фано
- •Пример
- •Свойства кода Фано
- •Свойства кода Фано
- •Метод Шеннона
- •Пример построения кода Шеннона
- •Свойства кода Шеннона
- •Лекция 15
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Информационная модель Клода Шеннона
- •Будем говорить, что источник передал приемнику некоторую
- •Пример 1
- •Пример 2
- •Теорема об аддитивности информации
- •Формулы Шеннона, Хартли
- •Рассмотрим теперь модель, в которой элементарным исходом является текстовое сообщение. Таким образом, Ω
- •Понятно, что анализируя различные сообщения, мы будем получать различные экспериментальные частоты символов, но
- •Рассмотрим сообщение m, состоящее из n1 символов x1, n2 символов x2 и т.
- •Количество информации, переносимой сообщением т длины N, определяется как
- •Формула Шеннона
- •Формула Хартли
- •Событие, которое может произойти или нет, называют случайным.
- •Определение
- •Примеры:
- •Формула ω Ω означает, что элементарное событие ω является
- •Определим формально меру события µ, как отображение
- •Введем функцию p(S) вероятности события как численного выражения возможности события S на заданном
- •Говорят, что заданы вероятности элементарных событий,
- •Вероятность того, что при бросании кости выпадет единица,
- •Теорема о сложении вероятностей
- •Теорема об умножении вероятностей
- •Определим формально меру события µ, как отображение из
- •КОНЕЦ ЛЕКЦИИ
- •Избыточность кодирования
- •Посчитаем информационную емкость кода: длина исходного
- •Реализация проекта
- •Проверка целостности архива
- •Построение дерева Хаффмана
- •Код Хаффмана
- •Критерии качества кодирования:
- •Информационная модель Клода Шеннона
Теорема об аддитивности информации
Теорема
Количество информации, переносимое сообщением m1 && m2 && … && mN, не зависит от порядка
отдельных сообщений и равно сумме количеств информации, переносимых сообщениями m1, …, mN по отдельности.
Выберем какой-либо порядок передачи сообщений
I(W, m1) = log2(P(m1)/P(W))
I(m1, m1&&m2) = log2(P(m1&&m2)/P(m1))
I(m1 && m2 && … && m_N-1, m1 && m2 && … && mN) = log2(P(m1&&…&&mN)/P(m1&&…m_N-1))
Пример о двух источниках:
1 |
– p(что грань 5)=1; |
log Pпосле/Pдо = log 1/1 =0; |
2 |
– p(что грань 5)=1/6; log Pпосле/Pдо = log 1/1/6 = log 6 |
|
|
≈ 2,5 бит. |
|
Формулы Шеннона, Хартли
Предположим теперь, что источник является генератором символов из некоторого множества {х1, х2, ...,хn} (назовем его алфавитом источника). Эти символы могут служить для обозначения каких-то элементарных событий, происходящих в области источника, но, абстрагируясь от них, в дальнейшем будем считать, что рассматриваемым событием является
n
поступление в канал самих символов.
p(x ) 1.
Если p(хi) — вероятностьi поступления в канал символа хi,i то1
Рассмотрим теперь модель, в которой элементарным исходом является текстовое сообщение. Таким образом, Ω — это множество всех цепочек символов произвольной длины.
По поступившему сообщению т можно посчитать экспериментальную частоту встречаемости в нем каждого символа, где N — общая длина
сообщения, а ni — число повторений в нем
vm (xi ) nNi ,
Понятно, что анализируя различные сообщения, мы будем получать различные экспериментальные частоты символов, но для источников, характеризующихся закономерностью выдачи символов (их называют эргодическими), оказывается, что в достаточно длинных сообщениях все частоты символов сходятся к некоторым устойчивым величинам которые можно рассматривать как распределение вероятностей
выдачи символов данным источником.
p( xi ) lim ni ,
(4) |
N N |
|
Рассмотрим сообщение m, состоящее из n1 символов x1, n2 символов x2 и т. д. в
произвольном порядке, как серию элементарных событий, состоящих в выдаче одиночных символов.
Тогда вероятность появления на выходе источника сообщения m равна
|
(n )n1 |
(n )nn |
|
1 |
n1 |
nn |
|
|
1 |
|
n |
|
|
||
p(m) |
N |
... |
N |
|
|
(n1 |
... nn ). |
|
|
N N |
|
|
|||
Количество информации, переносимой сообщением т длины N, определяется как
|
|
p(m) |
|
|
|
|
n1 |
n |
|
|
|
|
|
n |
|
||||
I (m) log |
|
|
log |
|
|
|
1 |
|
... n |
|
|
|
|
|
|
||||
|
2 |
|
|
2 |
|
|
|||
|
|
|
|
|
|||||
|
|
1 |
|
|
|
|
|
N |
|
|
|
|
|
N |
|||||
|
|
|
|
|
|
|
|
|
|
n
n
|
N |
|
|
i |
|
|
|
n |
|
i 1 |
|
log2 ni .N
Количество информации, приходящейся в среднем на каждый
символ в сообщении m, есть
I0 (m) N1 I (m),
где N — длина сообщения m.
Формула Шеннона



Перейдем к пределу по длине всевозможных сообщений (N —> ∞):
I |
|
( A) lim |
I |
(m) lim |
1 |
|||||||
|
|
|||||||||||
|
0 |
|
|
N |
0 |
|
N N |
|||||
|
|
|
N |
|
n |
|
|
|
|
|||
|
|
|
lim |
|
|
|
i |
log |
|
lim |
||
|
|
2 |
||||||||||
|
|
|
|
|
|
|
|
|||||
|
|
|
i 1 |
N N |
|
|
N |
|||||
N ni
i 1
ni .N
log ni 2 N
По формуле (14), вспоминая, что в достаточно |
||
ni |
|
|
большом сообщении |
|
|
N |
,Nполучаем |
|
p(xi) = lim N->∞ |
|
|
I0 ( A) p(xi ) log2 p(xi ). |
(5) |
|
i 1
Формула Хартли
Величина I0 (A) характеризует среднее количество информации на
один символ из алфавита А с заданным (или экспериментально
определенным) распределением вероятностей
р(х1), р(х2), ... , р(хN).
Рассмотрим случай, когда все символы в алфавите равновероятны:
р(х1) = р(х2) . . . = р(хN) = 1/N .
Среднее количество информации, приходящееся на |
||||||||||||
N |
1 |
|
|
|
1 |
|
1 |
|
1 |
|
|
|
каждый символ |
|
|
|
|
|
|
|
|
||||
I0 ( A) |
N |
log2 |
|
|
N |
|
log2 |
N |
log |
2 N. (6) |
||
i 1 |
|
N |
|
|
N |
|
|
|
||||
такого алфавита, по формуле Шеннона |
|
|
||||||||||
Событие, которое может произойти или нет, называют случайным.
Примеры: попадание стрелка в мишень, извлечение дамы пик из колоды карт, выигрыш билета в розыгрыше лотереи и т. д.
На основании отдельно взятого случайного события нельзя
научно предсказать, например, какие билеты окажутся
выигрышными. Но если провести достаточно большую
последовательность испытаний, то можно выявить
определенные закономерности, позволяющие делать
количественные предсказания.
Определение
Пространство элементарных событий (исходов) Ω – множество всех различных событий, возможных при проведении эксперимента.
Элементарность исходов понимается в том
смысле, что ни один из них не рассматривается
как сочетание других событий.
