- •Оглавление
- •1) Жизненный цикл информации
- •2) Понятие Информации
- •3) Подходы к оценке количества информации
- •4) Единицы информации
- •5) Формулы Хартли и Шеннона
- •6) Энтропия. Её свойства. Условная энтропия.
- •7) Схема передачи информации
- •8) Каналы связи
- •9) Классификация каналов связи
- •10) Основные задачи анализа каналов связи
- •11) Помехоустойчивость
- •12) Критерии верности
- •13) Эффективное кодирование
- •14) Корректирующее (помехоустойчивое) кодирование
- •15) Виды кодов;
- •16) Код Грея;
- •17) Коды с обнаружением и исправлением ошибок;
- •18) Прямоугольные и треугольные коды;
- •19) Теоремы Шеннона (см. вопросы 13 и 14).
- •20) Типы сигналов.
- •21) Дискретизация сигналов
- •22) Восстановление сигналов
- •26) ДПФ, его основные свойства
- •28) ДПХ, его основные свойства
- •31) Цифровые свёртки, секционированные свёртки, быстрые свёртки
- •32) Вычисление линейной свёртки через круговую
- •33) Вычисление обратного ДПФ через прямое
- •34) Цифровая интерполяция
- •35) Основная интерполяционная формула
- •36) Фильтрация и цифровые фильтры
- •37) Частотные характеристики цифровых фильтров
- •38) Устойчивость цифровых фильтров
- •39) Линейные фильтры (рекурсивные и нерекурсивные)
- •41) Задачи Анализа, синтеза, реализации ЦФ (отдельные вопросы)
- •42) Способы реализации ЦФ
- •43) Прореживание цифрового сигнала
- •44) Краевые эффекты
- •45) Двумерные цифровые фильтры, их устойчивость.
3)Подходы к оценке количества информации
1.Статистический (количество информации оценивается с точки зрения неопределенности, снимаемой при получении информации, при этом не затрагивается смысл информации)
2.Семантический (учитывается ценность информации, ее полезность; ценность определяется эффективностью в последующем управлении на ее основе, но это величина относительная)
3.Структурный (за единицу информации берется некоторая элементарная единица, следовательно, общее количество информации определяется их суммой; подход механический, при нем не учитывается ценность информации)
2. |
Бит3, |
= ln |
|
4) Единицы информации |
|||
3. |
Хартли |
4=, |
log2 |
1. |
Нат2, |
|
= lg |
|
|
2Название «Нат» происходит от слова натуральный.
3Бит (англ. binary digit — двоичное число; также игра слов: англ. bit — кусочек, частица) — единица измерения количества информации, равная одному разряду в двоичной системе счисления.
4Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада —
1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации, которая называется хартлиевским количеством информации.
5) Формулы Хартли и Шеннона
Пусть:
– число символов в алфавите [шт.]
– число символов в сообщении [шт.]
Тогда= : – возможное количество различных сообщений [шт.]
Формула=Хартлиlog (1928= logг., Р. Хартли):
– количество информации.
Примечание:
Внимательный читатель заметит, что в вышеприведенной формуле отсутствует основание логарифма. В зависимости от того, в каких единицах измеряется информация, основания логарифмов в этой и последующих формулах могут различаться (например, 2
— при использовании бит в качестве единиц измерения, e — для нат, 10 — хартли).
|
|
|
|
количество информации, содержащееся в сообщении длины |
|
. |
||||||
Формула Хартли определяетФормула Шеннона (1946 г., Шеннон): |
|
|
|
|||||||||
|
|
|
|
( ) = |
|
|
|
|
|
|
||
|
|
|
|
− ( ) ( ) |
|
|
|
|
||||
(– ) |
|
|
= 1, |
|
|
=1 |
|
|
|
|
||
– вероятность |
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|||
( ) |
– энтропия (см. следующую страницу); |
= 1, |
|
|
|
|||||||
|
|
|
− го |
|
|
|
|
|||||
|
символы сообщения, |
|
|
; |
|
|
|
|
|
|
||
|
|
|
появления |
|
|
|
символа в нашем сообщении, |
|
. |
|
|
6) Энтропия. Её свойства. Условная энтропия.
Энтропия — количество информации, переносимое одним символом сообщения.
Вспомним формулу Шеннона (1946 г., Шеннон) |
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
( ) = |
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
− ( ) ( ) |
|
|
||||||||||||
|
|
|
|
|
|
|
|
= 1, |
|
=1 |
|
|
|
|
|
|
|
= 1, |
||||
|
— вероятность |
|
|
|
|
|
|
|
|
|
|
|||||||||||
( ) |
|
|
|
|
|
|
|
|
|
− го |
|
|
|
|
|
|
|
|
||||
|
— символы сообщения, |
|
|
|
|
|
; |
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
появления |
|
|
|
|
символа в нашем сообщении, |
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
( ) = 1 |
|
|
|
|
|||||
Тогда |
( |
) = 1 |
|
|
|
|
|
|
|
=1 |
|
|
( ) |
|
= 2, |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
Пусть |
|
1 |
|
|
(аналогично для любого другого |
|
|
, |
|
). |
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
( ) = 0 |
|
|
|
|
|||||
|
|
сумма вероятностей появления всех остальных символов будет равна нулю: |
||||||||||||||||||||
Тогда |
|
( ) |
|
|
|
. |
|
|
|
|
= 1, |
|
|
|
|
|
|
|
|
|||
Следовательно, |
|
|
|
|
|
|
|
=2 |
|
|
|
|
|
|
|
|
||||||
Пусть все |
|
|
– (равновероятны) = 0 |
, |
|
|
|
. |
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
( ) = 1 |
|
|
|
|
|
||||
|
|
вероятность появления каждого символа будет одинаковой: |
|
|
||||||||||||||||||
|
|
|
|
( ) = − |
1 1 = − |
|
1 log 1 = log( ) |
|||||||||||||||
При этом энтропия достигает=1своего |
максимума |
. |
|
|
|
|
|
|||||||||||||||
Таким образом, в общем случае |
|
|
( ) [0, log( )] |
|
|
|
|
Условная энтропия
Условная энтропия – среднее количество информации, переносимое одним символом сообщения при условии корреляционных связей между символами.
|
|
|
|
|
||
|
′ |
|
|
– условная вероятность (вероятность того, что после символа последует |
||
символ |
|
) |
|
|
||
( |
/ ) |
|
|
|||
|
|
|
′ |
Формула условной энтропии: |
|
|
|
|
|
|
|
|
|
|
|
|
|
( ′/ ) = − ( ) ′/ log ′/ |
|
|
|
– максимальное количество информации, которое может перенести 1 символ. |
|||||
1 |
|
|
|
=1 |
=1 |
|
– количество информации, переносимое одним символом с учетом корреляционных |
||||||
2 |
|
|
|
|
|
|
связей= . ≥ 0,51−1 2 — коэффициент избыточности (для европейских языков )
Бит – максимальное количество информации, которое переносит 1 символ, если алфавит состоит всего из двух символов.