
- •3.Конспект лекций по темам учебной дисциплины и методические указания по изучению лекционного курса Тема 1. Понятие информации
- •Тема 2: Ақпараттың статистикалық өлшемдері. Энтропия. Энтропия қасиеттері.
- •Определение с помощью собственной информации
- •Математические свойства
- •Определение с помощью собственной информации
- •Математические свойства
- •Тема 3. Количество информации и избыточность.
Что такое информационная энтропия?
Какие виды энтропии известный на сегодняшний день?
Определение по Шеннону.
Определение с помощью собственной информации
Математические свойства
Эффективность энтропии
Тема 3. Количество информации и избыточность.
Цель лекции: Изучить понятие избыточности
Вопросы:
1. Как связаны между собой понятия количества информации и энтропия?
2. Определите понятие избыточности.
3. Определите количество информации в сообщении, составленном из к неравновероятных символов.
4. Дайте определение дифференциальной энтропии и сформулируйте её основные свойства.
Количество информации есть уменьшение энтропии вследствие опыта.
Если неопределенность снимается полностью, то информация равна энтропии:
І = Н ,
В противном случае – разнице между начальной и конечной энтропии :
I=H1-H2 (3.1)
Наибольшее количество информации получается, когда полностью снимается максимальная неопределенность – когда вероятности всех событий были одинаковы
=Нмакс
р – вероятность реализации в условиях равной вероятности всех событий. Избыточность информации есть разность между максимально возможным колличеством информации и энтропией:
(3.2)
Количество информации может быть представленно как произведение общего числа сообщений К на среднюю энтропию:
Для случая равновероятных и взаимонезависимых символов первичного алфавита количество информации в К сообщениях алфавита m равно:
(бит).
Для неравновероятных алфавитов энтропия на символ алфавита :
(бит/символ),
А количество информации (КИ) в сообщении, составленном из к неравновероятных символов
Требования, которым должна удовлетворять количество информации, следующие:
Аддитивность. КИ в двух независимых сообщениях должно равняться сумме КИ в каждом из них.
Необходимость монотонного возрастания с увеличением возможностей выбора состояния (чем больше число состояний, тем больше неопределенность).
КИ, содержащейся в сообщении о достоверном событии, и неопределенность должны равняться нулю.
Независимость КИ от качественного содержания сообщения, в частности от степени его важности для получателя, от степени возможных последствий и т. д.
Скорость передачи информации и пропускная способность канала связи.
В условиях отсутствия помех скорость передачи информации определяется количеством информации, переносимым символом сообщения в единицу в единицу времени равна: С =n * H
n –количество символов, вырабатываемых источником сообщений за единицу времени, Н – энтропия снимаемая при получении одного символа сообщения.
Техническая скорость
V=1/τ (симв/сек),
Где τ- время передачи одного символа вторичного алфавита.
Тогда, для сообщений составленных из равновероятных взаимонезависимых символов равной длительности скорость передачи информации
С=(1/τ) * log2 m (бит/сек).
В случае неравновероятных символов равной длительности
С=
(бит/сек).
Пропускная способность (или емкость канала связи) есть максимальная скорость передачи информации по данному каналу связи:
(бит/сек).
Для двоичного кода:
(бит/сек).
При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии:
Cn=n*[H(A)-H(A/B)]
или
Cn=n*[H(B)-H(B/A)]
Информационные потери при передачи сообщений по каналам связи с шумами
Среднее Количество информации, содержащееся в принятом ансамбле сообщений
а) с помощью энтропии объединения
І(А,В)=Н(А)+Н(В)-Н(А,В) (4,4)
б) с помощью условной энтропии:
І(А,В)=Н(А)-Н(А/В) (4.5)
Смысл выражения: Н(А)- энтропия источника,
Н(А/В) – среднее количество информации потерянное в канале из-за ошибок.
І(А,В)=I(В,А) (4-6)
Из формул (4.4)- (4.5) можно вывести формулу удобную для расчетов:
(4.7)
Дифференциальная энтропия
На практике множество возможных состояний источника информации составляет континуум, т.е. источники – непрерывные.
Определим энтропию непрерывного источнмка информации следующим образом: разобъем диапозон изменения непрерывной случайной величины
U,
на
конечное число
п
малых
интервалов Cu
. Поскольку Cu
мало, вероятность р
(
)
реализации значения u
из интервала
ui
, ui+Cu:
p(
)=
Тогда энтропия дискретной случайной величины U может быть задана в виде
или
Так как
то
По
мере уненьшения
р (
),
всё больше приближается к вероятности
р(
)
равной
нулю, а свойства дискретной величины U
- к свойствам непрерывной случайной
величины U
. Переходя
к пределу при
0
получаем следующее выражение для
энтропии H(U)
непрерывного
источника:
или
(3,4)
Эта величина при 0 стремится к бесконечности, что полностью соответствует определению о том, что неопредленность выбора из бесконечно большого числа возможных состояний (значений) бесконечно велика.
Первый член в правой части соотношения (3.4) - конечное значение, которое зависит только от закона распределения непрерывной случайной величины U и независит от шага квантования Cu .
Второй член того же соотношения зависит лиш от шага квантования случайной величины U, из-за него H(U) обращается в бесконечность.
Один из подходов для получения конечной характеристики информационных свойств непрерывного источника состоит в том, что в качестве неопределенности непрерывного источника принимают первый член соотношения (3.4) :
(3.5)
Она получила название относительной дифференциальной энтропии или просто дифференциальной энтропии непрерывного источника информации.
Свойства дифференциальной энтропии:
а.
Если единственным ограничением для
случайной величины U
является
область
её возможных значений
,
то максимальной дифференциальной
энтропией обладает равномерное
распределение вероятностей в этой
области.
б. Если ограничения на область значений непрерывной случайной величины U отсутствует, но известно, что дисперсия её ограничена , то максимальной дифференциальной энтропией обладает нормальное распределение величины U.
Основная литература:2[111-119J; 3(109-114]; 9J44-46].
Контрольные вопросы:
1. Как связаны между собой понятия количества информации и энтропия?
2. Определите понятие избыточности.
3. Определите количество информации в сообщении, составленном из к неравновероятных символов.
4. Дайте определение дифференциальной энтропии и сформулируйте её основные свойства.