Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
АУ-31.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
206.29 Кб
Скачать
  1. Что такое информационная энтропия?

  2. Какие виды энтропии известный на сегодняшний день?

  3. Определение по Шеннону.

  4. Определение с помощью собственной информации

  5. Математические свойства

  6. Эффективность энтропии

Тема 3. Количество информации и избыточность.

Цель лекции: Изучить понятие избыточности

Вопросы:

1. Как связаны между собой понятия количества информации и энтропия?

2. Определите понятие избыточности.

3. Определите количество информации в сообщении, составленном из к неравновероятных символов.

4. Дайте определение дифференциальной энтропии и сформулируйте её основные свойства.

Количество информации есть уменьшение энтропии вследствие опыта.

Если неопределенность снимается полностью, то информация равна энтропии:

І = Н ,

В противном случае – разнице между начальной и конечной энтропии :

I=H1-H2 (3.1)

Наибольшее количество информации получается, когда полностью снимается максимальная неопределенность – когда вероятности всех событий были одинаковы

макс

р – вероятность реализации в условиях равной вероятности всех событий. Избыточность информации есть разность между максимально возможным колличеством информации и энтропией:

(3.2)

Количество информации может быть представленно как произведение общего числа сообщений К на среднюю энтропию:

Для случая равновероятных и взаимонезависимых символов первичного алфавита количество информации в К сообщениях алфавита m равно:

(бит).

Для неравновероятных алфавитов энтропия на символ алфавита :

(бит/символ),

А количество информации (КИ) в сообщении, составленном из к неравновероятных символов

Требования, которым должна удовлетворять количество информации, следующие:

  1. Аддитивность. КИ в двух независимых сообщениях должно равняться сумме КИ в каждом из них.

  2. Необходимость монотонного возрастания с увеличением возможностей выбора состояния (чем больше число состояний, тем больше неопределенность).

  3. КИ, содержащейся в сообщении о достоверном событии, и неопределенность должны равняться нулю.

  4. Независимость КИ от качественного содержания сообщения, в частности от степени его важности для получателя, от степени возможных последствий и т. д.

Скорость передачи информации и пропускная способность канала связи.

В условиях отсутствия помех скорость передачи информации определяется количеством информации, переносимым символом сообщения в единицу в единицу времени равна: С =n * H

n –количество символов, вырабатываемых источником сообщений за единицу времени, Н – энтропия снимаемая при получении одного символа сообщения.

Техническая скорость

V=1/τ (симв/сек),

Где τ- время передачи одного символа вторичного алфавита.

Тогда, для сообщений составленных из равновероятных взаимонезависимых символов равной длительности скорость передачи информации

С=(1/τ) * log2 m (бит/сек).

В случае неравновероятных символов равной длительности

С= (бит/сек).

Пропускная способность (или емкость канала связи) есть максимальная скорость передачи информации по данному каналу связи:

(бит/сек).

Для двоичного кода:

(бит/сек).

При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии:

Cn=n*[H(A)-H(A/B)]

или

Cn=n*[H(B)-H(B/A)]

Информационные потери при передачи сообщений по каналам связи с шумами

Среднее Количество информации, содержащееся в принятом ансамбле сообщений

а) с помощью энтропии объединения

І(А,В)=Н(А)+Н(В)-Н(А,В) (4,4)

б) с помощью условной энтропии:

І(А,В)=Н(А)-Н(А/В) (4.5)

Смысл выражения: Н(А)- энтропия источника,

Н(А/В)среднее количество информации потерянное в канале из-за ошибок.

І(А,В)=I(В,А) (4-6)

Из формул (4.4)- (4.5) можно вывести формулу удобную для расчетов:

(4.7)

Дифференциальная энтропия

На практике множество возможных состояний источника информации составляет континуум, т.е. источники – непрерывные.

Определим энтропию непрерывного источнмка информации следующим образом: разобъем диапозон изменения непрерывной случайной величины

U, на конечное число п малых интервалов Cu . Поскольку Cu мало, вероятность р ( ) реализации значения u из интервала ui , ui+Cu:

p( )=

Тогда энтропия дискретной случайной величины U может быть задана в виде

или

Так как

то

По мере уненьшения р ( ), всё больше приближается к вероятности р( ) равной нулю, а свойства дискретной величины U - к свойствам непрерывной случайной величины U . Переходя к пределу при 0 получаем следующее выражение для энтропии H(U) непрерывного источника:

или

(3,4)

Эта величина при 0 стремится к бесконечности, что полностью соответствует определению о том, что неопредленность выбора из бесконечно большого числа возможных состояний (значений) бесконечно велика.

Первый член в правой части соотношения (3.4) - конечное значение, которое зависит только от закона распределения непрерывной случайной величины U и независит от шага квантования Cu .

Второй член того же соотношения зависит лиш от шага квантования случайной величины U, из-за него H(U) обращается в бесконечность.

Один из подходов для получения конечной характеристики информационных свойств непрерывного источника состоит в том, что в качестве неопределенности непрерывного источника принимают первый член соотношения (3.4) :

(3.5)

Она получила название относительной дифференциальной энтропии или просто дифференциальной энтропии непрерывного источника информации.

Свойства дифференциальной энтропии:

а. Если единственным ограничением для случайной величины U является область её возможных значений , то максимальной дифференциальной энтропией обладает равномерное распределение вероятностей в этой области.

б. Если ограничения на область значений непрерывной случайной величины U отсутствует, но известно, что дисперсия её ограничена , то максимальной дифференциальной энтропией обладает нормальное распределение величины U.

Основная литература:2[111-119J; 3(109-114]; 9J44-46].

Контрольные вопросы:

1. Как связаны между собой понятия количества информации и энтропия?

2. Определите понятие избыточности.

3. Определите количество информации в сообщении, составленном из к неравновероятных символов.

4. Дайте определение дифференциальной энтропии и сформулируйте её основные свойства.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]