- •Введение
- •Информация, сообщения, сигналы
- •Блок-схема передачи информации
- •Краткая история и примеры устройств передачи различных сообщений
- •Классификация сигналов
- •Количество информации дискретных сообщений
- •6.1 Свойства энтропии источника
- •6.1.1 Энтропия максимальна и равна:
- •6.1.2 Энтропия есть величина вещественная и неотрицательная, а так же ограниченная.
- •6.1.4 Энтропия есть величина вещественная и неотрицательная, а так же ограниченная.
- •6.2 Двоичный дискретный источник
- •Количество информации непрерывных сообщений
- •Статистически зависимые источники сообщений
- •Практические приложения теории информации
- •9.1 Сигнал и аддитивная помеха
- •9.2 Кодирование дискретных сообщений
- •9.3 Эффективное первичное кодирование
- •9.2.1 Метод укрупнения алфавита
- •9.2.2 Методы статистического кодирования
- •9.2.3 Кодирование в биологических структурах
- •Курсовая работа по теории информации
6.1 Свойства энтропии источника
6.1.1 Энтропия максимальна и равна:
Для доказательства этого воспользуемся методом неопределенных множителей Лагранжа. С учетом условия нормировки, когда и, полагая , найдем экстремум функционала следующего вида:
(7)
Дифференцируя по , и приравнивая производные нулю, получаем
(8)
Отсюда следует, что и не зависит от номера , что может быть только при равенстве всех , а значит .
Подставляя эту величину, вычислим:
(9)
Утверждение 6.1.1 доказано!
6.1.2 Энтропия есть величина вещественная и неотрицательная, а так же ограниченная.
Первые два утверждения следуют из определения энтропии и очевидного неравенства:
Для доказательства третьего рассмотрим слагаемое . При результат очевиден. При имеем . Раскроем неопределенность по правилу Лопиталя, положив :
(10)
Утверждение 6.1.2 доказано!
6.1.3 Энтропия максимальна и равна: Hmax = logb N
Для доказательства этого воспользуемся методом неопределенных множителей Лагранжа.
С учетом условия нормировки, когда , и, полагая b = e, найдем экстремум функционала следующего вида:
(11)
Фактически, мы должны найти значение лямбда, при котором определенный функционал будет иметь точку экстремума.
Дифференцируя по pi, и приравнивая производные к нулю, получаем:
(12)
Отсюда следует, что и не зависит от номера i, что может быть только при равенстве всех pi, а значит pi = 1/N.
Подставляя эту величину, вычислим:
(13)
Энтропия как среднее значение количества информации будет равна данному выражению.
Мы доказали, что энтропия максимальна в том случае, когда все события равновероятны и при этом энтропия равна логарифму от числа всех возможных сообщений.
6.1.4 Энтропия есть величина вещественная и неотрицательная, а так же ограниченная.
Первые два утверждения следуют из определения энтропии как среднего значения и очевидного неравенства: 0 ≤ pi ≤ 1.
Для доказательства третьего рассмотрим слагаемое – pi ∙ logb pi
При pi = 1 результат очевиден и равен 0.
При pi → 0 имеем: – 0 ∙ logb 0=0 ∙ logb ∞
Получаем неопределенность и запишем с изменением знака данное выражение.
Раскроем неопределенность по правилу Лопиталя, положив b = e:
(14)
Согласно правилу Лопиталя, для нахождения предела переходим к рассмотрению отношения предела первых производных. После преобразований убеждаемся, что и в этом случае значение энтропии равно нулю.
Таким образом, имеем важные характеристики для энтропии, а именно, энтропия вещественна, неотрицательна, ограничена.
Исследуя свойства энтропии, интересно рассмотреть, как ведут себя элементы, входящие в состав суммы, определяющей энтропию. А именно как ведет себя выражение
6.1.5 Докажем, что величина (– pj ∙ log pj) принимает максимальное значение при pj = e – 1
Доказательство простое - возьмем производную от этого выражения и приравняем к нулю.
(15)
Вывод: и, следовательно, pj = e – 1
Для наглядности построим график зависимости этого произведения(– pj ∙ log pj) от .
Рисунок 14 - График зависимости произведения (– pj ∙ log pj) от .
Свой максимум выражение достигает при pj = e – 1
Максимум равен:
Данные исследования интересны тем, что изучая источники сообщений, мы понимаем, при каких условиях получаем определенные значения энтропии и при каких условиях она максимальна.