- •Н.Н. Куцый теория информации
- •1. О понятии "информация"
- •2. Этапы обращения информации
- •3. Информационные системы
- •4. Система передачи информации: основные понятия и определения
- •5. Уровни проблем передачи информации
- •6. Теория информации
- •7. Понятия сигнала и его модели
- •8. Формы представления детерминированных сигналов
- •9. Ортогональные представления сигналов
- •10. Временная форма представления сигнала
- •11. Частотная форма представления сигнала. Спектры периодических сигналов
- •12. Распределение энергии в спектре периодического сигнала
- •13. Частотная форма представления сигнала. Спектры непериодических сигналов
- •14. Распределение энергии в спектре непериодического сигнала
- •15.Соотношения между длительностью импульсов и шириной их спектра
- •16.Спектральная плотность мощности детерминированного сигнала
- •17.Функция автокорреляции детерминированного сигнала
- •18.Случайный процесс как модель сигнала
- •19.Стационарные и эргодические процессы
- •20.Спектральное представление случайных сигналов
- •21.Частотное представление стационарных случайных процессов (дискретный спектр)
- •22.Частотное представление стационарных случайных сигналов. Непрерывные спектры
- •23.Основные свойства спектральной плотности
- •24.Преимущества цифровой формы представления сигналов
- •25.Общая постановка задачи дискретизации
- •26.Способы восстановления непрерывного сигнала
- •27.Критерии качества восстановления
- •28.Методы дискретизации посредством выборок
- •29.Равномерная дискретизация. Теорема котельникова
- •30.Теоретические и практические аспекты использования теоремы котельникова
- •31.Дискретизация по критерию наибольшего отклонения
- •32.Адаптивная дискретизация
- •33.Квантование сигнала
- •34.Квантование сигналов при наличии помех
- •35.Геометрическая форма представления сигналов
- •36.Энтропия как мера неопределенности выбора
- •37.Свойства энтропии
- •38.Условная энтропия и её свойства
- •39.Энтропия непрерывного источника информации (дифференциальная энтропия)
- •40.Свойства дифференциальной энтропии
- •41.Количество информации как мера снятой неопределенности
- •42.Эпсилон-энтропия случайной величины
- •43.Информационные характеристики источника сообщений и канала связи. Основные понятия и определения
- •44.Информационные характеристики источника дискретных сообщений
- •45.Информационные характеристики дискретных каналов связи
- •46.Информационные характеристики источника непрерывных сообщений
- •47.Информационные характеристики непрерывных каналов связи
42.Эпсилон-энтропия случайной величины
Ранее было показано, что неопределенность реализации непрерывным источником информации состояния в конкретный момент времени (отсчёта) равна бесконечности. Тем более равна бесконечности неопределенность реализации непрерывным источником конкретного сигнала длительности .
Однако такой результата получен в предположении возможности фиксировать любые сколь угодно малые различия между реализациями. На практике такая возможность отсутствует. Это объяснятся тем, что воспринимающие информацию датчики, включая человека, обладают ограниченной чувствительностью и конечной разрешающей способностью, а также тем, что процесс восприятия сопровождается помехами.
Если учесть, что нас интересует приближенное восприятие реализации, то количество информации, приходящееся на отсчёт или на единицу времени, можно вычислить.
Ограничимся рассмотрением простейшего случая, когда отдельные состояния источника информации представляют собой независимые реализации случайной величины . (Эпсилон-энтропия случайного процесса рассмотрена ниже).
Ансамбль реализаций случайной величины описывается плотностью распределения вероятностей . О значениях случайной величины можно судить по значениям другой случайной величины , если мера их различия не превышает заданной верности воспроизведения. В этом случае говорят, что воспроизводит .
Для количественной оценки степени сходства сигналов целесообразно ввести какую-либо функцию , которая имеет природу "расстояния". Тогда удобным критерием верности является среднее значение функции , взятое по всему множеству значений и :
,
где плотность совместного распределения вероятностей величин и .
Наиболее широко используется среднеквадратический критерий, при котором представляет собой квадрат обычного евклидова расстояния между точками в соответствующем пространстве.
Требование к верности в данном случае задается с использованием критерия :
,
где условная плотность распределения – функция правдоподобия того, что конкретный сигнал будет воспроизведён как сигнал ; заданное значение верности.
Так как плотность определена, то для выполнения условия (42.1) варьировать можно только условной плотностью распределения .
Если случайная величина воспроизводит случайную величину с некоторой верностью , то количество информации, которое содержится в воспроизводящей величине относительно , конечно и в соответствии с (41.10), т.е.
,
может быть записано в форме
,
где - плотность воспроизводящей величины .
Желательно обеспечить заданную верность воспроизведения при минимальном количестве получаемой информации. Поэтому среди множества функций , которые удовлетворяют (42.2), целесообразно выбрать такую, которая обеспечивает наименьшее .
Минимальное количество информации в одной случайной величине относительно другой , при котором удовлетворяется заданное требование к верности воспроизведения величины , называется энтропией величины и обозначается :
при
.
Используя безусловную и условную дифференциальные энтропии величины , выражение (42.5) можно представить в виде
,
где - условная плотность вероятности того, что в тех случаях, когда был принят сигнал , передавался сигнал .