- •1. Основные задачи оис
- •6. Современные информационные системы
- •7. Тенденции развития информационных систем
- •8. Агрегативное описание систем
- •9.Теоретико-множественный подход к описанию систем
- •10. Описание системы в виде черного ящика
- •11. Качественные методы описания системы
- •12.Количественные методы описания системы
- •13.Основные понятия и определения информационной системы.
- •14. Рассмотрение информационной системы как открытой системы
- •15.Этапы обращения информации
- •16.Виды информационных систем.
- •17. Понятия сообщений, сигнала.
- •18. Измерение информации
- •19. Основные меры информации
- •Синтаксическая мера информации.
- •Семантическая мера информации
- •Прагматическая мера информации
- •20.Энтропия.
- •21. Энтропия объединения двух статистически независимых источников информации
- •22. Условная энтропия
- •23. Энтропия объединения двух статистически связанных ансамблей
- •24. Дифференциальная энтропия и ее свойства
- •25.Эпсилон-энтропия случайной величины
- •1.7. Эпсилон-энтропия случайной величины
- •26.Количество информации
- •27. Скорость передачи информации и пропускная способность каналов связи
- •28.Потери в канале связи
- •29.Среднее количество принятой информации
- •30. Техническая скорость передачи
- •31. Скорость передачи информации
- •32. Пропускная способность дискретных каналов связи
- •33. Математические модели сигналов
- •35. Временная форма представления детерминированных сигналов
- •36.Частотная форма представления детерминированных сигналов в этом случае в качестве базисных выбраны функции:
- •(Такие функции целесообразно выбирать при анализе инвариантных во времени линейных систем). Для периодического сигнала u(t) коэффициенты сk для базисных функций называются спектром и определяются
- •37. Спектры периодического сигнала
- •38. Спектры непериодических сигналов
- •39. Распределение энергии в спектре
- •40. Соотношение между длительностью импульсов и шириной их спектров.
- •41. Каналы и системы связи
- •42. Основные определения
- •43. Непрерывная модуляция (амплитудная, частотная, фазовая)
- •44.Импульсная модуляция (амплитудно-импульсная, широтно импульсная, частотно-импульсная модуляция)
- •45. Цифровые методы модуляции (импульсно-кодовая, дифференциальная, дельта–модуляция).
- •46. Спектральный анализ модулированных колебаний.
- •47.Кодирование информации
- •48. Общие понятия теории кодирования
- •49.Аналоговые преобразователи
- •50. Эффективное кодирование (Методика Шеннона и Фэно, методика Хафмена)
- •51. Методы сжатия информации
- •52. Помехоустойчивое кодирование
- •53.Линейные групповые коды
- •Задача 12
- •54. Технические средства кодирования и декодирования для групповых кодов. Циклическое кодирование
- •55. Квантование информации
- •56. Классификация методов дискретизации
- •57, Дикретизация по времени
- •58. Выбор точности отсчетов по теореме Котельникова
- •59. Квантование по уровню
- •60. Проблемы развития современных ис Проблемы современных информационных систем
- •Какие преимущества дают облачные системы?
24. Дифференциальная энтропия и ее свойства
Дифференциальная энтропия- часть энтропии источника непрерывных сообщений, которая зависит от плотности вероятности сигнала x(t), выдаваемого источником.
Свойства диффенециальной энтропии:
1.Дифференциальная энтропия не может служить абсолютной мерой неопределенности непрерывного источника. Однако при сравнении, например, абсолютных энтропий различных источников, энтропий отсчетов сигналов на входе и выходе канала связи и т. д. второе слагаемое в выражении при вычислении соответствующих разностей сокращается, и информационные свойства полностью определяются разностью соответствующих дифференциальных энтропий (отсюда и название – дифференциальная энтропия). 2. Дифференциальная энтропия является относительной мерой неопределенности, и ее значение зависит от масштаба случайной величины U, а следовательно, и от выбора единиц ее измерения.
3. Дифференциальная энтропия, в отличие от энтропии дискретного источника, наряду с нулевыми и положительными значениями также может принимать и отрицательные значения. 4) Дифференциальная энтропия не изменяется, если к случайной величине U прибавить некоторую постоянную величину c
25.Эпсилон-энтропия случайной величины
1.7. Эпсилон-энтропия случайной величины
Воспринимающие информацию датчики, включая человека, обладают ограниченной чувствительностью и конечной разрешающей способностью, а также тем, что процесс восприятия сопровождается помехами.
Если учесть, что нас интересует приближенное восприятие реализации, то количество информации, приходящееся на отсчет или на единицу времени, можно вычислить.
Ограничимся рассмотрением простейшего случая, когда отдельные состояния источника информации представляют собой независимые реализации случайной величины U. (Эпсилон-энтропия случайного процесса рассмотрена в ? 4.4.)
Ансамбль реализации случайной величины U описывается плотностью распределения вероятностей р(u). О значениях случайной величины U можно судить по значениям другой случайной величины Z, если мера их различия не превышает заданной верности воспроизведения. В этом случае говорят, чти Z воспроизводит U.
Для количественной оценки степени сходства сигналов целесообразно ввести какую-либо функцию р(z, u), имеющую природу ?расстояния?. Тогда удобным критерием верности V(Z, U) является среднее значение функции р(z, u), взятое по всему множеству значений z и u
(1.59)
где. р(z, u) - плотность совместного распределения вероятностей величии Z и U.
Наиболее широко используется среднеквадратический критерий, при котором р(z, u) представляет собой квадрат обычного евклидова расстояния между точками в соответствующем пространстве (см. ? 2.12).
Требование к верности в данном случае задается с использованном критерия V(ZU):
(1.60)
где pu(z) -- условная плотность распределения - функция правдоподобия того, что конкретный сигнал и будет
воспроизведен как сигнал z; e - заданное значение верности.
Так как плотность р(u) определена, то для выполнения условия (1.60) варьировать можно только условной плотностью распределениярu(z).
Если случайная величина Z воспроизводит случайную величину U с некоторой верностью e , то количество информации, содержащееся в воспроизводящей величине Z относительно U, конечно и в соответствии с (1.54) может быть записано в форме
(1.61)
где
-
плотность воспроизводящей величины Z.
Желательно обеспечить заданную мерность воспроизведения при минимальном количестве получаемой информации. Поэтому среди множества функций рu(z), удовлетворяющих условию (1.60), целесообразно выбрать такую, которая обеспечивает наименьшее I(ZU)[10,35].
Минимальное количество информации в одной случайной величине Z относительно другой U, при котором удовлетворяется заданное требование к верности воспроизведения величины U, называется e-энтропией величины U и обозначается He(U):
(1.62)
при
(1.63)
Используя безусловную h(U) и условную hz(U) дифференциальные энтропии величины U, выражение (3.63) можно представить в виде
(1.64)
где pZ(U) - условная плотность вероятности того, что в теx случаях, когда был принят сигнал z, передавался сигнал u.
Пример 1.9. Найти He(U) источника информации, ансамбль состояний которого описывается нормально распределенной случайной величиной U с дисперсией s2 при вероятности воспроизведения V'(ZU)<e2.
Будем считать, что заданная верность воспроизведения обусловлена действием аддитивной статистически не связаннной с сигналом
помехой Е, причем М[E] = 0 и M [E2] = e2. Передаваемый сигнал u рассматриваем как сумму воспроизводящего сигнала z и помехи u = z + x
Так как в данном случае hz(U) в выражении (3.64) полностью определяется помехой [hz(U) = hz(Z+E) = h(E)], то HE(U) = h(U) - max h(E),
где h(E)-дифференциальная энтропия помехи; р(x) - плотность распределения помехи Е.
Ранее [см. (1.41)] нами установлено, что при ограничении на дисперсию случайной величины максимальной дифференциальной энтропией обладает нормальное распределение. Поэтому в соответствии с (1.42) получаем
откуда,
(1.65)
Так как s2 определяет среднюю мощность Рu сигнала, а e2 - среднюю мощность рx, помехи E, то выражение (3.65) характеризует зависимость эпсилон-энтропии от величины Рu/Рx, называемой отношением cигнал / помеха.
При заданном отношении сигнал/помеха значение H(U) для нормально распределенной случайной величины является максимально возможным.
Для произвольно распределенной случайной величины U при том же критерии верности и малых e [ когда Нe(U) велико] справедливо приближенное равенство
(1.66)
