
- •“Теория информации”
- •1. Общие методические указания
- •2. Введение
- •3. Энтропия как мера степени неопределенности состояния физической системы
- •3.1. Энтропия сложной системы. Теорема сложения энтропии
- •4. Условная энтропия. Объединение зависимых систем
- •5. Энтропия и информация
- •6. Энтропия и Информация для систем с непрерывным множеством состояний
- •7. Пропускная способность канала. Теоремы Шеннона
- •7.1. Производительность источника дискретных сообщений. Скорость передачи информации
- •7.2. Пропускная способность дискретного канала
- •8. Математические модели сигналов
- •8.1. Понятие сигнала и его модели
- •8.2. Формы представления детерминированных сигналов
- •9. Равномерная дискретизация. Теорема Котельникова
- •10. Кодирование информации
- •10.1. Кодирование как процесс выражения информации в цифровом виде
- •10.2. Определение проверочных равенств
- •11. Введение в криптографию
- •11.1. Шифры замены
- •11.2. Шифры перестановки
- •12. Задания на контрольную работу
- •12.1 Задание1
- •Вариант n 2
- •Вариант n 3
- •Вариант n 4
- •12.2 Задание №2
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •12.3 Задание№3
- •12.4 Задание № 4 Вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •13. Указание для выполнения контрольной работы
- •Задание №2 вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •14. Список литературы
7.1. Производительность источника дискретных сообщений. Скорость передачи информации
Обычно источники передают сообщения, с некоторой скоростью, затрачивая в среднем время Т на передачу одного сообщения. Производительность источника H’(U) назовем суммарную энтропию сообщений переданных за единицу времени
H’(U)=(1/T)*H(U) (7.1)
Производительность измеряется в битах на секунду. Если сообщение может быть представлено в виде последовательности элементарных дискретных сообщений uk источника с энтропией H(U) следующих со скоростью Vc=1/T элементов в секунду, то H’(U)=Vc*H(U) (7.2). Аналогичным образом, обозначая H’(u/z)=(1/T)*H(u/z) и I’(u,z)=(1/T)*I(u,z) получим соответственные равенства для условных энтропии и количества информации, рассчитанных на одно сообщение a в единицу времени. Величина I’(u,z) называется скоростью передачи информации от U к Z или наоборот. Если, например U ансамбль сигналов на входе дискретного канала, а Z ансамбль сигналов на его выходе то скорость передачи информации по каналу I’(u,z)= H’(U)- H’(u/z)= H’(Z)- H’(z/u) (7.3).
Здесь H'(U) производительность источника передаваемого сигнала U, а H’(Z) "производительность" канала, т.е. полная собственная информация в принятом сигнале за единицу времени. Величина H’(u/z) представляет собой потерю информации или ненадежность канала в единицу времени, а H’(z/u) скорость создания ложной, посторонней информации в канале не имеющей отношение к U и обусловленная присутствующими в канале помехами. По определению Шеннона ненадежность канала является энтропией входа, когда выход известен, т.е. ее можно считать мерой средней неопределенности принятого сигнала.
7.2. Пропускная способность дискретного канала
В любой системе связи по каналу передается информация, скорость ее передачи определяется выражением (7.3) как видно из него это скорость зависит от свойств самого канала, но и от подаваемого на его вход сигнала, и поэтому не может характеризовать канал как средство передачи информации. Попытаемся найти объективную характеристику способности канала передавать информацию. Рассмотрим дискретный канал, через который в единицу времени передается Vk символов источника с объемом алфавита M. При передаче каждого символа в среднем по каналу проходит количество информации I’(u,z)= H’(U)- H’(u/z)= H’(Z)- H’(z/u) (7.4)
где U и Z ансамбли сообщений на входе и выходе канала. Из четырех фигурирующих здесь энтропий лишь H(U) - собственная информация источника передаваемых символов, определяется источником входного сигнала и не зависит от свойств канала. Остальные три энтропии в общем случае зависят как от свойств источника, так и от канала. Представим себе, что на вход канала можно подавать символы от различных источников характеризуемых различными распределениями вероятностей P(U) при одних и тех же значениях Vk и M. Для каждого такого источника количество информации переданной по каналу принимает свое значение. Очевидно, существует какой-то источник входного сигнала с некоторым распределением P(U) для которого величина I(U,Z) максимальна. Максимальное количество переданной информации, взятое по всевозможным источникам входного сигнала, характеризует сам канал, и называется пропускной способностью канала в расчете на один символ.
Cсимвол=max I(u,z) бит/символ (7.5)
где максимизация производится по всем возможным многомерным (т.е. учитывающим и статистическую взаимозависимость последовательно выдаваемых элементарных сообщений) распределением вероятностей P(U)). Обычно определяют пропускную способность в расчете на единицу времени.
C=max I’(u,z) бит/символ (7.6)
которую и называют просто пропускной способностью канала. Пропускная способность канала удовлетворяет системе неравенств 0<C<Vk*log M, причем С=0 при независимых входе и выходе канала, т.е. H(U/Z)=H(U) (обрыв канала или сильные помехи). Ограниченное значение
C=Vk*log M (7.7)
наблюдается в том случае, когда помех в канале нет H(U/Z)=H(Z/U)=0 при этом H(U)=H(Z)=I(U,Z) если учесть что при заданном M Hmax(U)=log M. Таким образом, пропускная способность дискретного канала без шума определяется равенством (7.7) при наличии шума C<Vk*log M.