
- •“Теория информации”
- •1. Общие методические указания
- •2. Введение
- •3. Энтропия как мера степени неопределенности состояния физической системы
- •3.1. Энтропия сложной системы. Теорема сложения энтропии
- •4. Условная энтропия. Объединение зависимых систем
- •5. Энтропия и информация
- •6. Энтропия и Информация для систем с непрерывным множеством состояний
- •7. Пропускная способность канала. Теоремы Шеннона
- •7.1. Производительность источника дискретных сообщений. Скорость передачи информации
- •7.2. Пропускная способность дискретного канала
- •8. Математические модели сигналов
- •8.1. Понятие сигнала и его модели
- •8.2. Формы представления детерминированных сигналов
- •9. Равномерная дискретизация. Теорема Котельникова
- •10. Кодирование информации
- •10.1. Кодирование как процесс выражения информации в цифровом виде
- •10.2. Определение проверочных равенств
- •11. Введение в криптографию
- •11.1. Шифры замены
- •11.2. Шифры перестановки
- •12. Задания на контрольную работу
- •12.1 Задание1
- •Вариант n 2
- •Вариант n 3
- •Вариант n 4
- •12.2 Задание №2
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •12.3 Задание№3
- •12.4 Задание № 4 Вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •13. Указание для выполнения контрольной работы
- •Задание №2 вариант № 1
- •Вариант № 2
- •Вариант № 3
- •Вариант № 4
- •14. Список литературы
5. Энтропия и информация
Рассмотрим некоторую систему X, над которой производится наблюдение, и оценим информацию, получаемую в результате того, что состояние системы Х становится полностью известным. До получения сведений (априори) энтропия системы была Н (X); после получения сведений состояние системы полностью определилось, т. е. энтропия стала равной нулю. Обозначим Ix информацию, получаемую в результате выяснения состояния системы X. Она равна уменьшению энтропии:
Ix=Н(Х)-0 или
Ix=Н(Х ) (7)
т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы.
Представим формулу (7) в виде:
Ix= - pi log pi
где pi=P(X~xi)
Пример 1. На шахматной доске в одной из клеток произвольным образом поставлена фигура. Априори все положения фигуры на доске одинаково вероятны. Определить информацию, получаемую от сообщения, в какой именно клетке находится фигура.
Решение. Энтропия системы Х с п равновероятными состояниями равна log n; в данном случае
Ix = Н (X) = log 64 = 6 (дв. ед.),
т. е. сообщение содержит 6 двоичных единиц информации. Так как все состояния системы равновероятны, то ту же информацию несет и любое конкретное сообщение типа: фигура находится в квадрате е2.
6. Энтропия и Информация для систем с непрерывным множеством состояний
На практике часто встречаются физические системы, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностей характеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, называются «непрерывными».
Рассмотрим простую систему X, определяемую одной непрерывной случайной величиной Х с плотностью распределения f(х). Энтропия такой системы
Н(Х) = Н*(Х) – log x, где
Н*(Х) = - f(x) log f(x) dx
Или эту формулу можно переписать в следующем виде.
Н(X) = - f(x) log f(x) xdx
Пример. Найти энтропию непрерывной системы Х, все состояния которой на участке (,) одинаково вероятны
f(x) = 1/( - ), при < x >
0, при х<, x>
Решение.
Н*(Х) = - (1/( - )) log (1/( - )) dx = log ( - )
Н(Х) = log ( - ) - log x
Н(Х) = log (( - )/ x)
Аналогично дается определение информации для систем с непрерывным множеством состояний.
7. Пропускная способность канала. Теоремы Шеннона
Пусть имеется источник информации Х и приемник Y, связанные каналом связи К .
Известна производительность источника информации Н1(Х), т. е. среднее количество двоичных единиц информации, поступающее от источника в единицу времени (численно оно равно средней энтропии сообщения, производимого источником в единицу времени). Пусть, кроме того, известна пропускная способность канала С1, т. е. максимальное количество информации (например, двоичных знаков 0 или 1), которое способен передать канал в ту же единицу времени. Возникает вопрос: какова должна быть пропускная способность канала, чтобы он «справлялся» со своей задачей, т. е. чтобы информация от источника Х к приемнику Y поступала без задержки?
Ответ на этот вопрос дает первая теорема Шеннона. Сформулируем ее здесь без доказательства. 1-я теорема Шеннона
Если пропускная способность канала связи С, больше энтропии источника информации в единицу времени
С1>Н1(Х).
то всегда можно закодировать достаточно длинное сообщение так, чтобы, оно передавалось каналом связи без задержки. Если же, напротив,
С1<Н1(Х),
то передача информации без задержек невозможна.
2-я теорема Шеннона
Пусть имеется источник информации Х, энтропия которого в единицу времени равна Н(Х), и канал с пропускной способностью С. Тогда если
Н(Х) > С,
То при любом кодировании передача сообщений без задержек и искажений невозможна. Если же
Н(Х) < С,
То всегда можно закодировать сообщение так, чтобы оно было передано без задержек и искажений с вероятностью, сколь угодно близкой к единице.