
- •О.Т.Данилова Теория информации
- •Введение
- •Глава 1. Основные понятия теории информации
- •1.1. Свойства информации
- •1.2. Этапы обращения информации
- •1.3. Определение системы передачи информации. Каналы связи.
- •1.4. Алфавит сообщения
- •1.5. Источник информации
- •Глава 2. Количество информации
- •2.1. Объемный подход к измерению информации
- •2.2. Количественная мера информации р.Хартли
- •2.3. Мера информации к. Шеннона
- •2.4. Условная собственная информация. Взаимная информация
- •1 (Бит), где m – мощность алфавита.
- •Глава 3. Энтропия дискретной последовательности. Энтропия непрерывной случайной величины
- •3.1. Частная энтропия
- •Прологарифмировав последнее равенство, получим
- •3.2. Энропия типичных и нетипичных комбинаций
- •3.3. Условная энтропия
- •3.4. Энтропия объединения ансамблей
- •3.5. Канальные матрицы
- •3.6. Количество информации при неполной достоверности и статистической зависимости сообщений
- •3.7. Избыточность источника
- •3.8. Энтропия непрерывной случайной величины
- •3.9. Количество информации для непрерывных систем
- •3.10. Принцип экстремума энтропии и экстремальные распределения
- •Подставим (3.7) в (3.4):
- •3.11. Эпсилон энтропия
- •Глава 4. Общие сведения из теории сигналов
- •4.1. Классификация сигналов и систем
- •Характеристики сигналов передаваемых по каналу
- •4.3. Модуляция сигналов. Виды и характеристики носителей
- •4.4. Спектры сигналов
- •4.5. Тригонометрическая форма
- •4.6. Комплексная форма
- •4.7. Определение погрешности
- •Глава 5. Скорость передачи и пропускная способность канала связи
- •5.1. Скорость передачи информации в дискретной системе связи
- •5.2. Пропускная способность однородного симметричного канала связи
- •5.3. Пропускная способность непрерывного канала связи
- •5.4. Обмен мощности сигнала на ширину его спектра
- •5.5. Сравнение пропускной способности непрерывного и дискретного каналов связи.
- •5.6. Эффективность систем связи
- •Глава 6. Критерии описания реальных дискретных каналов
- •6.1. Описание источника ошибок на основе цепей Маркова
- •6.2. Описание источника ошибок на основе процессов восстановления
- •6.3. Описание источника ошибок на основе процессов накопления
- •6.4. Модель Гилберта
- •6.5. Модель Эллиота-Гилберта. Модель Элиота
- •6.6. Модель Беннета-Фройлиха
- •6.7. Модель Попова - Турина
- •Глава 7. Кодирование информации
- •7.1. Статистическое кодирование дискретных сообщений
- •7.2. Статистическое кодирование кодовых слов
- •Средняя длина кодового слова
- •7.3. Кодирование информации для канала с помехами
- •7.3. Разновидности помехоустойчивых кодов
- •7.4 Общие принципы использования избыточности
- •7.5. Связь корректирующей способности кода с кодовым расстоянием
- •7.6. Понятие качества корректирующего кода
- •7.7. Линейные коды
- •7.7. Математическое введение к линейным кодам
- •7.8. Линейный код как пространство линейного векторного пространства
- •7.9. Построение двоичного группового кода
- •7.10. Составление таблицы опознавателей
- •7.11. Определение проверочных равенств
- •7.12. Мажоритарное декодирование групповых кодов
- •7.13. Матричное представление линейных кодов
- •7.14. Построение циклических кодов
- •Математическое введение к циклическим кодам
- •7.17. Обнаружение одиночных ошибок
- •Исправление одиночных или обнаружение двойных ошибок
- •7.18. Обнаружение ошибок кратности три и ниже
- •7.19. Обнаружение и исправление независимых ошибок произвольной кратности
- •7.20. Методы образования циклического кода
- •7.21. Матричная запись циклического кода
- •7.22. Укороченные циклические коды
- •Глава 8. Сжатие информации
- •8.1. Основные понятия
- •8.2. Методы сжатия без потерь
- •8.3. Методы сжатия с потерями
- •8.4. Сжатие графики
- •Прямое дкп
- •8.5. Сжатие звука
- •8.6. Сжатие видеоинформации
- •Вопросы для самопроверки
- •Список литературы
1.5. Источник информации
Источником назовем совокупность собственно источника непрерывной или дискретной информации и первичного преобразователя, служащего для представления информации в форме, удобной для дальнейшего преобразования.
Источник называется стационарным, если для любых i и j вероятности двух последовательностей одинаковой длины, одна из которых начинается в момент времени i, а другая - в момент времени j, совпадают.
Многие реальные
источники достаточно хорошо описываются
марковскими моделями источника
сообщений. Согласно указанной модели
условная вероятность выбора источником
очередной
,
буквы зависит только от
предшествующих.
Математической
моделью сообщений, вырабатываемых
таким источником, являются цепи Маркова
-i
порядка. В рамках указанной модели
условная вероятность выбора ik
-й буквы
.
Если последнее равенство не зависит от времени, то есть справедливо при любом значении k, источник называется однородным.
Однородный
марковский источник называется
стационарным, если безусловная вероятность
выбора очередной буквы не зависит
от
k
.
Пример 1.11. Источником Маркова являются буквы русского (или, например, английского алфавита), поскольку появление в слове очередной буквы очень сильно зависит от предыдущих букв или даже слов.
Среди всех возможных марковских процессов можно выделить группу со свойствами, важными для теории связи. В этот класс входят так называемые ``эргодические'' процессы, и мы будем называть соответствующие источники эргодическими.
Эргодические случайные процессы – стационарные процессы характеризуются тем, что одна единственная бесконечная реализация процесса несет всю информацию о его вероятностных свойствах.
Иными словами, для эргодического процесса совершенно безразлично, существует ли множество реализаций, и вероятностные характеристики определены путем усреднения по этому множеству, ансамблю реализаций или же дана всего одна реализация бесконечной длины, а вероятностные характеристики вводятся путем усреднения по времени. Для эргодических процессов характеристики, получаемые путем усреднения по множеству и по времени, совпадают.
Хотя строгое определение эргодического процесса достаточно запутанно, основная идея проста. Для эргодического процесса все сгенерированные последовательности обладают одинаковыми статистическими свойствами, то есть, к примеру, частоты встречаемости букв, диаграмм и тек далее, оцененные по отдельным последовательностям, сходятся с ростом длины выборок к определенным пределам, не зависящим от последовательности. На самом деле это верно не для всякой последовательности, однако множество последовательностей, для которых это не выполняется, имеет меру ноль (то есть обладает нулевой вероятностью). Грубо - свойство эргодичности означает статистическую однородность.
С практической точки зрения эргодичность случайного процесса позволяет в ходе исследования одного источника сигнала получить полное представление о свойствах всей совокупности. Скажем, можно анализировать тот или иной сигнал одного объекта, распространяя соответствующие результаты на все объекты данного типа. Конечно, при этом следует соблюдать определенную осторожность, поскольку, хотя подобное распространение во многих случаях может быть обосновано с физической точки зрения, эргодичность внутренне присуща далеко не всем реальным сигналам. В какой-то степени частичной проверкой эргодичности процесса является проведение исследований не с одним объектом, а с целой группой, если при этом получаются идентичные результаты суждений о свойствах изучаемых реализаций случайного процесса.
Источник будем называть эргодическим, если его вероятностные параметры можно оценить по одной достаточно длинной реализации, которую он вырабатывает. При неограниченном возрастании длины реализации (п) оценка параметра (результат измерения) совпадает с его истинным значением с вероятностью, равной единице.
Например, при бросании игральной кости можно оценить вероятность выпадания какой-либо цифры через относительную частоту ее появления в достаточно длинной серии испытаний. Указанная серия испытаний представляет собой ту самую реализацию, по которой осуществляется оценка вероятности (параметра). Реализации, по которым можно оценить закон распределения, являются типичными.
Поэтому эргодическим источником можно назвать источник, который вырабатывает типичные последовательности.
Допустим, некоторое устройство вырабатывает (генерирует) число как независимую последовательность из единиц и нулей, которые появляются соответственно с вероятностями, равными p и q=1— р. В этом случае при неограниченном возрастании длины последовательности п с вероятностью, равной единице, появляются последовательности, количество единиц в которых незначительно отличается от среднего значения, равного пр. Такие последовательности и называются типичными. Они различаются между собой только размещением единиц, а не их количеством. Типичная последовательность несет сведения о структуре источника, то есть является типичной для данного источника.
Последовательность назовем типичной для заданного источника, если количество единиц п1 в ней удовлетворяет неравенству
|
(1.1.) |
и нетипичной в противном случае, то есть когда
|
(1.2.) |
Вероятность появления нетипичной последовательности равна вероятности, с которой п1 удовлетворяет неравенству (1.2).
Для оценки этой
вероятности воспользуемся неравенством
Чебышева, которое для произвольной
случайной величины
имеющей конечную дисперсию, при каждом
b>0
записывается
в виде
|
(1.3.) |
где
и
—
соответственно математическое ожидание
и дисперсия случайной величины
.
Полaгая,
(q=(1-p))
получим аналогичное неравенство для
случайного числа единиц
n1:
|
(1.4.) |
Следовательно, вероятность появления нетипичной последовательности
|
(1.5.) |
а вероятность появления типичной последовательности
|
(1.6.) |
Вероятность РHT
стремится к нулю, а вероятность РT
стремится к единице при любом сколь
угодно малом значении
и неограниченном возрастании длины
последовательностип.
Интервал
.
которому принадлежит количество единиц
в типичной последовательности,
неограниченно увеличивается
(
),
хотя относительная величина интервалa
всегда меньше значения
.
Докажем, что одновременно с неограниченным
увеличением длины последовательностип
можно уменьшать значение
с такой скоростью, при которой относительная
величина интервала будет стремиться
к нулю, а вероятность появления типичной
последовательности—к
единице. При этом абсолютная величина
интервала по-прежнему неограниченно
возрастает. Вероятность РT
стремится
к единице, если величина
неограниченно увеличивается с ростом
n.
Пусть
,
где
некоторый
параметр, определяющий скорость роста
величины
.Oтсюда
.
Величина
стремится к нулю с ростомп
при
.
При этом абсолютная величина интервала
не может быть постоянной или стремиться
к нулю одновременно с неограниченным
увеличением величины
,
стремлением
к нулю.
Пример 1.12.
Типичная комбинация для дискретного
источника сообщений, выдающий осмысленный
текст на русском языке, это слова со
средней длиной
символов. Нетипичная комбинация, в этом
случае будет бессмысленный набор
символов длиной
.
Если два источника различаются своей структурой (значением оцениваемого параметра), то, наблюдая реализацию, можно определить, какому из них она принадлежит. Источник, эргодический по одному параметру, может оказаться не эргодическим по другому параметру.
Дискретным источником, связанным с множеством Х, будем называть источник, который в каждую единицу времени порождает одно из сообщений множества Х.
Дискретный источник определен, если перечислены все его возможные сообщения и указаны их вероятности:
Этой стандартной формой исчерпывается описание источника, если в последовательности сообщений, создаваемой источником, нет взаимной зависимости между предыдущими и последующими сообщениями.
Источник со
статистически независимыми буквами
сообщений (источник Бернулли или
источник без памяти) будет стационарным,
если вероятность выбора 1-й буквы
алфавита не зависит от того, какое место
в слове она занимает
.
Пример 1.13. Результаты бросания монеты или игрального кубика являются процессами, порождаемые источником Бернулли. Результаты бросания кубика - сигнал с равными вероятностями всех событий. Источник такого сигнала называют еще комбинаторным. Если же на кубик нанести числа 1, 2, 2, 3, 3, 3, то мы получим прекрасный источник не равновероятных сообщений Бернулли.
Если в ансамбле сообщений соблюдается одно из двух правил:
p(xi) p(yj) для любого i > j или p(xi) p(yj) для любого i > j,
то такой источник называется монотонным.
Если для источника Бернулли необходимо знать только вероятности отдельных сообщений, то для источника Маркова необходимо получить условные вероятности в виде n+1-мерных матриц. Для марковского источника первого порядка это будет двумерная матрица размера LxL, где каждый i-й столбец показывает вероятность перехода от сообщения xi к сообщению xj, например:
|
x1 |
... |
xi-1 |
xi |
xi+1 |
... |
xL |
y1 |
p1,1 |
... |
... |
p1,i |
... |
... |
p1,L |
... |
... |
... |
... |
... |
... |
... |
... |
yj-1 |
pj-1,1 |
... |
... |
pj-1,i |
... |
... |
pj-1,L |
yj |
pj,1 |
... |
... |
pj,i |
... |
... |
pj,L |
yj+1 |
pj+1,1 |
... |
... |
pj+1,i |
... |
... |
pj+1,L |
... |
... |
... |
... |
... |
... |
... |
... |
yL |
pL,1 |
... |
... |
pL,i |
... |
... |
pL,L |
Сумма вероятностей любой строки или столбца должна равняться единице.
Математическая модель дискретного источника X есть вероятностная схема, описывающая порождаемый источником случайный процесс.
Строится она следующим образом:
1) первое сообщение источник выбирает в соответствии с вероятностями априорного одномерного распределения
;
2) второе сообщение источник выбирает в соответствии с вероятностями условного распределения для второго сообщения при выбранном первом
|
(1.4.) |
для второго такта
работы источника таких вероятностей
;
3) на такте с номером
источник выбирает сообщение с номером
в соответствии с условным распределением
размерности
:
|
(1.5.) |
где
;
при этом имеет место всего
условных вероятностей.
Если, начиная с
некоторого
,
условные распределения вероятностей
размерности
и размерности
совпадают, то говорят, что источник
обладает памятью на
тактов, т.е.,
можно сказать, что при
имеет место источник
независимых сообщений
(Бернулли), при
имеет место марковский
источник.
Пример 1.14. Пусть имеется двоичный источник (объём алфавита k=2) например, источник, выдающий только буквы а и б; порядок источника n=1. Тогда число состояний источника M=kn=21=2 (назовём их состояния q1 и q2). В этом случае вероятности появления букв а и б будут определяться следующими условными вероятностями:
p(а/q1=а), p(а/q2=б), p(б/q1=а), p(б/q2=б),
где q1=а - 1-е состояние q1; q2=б - 2-е состояние q2.
Вероятности состояний источника равны p(q1)=p(a), p(q2)=p(б).