
- •Методические указания
- •1 Основные понятия марковских процессов
- •1.1.Марковский процесс с дискретным временем
- •1.2.Однородная цепь Маркова. Переходные вероятности. Матрица перехода
- •1.3.Стационарные источники. Энтропия стационарного источника
- •2 Методы эффективного кодирования
- •2.1.Метод кодирования Шеннона - Фано
- •2.2.Метод кодирования Хаффмана
- •3 Порядок выполнения и оформления курсовой работы
- •4 Контрольные вопросы
- •5 Варианты заданий для выполнения курсовой работы вариант 1
- •Вариант 2
- •Вариант 3
- •Вариант 4
- •Вариант 5
- •Вариант 6
- •Вариант 7
- •Вариант 8
- •Вариант 9
- •Вариант 10
- •Вариант 11
- •Вариант 12
- •Вариант 13
- •Вариант 14
- •Вариант 15
- •Вариант 16
- •Вариант 17
- •Вариант 18
- •Вариант 19
- •Вариант 20
- •Вариант 21
- •Вариант 22
- •Вариант 23
- •Вариант 24
- •Приложение 1. Априорные вероятности появления букв русского алфавита
- •Библиографический список
- •Содержание
- •Методические указания
- •090301.65 «Компьютерная безопасность»
- •394026 Воронеж, Московский просп., 14
1.3.Стационарные источники. Энтропия стационарного источника
ПустьА = {a1, a2, … , аk} — конечный алфавит. Рассмотрим в качестве пространства событий Ω множество бесконечных (в обе стороны) последовательностей букв алфавитаА, т. е.Ω= А∞. ПустьSijпринадлежитА∞состоит из последовательностей, имеющих наj-ом месте буквуаi. Ясно, что множествоSj= {Sij }i=1...k является разбиениемА∞[8].
ИсточникS определяется как множество разбиенийSj с совокупностью всевозможных условных вероятностей элементов разбиенийp(Si0 j0 | Si1 j1...Sinjn) и p(Sij).
ИсточникSназывается стационарным, если вероятностиp(Si0 j0 | Si1 j1...Sinjn) и p(Sij) независимы относительно сдвигов, т. е. справедливы равенства
p(Si0 j0/Si1 j1...Sinjn) = p(Si00/Si1 j1-j0...Sinjn-j0),
p(Sij0)= p(Si0).
ЕслиS — стационарный источник, то событияSi11,Si12 …Sinn обычно отождествляются с соответствующими наборами буквai1, ai2, … , аinи вместоp(Sinj+n/Si0 jSi1 j+1...Sin-1 jn-j0)пишут p(ain/ai0ai1 … аin-1), подразумевая под этим вероятность появления буквы аin после набора букв ai0ai1 … аin-1.
Энтропией стационарного источника Sназывается величина
H(S)= limH(Sп/S1S2...Sn-1).
Стационарный источникS называется источником Бернулли, если p(Sij/Si1 j1Si2 j2...Sinjn) = p(Sij). Другими словами,S — источник Бернулли, если вероятность появления буквы не зависит ни от места в последовательности, ни от предыдущих букв. Для источника Бернулли новое определение энтропии совпадает с определением, использовавшимся ранее [8, 9]:
Стационарный источник S называется Марковским источником r-го порядка, если
p(Sij/Sinj-nSin-1 j-n+1...Si1 j-1)=
= p(Sij/Sir j-rSir-1j-r+1... Si1 j-1)
приr≤ п. Другими словами, вероятность появления следующей буквы зависит только отr предыдущих. ЕслиS — Марковский источник r-го порядка, то
H(S) =H(Sr+1/S1 S2... Sr) =
= –∑p(Si11Si22 ...SirrSir+1r+1)log p(Sir+1r+1/Si11
i1…ir+1
Si22...Sirr)=
= –∑p(ai1… аir+1) log p(аir+1/ai1… аir).
i1…ir+1
Пронумеруем подряд все возможные слова из г букв si = ai1 ...air. Слова si называются состояниями Марковского источника Sr-го порядка. При появлении каждой новой буквы источник S переходит в новое состояние
si = ai1 ...air → sj = ai2 ...air+1
Можно определить Марковский источник общего вида, состояния которого не связаны с наборами из фиксированного числа букв.
Марковский источник называется эргодическим, если вероятность перехода через произвольное (большее некоторого фиксированного числа т число шагов из каждого состояния si в произвольное состояние sj больше нуля.
Если для некоторого эргодического Марковского источника сп состояниями известны только вероятности перехода из одного состояния в другое, то вероятности его состояний можно получить из системы уравнений
Пусть S — Марковский источник первого порядка с алфавитом {a1, . . ., ak}, и вероятности p(ai/aj) появления буквы щ вслед за буквой ai записаны в матрице Q = {qij}, где qij =p(ai/aj). Тогда вероятности р(ai) можно вычислить из уравнения Qp = р, где р = (р(аi), . . . ,р(аk)), учитывая, что ∑ p(ai)=1.
Марковский источник можно полностью задать набором его состояний s1, . . .,sn, матрицей вероятностей перехода из одного состояния в другое p(si / sj) и набором вероятностей порождения букв в каждом из состоянийp(a1 / sj), . . . ,p(ak / sj), 1 < j < п. Если считать, что последовательности, порождаемые источником, бесконечны только в однусторону, т. е. имеют начало, то для полного определения источника нужно задать еще начальное состояние.
Разделим бесконечную последовательность букв, порожденную Марковским источникомS с состояниями s1, ..., sn на n подпоследовательностей, каждая из которых состоит из букв, порожденных в определенном состоянии sj. Поскольку вероятность появления очередной буквы зависит только от состояния источника, то буквы j-й последовательности появляются независимо друг от друга с вероятностями p(ai/aj). Имея в виду этот факт, говорят, что Марковский источник разделяется на п источников Бернулли, каждый из которых определяется набором условных вероятностей р(a1/sj), . . .,p(ak/sj), 1 ≤j≤ п, и обладает энтропией
Таким образом, получаем формулу для энтропии Марковского источника S с состояниями s1, . . .,sn:
Таким образом, последовательность, порожденную Марковским источником, можно эффективно кодировать, разделяя ее по числу состояний на п подпоследовательностей и кодируя каждую из них отдельно любым из побуквенных кодов.
Применение Марковских цепей достаточно сильно упрощается, когда эти цепи гомогенны, стационарны и регулярны. Марковская цепь называется гомогенной (однородной), если вероятности переходов между состояниями не зависят от выбора временной точки отсчета, т.е. вероятности переходов зависят от разности временных отсчетов.
Гомогенная цепь Маркова является регулярной, если [1]:
Предельная матрица вероятностей перехода существует.
.
Причем всеn строк предельной матрицы представляют собой предельное распределение вероятностей состояний матрицы.
2. Предельное
распределение вероятностей состояний
p∞
является единственным стационарным
распределением вероятностей состояний
любой регулярной цепи Маркова.
p∞ = p0
3.Цепь Маркова везде будет регулярной, если существует некоторое натуральное значение шага n, при котором все компоненты некоторого столбца матрицы вероятностей перехода на этом шаге n, будет отлично от нуля. Другими словами, цепь Маркова является регулярной если, на некотором шаге n существует по меньшей мере одно состояние, которое может быть достигнуто из любого начального состояния. Если в Марковской цепи вероятность очередного символа оказывает влияние на rпредыдущих символов, то говорят, что память такого источника охватываетr последовательных символов, а сам источник называют конечным дискретным Марковским источником с памятью r.
Заметим, что такой источник обладает свойством и эргодичности. Тогда конечный дискретный эргодический Марковский источник с памятью r полностью считается заданным (или определенным) следующими условиями:
1.Задано непустое множество состояний
,
причем каждое состояние Si
содержит
вектор длиной r .
2. Каждое состояние
Siсоответствует
дискретному источнику без памяти с
алфавитом
и
вероятностями j-ых
символов алфавита
.
3. Задано начальное распределение вероятностей состояний
p0 = (p0(1), p0(2), …, p0(N)).
4. СостояниеS[n], образованное изr-1 последовательных символов, после добавления очередного символаX[n] переходит в состояние S[n+1].
Энтропия стационарного эргодического Марковского источника вычисляется исходя из того, что некоторое состояние источникаSi является как бы подисточником без памяти, обладающим в свою очередь соответствующей энтропией. Тогда энтропия первоначального источника равна математическому ожиданию энтропии подисточников. Таким образом, стационарный эргодический Марковский источник с алфавитом из М символов, имеющий n состояний, т.е. N подисточников без памяти энтропия каждого из которых равна
где
–
вероятность символа Xm
при условииSi
состояния, обладает энтропией, равной
математическому оживанию энтропии
подисточника.
где p∞
–
предельное распределение вероятностей
состояний.
Таким образом, приt→∞ в системе S устанавливается некоторый предельный стационарный режим: хотя система случайным образом и меняет свои состояния, но вероятность каждого из них не зависит от времени и каждое из состояний осуществляется с некоторой постоянной вероятностью, которая представляет собой среднее относительное время пребывания системы в данном состоянии. Это свойство позволяет обходиться при нахождении параметров системы на основе моделирования одной достаточно длинной реализацией.
Для вероятностей p1(t), p2(t),…, pn(t) можно составить систему линейных дифференциальных уравнений, называемых уравнениями Колмогорова, которые в случае нахождения предельных вероятностей превращаются в систему линейных алгебраических уравнений для каждого состояния. Совместно с нормировочным условием эти уравнения дают возможность вычислить все предельные вероятности.
Общее правило составления уравнений Колмогорова для предельных вероятностей pi(t) можно сформулировать следующим образом:
• в левой части уравнения стоит сумма произведений вероятностей всех состояний, из которых идут стрелки в i-ое состояние, на интенсивности соответствующих потоков минус сумма интенсивностей всех потоков, выводящих систему из данного (j-го) состояния, умноженная на вероятность данного (j-го) состояния;
• в правой части уравнения стоит 0.