
- •Работа над ошибками №3
- •Содержание
- •2.3 Построение оптимального неравномерного кода методом Хаффмана…………………...18
- •Контрольное задание № 1 Тема: Вычисление информационных характеристик сложных систем
- •2. Расчет вероятностей
- •2.1 Расчет вероятностей исходной системы
- •2.2 Расчет вероятности сложной системы
- •2.3 Проверка по контрольным соотношениям
- •3. Расчет энтропий
- •3.1 Расчет энтропии системы
- •3.2 Расчет энтропии сложной системы
- •3.3 Расчет частной условной энтропии
- •3.4 Расчет полной условной энтропии
- •3.5 Проверка по контрольным соотношениям
- •4. Расчет количества информации
- •5. Расчет прочих характеристик
- •Контрольное задание № 2 Тема: Оптимальное кодирование
- •2.1. Постановка задачи
- •Выполнение работы:
- •2.3. Для заданного числа качественных признаков вторичного алфавита m построить оптимальный неравномерный код методом Хаффмана.
- •2.4. Для построенных в п.П. 1 и 2 кодов вычислить коэффициенты относительной эффективности и статистического сжатия. Проанализировать результаты.
- •Контрольное задание № 3 Тема : Обнаружение и исправление ошибок в сообщениях
- •3.1. Постановка задачи.
- •3.3. Получена комбинация кода Хемминга, исправляющего одиночные или обнаруживающий двойные ошибки (код 8, 4).
- •Библиографический список
4. Расчет количества информации
Вычисление частной информации I(ai, bj):
Для вычисления количества информации в сложной системе при совместном появлении событий ai и bj воспользуемся следующей формулой:
I(ai, bj) = log2 (P(ai| bj)/P(ai)), , (4.1)
где I(ai, bj) — количество информации в сложной системе при совместном появлении событий ai и bj;
P(ai| bj) — условная вероятность появления события ai относительно события bj в сложной системе;
P(ai) — вероятности появления события ai.
Подставив в (4.1) соответствующие данные, получим:
I(a1,b1) = log2 (P (a1|b1)/P(a1)) = log2 (0.871/0.470) = log2( 1.853) = 0.8899 (бит);
I(a1,b2) = log2 (P (a1|b2)/P(a1)) = log2 (0.308/0.470) = log2(0.655) = -0.6104 (бит);
I(a1,b3) = log2 (P (a1|b3)/P(a1)) = log2 ( 0.310/ 0.470) = log2(0.660) = - 0.5995(бит);
I(a2,b1) = log2 (P (a2|b1)/P(a2)) = log2 (0.073/0.260) = log2( 0.281) = -1.8314(бит);
I(a2,b2) = log2 (P (a2|b2)/P(a2)) = log2 (0.598/0.260) = log2 (2.300) = 1.2016(бит);
I(a2,b3) = log2 (P (a2|b3)/P(a2)) = log2 (0.120/0.260) = log2 ( 0.462) = -1.1140(бит);
I(a3,b1) = log2 (P (a3|b1)/P(a3)) = log2 (0.056/0.270) = log2( 0.207) = -2.2723(бит);
I(a3,b2) = log2 (P (a3|b2)/P(a3)) = log2 (0.093/0.270) = log2 ( 0.344) =-1.5395(бит);
I(a3,b3) = log2 (P (a3|b3)/P(a3)) = log2 (0.570/0.270) = log2 ( 2.111) = 1.0779(бит).
Сумма элементов на главной диагонали:
R1 = 0.8899 + 1.2016 + 1.0779 = 3.1694.
Вычисление частной информации I(A, bj):
Вычисление количества информации в сложной системе, в которой влияние помех описывается при помощи частной условной энтропии системы A относительно события bj производится по следующей формуле:
I(A,
bj) =
P(ai|
bj)*I(ai, bj), при
j=1..n, (4.3)
где I(A, bj) — частная информация
I(ai, bj) — количество информации в сложной системе при совместном появлении событий ai и bj;
P(ai| bj) — условная вероятность появления события ai относительно события bj.
Подставив в (4.3) соответствующие данные, получим:
I(A,b1) = 0.871*0.8899 + 0.073 * (- 1.8314) + 0.056* (- 2.2723) = 0.7751- 0.1337- 0.1272 =0.5142(бит);
I(A,b2) = 0.308*(- 0.6104) + 0.598* 1.2016+ 0.093* (- 1.5395) = -0.1880+0.7186-0.1432 =
0.3874 (бит);
I(A,b3) = 0.310* (- 0.5995)+ 0.120* ( - 1.1140)+ 0.570 * 1.0779 = -0.1858 – 0.1368+ 0.6144 = 0.2918 (бит).
Вычисление частной информации I(B,ai):
Вычисление количества информации в сложной системе, в которой влияние помех описывается при помощи частной условной энтропии системы B относительно события ai производится по следующей формуле:
I(B,ai) = P( bj|ai)*I(ai, bj), (4.4)
где I(B,ai) — частная информация
I(ai, bj) — количество информации в сложной системе при совместном появлении событий ai и bj;
P( bj|ai) — условная вероятность появления события bj относительно события ai.
Подставив в (4.4) соответствующие данные, получим:
I(B,a1) = 0.530*0.890 + 0.210*0.610 + 0.260*0.600 = 0.7560 (бит);
I(B,a2) = 0.080*1.831 + 0.740*1.202 + 0.180*1.114 = 1.2360 (бит);
I(B,a3) = 0.060*2.272 + 0.110*1.540 + 0.830*1.078 = 1.2000 (бит).
Вычисление полной взаимной информации I(A,B)=I(B,A):
Вычисление количества информации в сложной системе, в которой влияние помех описывается при помощи энтропии объединения систем А и В производится по следующей формуле:
I(A,B) = P( bj)*I(A, bj), при j=1..n, (4.5)
где I(A,B) — полная взаимная информация;
I(A, bj) — частная информация;
P( bj) — вероятности появления события bj.
Подставив в (4.5) соответствующие данные, получим:
I(A,B) = 0.286 *0.5142+ 0.321 *0.3874+ 0.393 *0.2918 = 0.3862 (бит).
Проверка:
1. I (A,B) = H (A) - H (A|B);
0.3862 = 1.5273 - 1.1436 = 0.3837(бит).
Погрешность вычислений:
.
2. I (A,B) = H (B) - H (B|A);
0.3837 = 1.5722 - 1.1836 = 0.3886 (бит).
3. I (A,B) = H (A) + H (B) - H (A,B);
0.3862 = 1.5273 + 1.5722 - 2.7122 = 0.3873(бит).
Вычисления
информации выполнены с погрешностью
0.25%,
’=
0.11%.