
- •4) Кодирование формы сигнала
- •Этапы обращения информации Объект наблюдения и управления Передача Подготовка Хранение Восприятие Отображение Генерация Воздействие Обработка
- •4) . Идентификационные магнитные карты
- •5) Криптосистема без передачи ключей
- •2) Дискретный канал с помехами
- •5) Дифференциальное кодирование
- •4) Криптосистема с открытым ключом
- •Определить энтропии h(X) и h(y), если задана матрица вероятностей состояний системы, объединяющей источники X и y:
- •3) ????? На листике
- •5) Арифметическое кодирование
- •4) Скрытие данных с использованием хаотических сигналов
- •4) Дискретизация речи с последующим шифрованием
- •5) . Средство аутентификации с устройством сканирования отпечатка пальца
- •4) Кодирование источника
- •1) Избыточность источника сообщений
- •12.7.1. Кодовое дерево и решетчатая диаграмма
- •2) Билет №2, вопрос №2, начало.
Количество информации при равновероятности состояний источника сообщений.
Закодировать методом Шеннона-Фано восемь сообщений, если вероятности их появлений равны:
=0,2;
=0,18;
=0,16;
=0,14;
=0,12;
=0,10;
=0,06;
=0,04.
Определить энтропии h(X) и h(y), если задана матрица вероятностей состояний системы, объединяющей источники X и y:
Метод сжатия JPEG.
Хеширование.
1) Сообщения разнятся как по своей природе, так и по содержанию и по назначению. В связи с этим возникают трудности в оценке количества информации, которое содержится в сообщениях. Количество информации должно определяться через нечто общее, объективно присущее всему многообразию различной информации, оставаясь при этом созвучным нашим интуитивным представлениям, связанным с фактом получения информации. Этим общим, характеризующим фактом получения произвольной информации, является, во-первых, наличие опыта. Во-вторых, до опыта должна существовать некоторая неопределенность в том или ином исходе опыта.
Теперь ясно, что для установления формулы для вычисления количества информации необходимо уметь вычислять неопределенность некоторой ситуации до и после опыта. Разность между этими количествами неопределенности и дает нам искомое количество информации, полученное от такого опыта.
К количеству информации (неопределенности до опыта) можно предъявить три интуитивных требования.
1. Количество получаемой информации больше в том опыте, у которого большее число возможных исходов.
Обозначая количество информации буквой
I, а число возможных исходов n,
первый постулат запишем в виде:
если
(2.1)
2. Опыт с единственным исходом несет количество информации, равное нулю, т.е.
(2.2)
3. Количество информации от двух
независимых опытов равно сумме количества
информации от каждого из них:
(2.3)
Итак, количество информации от опыта с
N исходами при условии, что после
опыта неопределенность отсутствует:
(2.4)
Выбор постоянной С и основания
логарифмов здесь несущественен, так
как определяет только масштаб на единицу
неопределенности. Поэтому положим С
= 1, а = 2. Тогда
Такая мера удовлетворяет требованию аддитивности. Емкость устройства состоящего из n ячеек, имеющего N = mn состояний, равна емкости одной ячейки, умноженной на число ячеек:
(2.6)
За единицу измерения емкости принята двоичная единица или bit, равная емкости одной ячейки с двумя возможными состояниями.
Если от источника информации по каналу
связи передавать сообщение о событии,
априорная вероятность которого на
передающей стороне равна Р1,
то после приема сообщения апостериорная
вероятность этого события для приемника
информации равна Р2 и количество
информации, полученное в результате
приема сообщения, будет
(2.7)
Для канала связи без помех и искажений
прием сообщения становится достоверным
событием, т.е. вероятность Р2
= 1, тогда из (2.7) следует, что
(2.8)
Из (2.8) следует, что чем меньше вероятность Р1, тем больше неопределенность исхода, т.е. тем большее количество информации содержится в принятом сообщении.
Значение Р1 находится в пределах
следовательно,
всегда положительная величина.
Количество информации
,
где Р –
вероятность события, было положено в
основу и было исходной точкой создания
теории информации.
2) Построим код Шеннона-Фано
Сообщения |
Вероятности появления сообщения |
Деление сообщения на группы |
Код Шеннона-Фано |
х1 |
0,2 |
11 |
11 |
х2 |
0,18 |
101 |
101 |
х3 |
0,16 |
100 |
100 |
х4 |
0,14 |
011 |
011 |
х5 |
0,12 |
010 |
010 |
х6 |
0,10 |
001 |
001 |
х7 |
0,06 |
0001 |
0001 |
х8 |
0,04 |
0000 |
0000 |
3)
Результаты сведем в таблицу
Р(хi/xj) |
х1 |
х2 |
х3 |
у1 |
0,17 |
0,35 |
0,37 |
у2 |
0,33 |
0,07 |
0,26 |
у3 |
0,5 |
0,59 |
0,58 |
Подставляя полученные значения вероятностей, получим:
Н(Х)=-(0,05log0,17+0,05log0,33+0,15log0,5+0,1log0,35+0,02log0,07+0,17log0,59+0,15log0,37+
+0,08log0,26+0,18log0,58)=1,2284 бит
Н(У)=-(0,05log0,17+0,1log0,35+0,15log0,37+0,1log0,33+0,02log0,07+0,08log0,26+0,15log0,5+
+0,17log0,59+0,18log0,58)=1,3079 бит
4) Итак, JPEG-сжатие состоит из следующих этапов:
– Разбиение изображения на блоки размером 8х8 пикселов.
– Применение к каждому из блоков дискретного косинусного преобразования.
– Округление коэффициентов DCT в соответствии с заданной матрицей весовых коэффициентов.
– Преобразование матрицы округленных коэффициентов DCT в линейную последовательность путем их зигзагообразного чтения.
– Кодирование повторений для сокращения числа нулевых компнент.
– Статистическое кодирование результата кодом Хаффмена или арифметическим кодом.
Декодирование производится точно так же, но в обратном порядке.
Существенными положительными сторонами алгоритма сжатия JPEG являются:
– возможность задания в широких пределах (от 2 до 200) степени сжатия;
– возможность работы с изображениями любой разрядности;
– симметричность процедур сжатия – распаковки.
К недостаткам можно отнести наличие ореола на резких переходах цветов - эффект Гиббса, а также распадение изображения на отдельные квадратики 8х8 при высокой степени сжатия.
5) хеширование пароля, создает уникальный локальный идентификатор защиты (SID – Security IDentifer) для данного пользователя .
Из википедии: Хеширование (иногда «хэширование», англ. hashing) — преобразование по детерминированному алгоритму входного массива данных произвольной длины в выходную битовую строку фиксированной длины. Такие преобразования также называются хеш-функциями или функциями свёртки, а их результаты называют хешем, хеш-кодом или сводкой сообщения (англ. message digest).
Хеширование применяется для построения ассоциативных массивов, поиска дубликатов в сериях наборов данных, построения достаточно уникальных идентификаторов для наборов данных, контрольное суммирование с целью обнаружения случайных или намеренных ошибок при хранении или передаче, для хранения паролей в системах защиты (в этом случае доступ к области памяти, где находятся пароли, не позволяет восстановить сам пароль), при выработке электронной подписи (на практике часто подписывается не само сообщение, а его хеш-образ).
В общем случае однозначного соответствия между исходными данными и хеш-кодом нет в силу того, что количество значений хеш-функций меньше, чем вариантов входного массива; существует множество массивов с разным содержимым, но дающих одинаковые хеш-коды — так называемые коллизии. Вероятность возникновения коллизий играет немаловажную роль в оценке качества хеш-функций.
Билеты№6, 23
Энтропия ансамбля.
Закодировать методом Хаффмана восемь сообщений, если вероятности их появлений равны:
=0,30;
=0,17;
=0,13;
=0,13; =0,10; =0,07; =0,06; =0,04.
На вход линии связи, в которой действует помеха, поступает сообщение Х в двоичном коде в виде X=11000110. На выходе линии связи зафиксирована последовательность Y=11110011. Определить точные и среднее количество информации, содержащееся в Y о Х. Указание: для удобства расчётов обозначить Х =ААВВВААВ и Y = CCCCDDCC.
Система шифрования квадратом Полибиуса. Показать на примере.
Арифметическое кодирование. Показать на примере.
1)
Ансамблем
называется полная совокупность состояний
с вероятностями их появлений, составляющими
в сумме единицу:
(2.9) причем
Пусть имеет место N возможных исходов
опыта, из них k разных, и i-й исход
(i = 1, 2,..., k) повторяется ni
раз и вносит информацию, количество
которой оценивается как Ii .
Тогда средняя информация, доставляемая
одним опытом, равна
(2.10)
Но количество информации в каждом исходе
согласно (2.8) будет
(2.11)
Тогда
(2.12)
Но отношение
представляют собой частоты повторения
исходов, а следовательно, могут быть
заменены их вероятностями:
. (2.13)
Подставляя (2.13) в (2.12), получим
Полученную величину К. Шеннон назвал энтропией и обозначил буквой Н, бит:
.
(2.14)
Энтропия Н представляет собой логарифмическую меру беспорядочности состояния источника сообщений и характеризует степень неопределенности состояния этого источника. Получение информации – это процесс раскрытия неопределенности.
В информационных системах неопределенность снижается за счёт принятой информации, поэтому численно энтропия Н равна среднему количеству информации, несомой произвольным исходом xi, т.е. является количественной мерой информации.
Если все k различных состояний
источника равновероятны, то
,энтропия
максимальна и из (2.14) имеем
.
(2.15)
2) Построим код Хаффмана
Код P(xi) Кодовое дерево
1
1
0,30 1
1
01
0,17 1
0,60 1
0,30
0
100 0,13 0
0
11
0,13 1
1
0,23
1
010 0,10 0
0
01
0,07 1
0,40 0
0 001 0,06 1 0,17 0
0,10 0
0000 0,04 0