
- •Рецензенты: к.Ф.-м.Н. В.А. Чепурко
- •Введение
- •Темы для самостоятельной работы
- •Разработка и реализация программного компонента компьютерной технологии криптографической защиты файловых структур в каналах хранения и передачи
- •Литература
- •Основные понятия и определения
- •Особенности методов криптографической защиты информации на бинарных полях для каналов хранения и передачи
- •Разработка и реализация программного компонента компьютерной технологии сжатия файловых структур в каналах хранения и защиты
- •Литература
- •Некоторые инструкции и рекомендации для разработки компьютерных технологий сжатия на основе методов эффективного кодирования некоррелированных цепочек символов
- •Метод Шеннона-Фано
- •Метод Хаффмена
- •Методы эффективного кодирования коррелированных цепочек символов Метод l-грамм
- •Разработка и реализация программного компонента компьютерной технологии помехоустойчивого кодирования в
- •Литература
- •Кодирование для исправления ошибок: основные положения
- •Корректирующая способность кода и его связь с кодовым расстоянием
- •Содержание
Литература
Мышев А.В. Основы прикладной теории кодирования
информации. Учеб. пособие по курсу «Теории кодирования информации». – Обнинск, ИАТЭ, 1999, - 77с.
Самсонов Б.Б. и др. Теория информации и кодирования.
– Ростов-на-Дону, Феникс, 2002, - 288с.
Электронные копии лекций, методичек и др. на накопи-
телях сервера кафедры.
Приложение 1
Основные понятия и определения
Бит – базовая единица измерения информации в каналах хранения и передачи, имеющая в них соответственно логические и физические прототипы.
Логическим прототипом бита является символическое обозначение его образа, т.е. множество символов базового алфавита, в физической среде информационного канала. Например, для булевой логики – это ноль и единица, символические образы которых определяются символами 0 и 1.
Физическими прототипами бита в каналах хранения являются физические состояния элементов среды хранения, а в каналах передачи - сигналы определенной длительности и уровня. Например, в полупроводниковом ОЗУ физическим прототипом бита будет триггер, состояние которого (напряжение на выходе) будут соответствовать его логическим прототипам 0 и 1; в НМД (накопитель на магнитном диске) это область на поверхности диска, намагниченность которой будет соответствовать логическим прототипам 0 и 1. Аналогично и на других накопителях информации с другой физической средой.
Бинарное информационное множество – это множество элементов базового алфавита, образующих логическую структуру в виде сегмента памяти в физической среде канала хранения или поток логически и функционально связанных данных в канале передачи.
В каналах передачи и хранения любой информационный объект (файлы и другие логические структуры) рассматриваются как бинарные информационные множества, на которых определяются информационные пространства, задаваемые в виде кортежа <Х,Nm>, где Х - множество символьных цепочек алфавита Nm, который представляет собой множество бинарных цепочек длиной m битов.
Информационное пространство в виде кортежа <Х,Nm> является математической моделью информационного объекта, определенного как бинарное множество. Тогда вероятностно-статистической характеристикой информационного объекта (IO) в <Х,Nm> для заданного алфавита Nm будет таблица информационной насыщенности IO, которая представляет собой дискретное распределение вероятностей букв Nm в IO.
В качестве количественной меры информации IO используем следующие оценки. Во-первых, шенноновское определение энтропии, которое задается в виде выражения
In
=
-
, (1.1)
где pi – это вероятность появления i-ой буквы алфавита Nm в информационном объекте IO, |М| - мощность алфавита Nm .
Во-вторых, В – энтропия, которая в отличии от шенноновской определена на метрическом вероятностном пространстве и задается следующим выражением:
(1.2)
0
ρij
1
- рандомизированная мера на метрическом
вероятностном пространстве, которая
определяется выражением (хотя можно
использовать множество и других)
ρij = | pij- pj | (1.3)
Количественная характеристика информации на основе В – энтропии отражает степень насыщенности IO буквами Nm с учетом их близости по вероятности, т.е. она позволяет оценить «информационную геометрию» IO.
Под количественной мерой неопределенности представления информационного объекта IO фиксированной длины, определенного на <Х,Nm>, понимается ансамбль, порождаемый IO на <Х,Nm>. Ансамбль в этом случае представляет собой дискретное распределение вероятностей возможного представления IO элементами его таблицы информационной насыщенности. В качестве выражений для получения оценок количественной меры неопределенности используются также выражения (1.1) и (1.2), в которых pi -вероятность i-го представления IO в таблице возможных представлений, а М – это множество возможных представлений IO или объем таблицы представления. Поясним это на следующем примере.
Пусть задан IO из трех букв {abc}. Тогда таблица информационной насыщенности будет иметь следующий вид:
-
Буквы
pi
а
1/3
b
1/3
c
1/3
Количественные оценки информации имеют следующие значения (основание log3):
Iu=1; Bu=0 .
Таблица возможных представлений IO
Возможные представления |
pi |
abc |
1/6 |
bac |
1/6 |
cab |
1/6 |
bca |
1/6 |
acb |
1/6 |
cba |
1/6 |
Количественные оценки меры неопределенности представления будут иметь следующие значения (основание log3).
Iн=0,7746; Bн=0 .
Определение 1. Кодовым бинарным словом длины m называется цепочка из m битов.
Определение 2. Кодом называется множество кодовых слов.
Определение
3. Кодовое
расстояние
(Ci,Ci+1)
по Хеммингу между кодовыми словами Ci
и Ci+1
определяется
как количество позиций, в которых
значения битов не совпадают.
Тогда в качестве интегральной характеристики IO можно использовать геометрическую информационную размерность, которая определяется следующим выражением:
df
=
(1.4)
где
=
d(Ci,
Ci+1)
- кодовое расстояние между соседними
словами Сi
и Сi+1
,
а
- минимальное расстояние между парами
соседних кодовых слов в IO.
Приложение 2