Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

125 Кібербезпека / 4 Курс / 4.2_Управління інформаційною безпекою / Лiтература / V_P_Babak_A_A_Kliuchnykov-Teoreticheskye_osnovy_zashchity_informat

...pdf
Скачиваний:
143
Добавлен:
23.10.2019
Размер:
21.85 Mб
Скачать

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ

____________________________________________________________________________________________

Рассмотренные видеосигналы Х(t) не являются основными носителями информации, поскольку они переносят ее по внутренним цепям.

Носителями информации на далекие расстояния есть совокупность электрических или электромагнитных гармонических колебаний (в том числе оптического диапазона, где генераторами являются лазеры). Частоту основного из таких колебаний называют несущей, а само колебание - несущим (таким, что несет информацию).

Чтобы данное колебание было несущим, необходимо выполнить два основных условия относительно функций параметров такого сигнала:

1)среда распространения сигналов должна хорошо пропускать колебания с несущей частотой н ;

2)частота несущего колебания должна быть намного большей, чем

верхняя частота m в спектре переданного сообщения: н m, Ωm = Fm

- верхняя частота в спектре сообщения (видеосигнала).

Второе условие вытекает из требования, чтобы за один период несущего колебания информационный параметр почти не изменился, иначе возникнут искажения.

Несущий сигнал можно представить в виде колебания

S (t) = A (t) cos [ωнt + (t)] = A(t)cosψ(t),

(2.84)

в котором амплитуда A(t) или фаза (t) изменяется по закону переданного информационного сообщения.

Тем не менее в рассмотренных только что случаях не учитываются корреляционные связи между сообщениями, которые существуют в языках общения людей. Корреляция (взаимосвязь) существует не только между соседними сообщениями, она охватывает параметры этих сообщений, которые приводят к информационной чрезмерности, оцениваемой коэффициентом R .

Исследования показали, что в украинском языке при учете взаимосвязи только между соседними сообщениями (буквами алфавита) H1(x) = 4,05 бит/сообщение. При ν = 2 значение H2(x) = 3,52 бит/сообщение. При ν = 3 значение H3(x) = 2,97 бит/сообщение. А при независимых сообщениях H0(x) = 5 бит/сообщение. Поэтому R1(x) ≈ 19 %; R2(x) ≈ 30 %; R3(x) ≈ 41 %. Наличие естественной чрезмерности языка повышает помехоустойчивость сообщений при их передаче, но неэкономно тратит канальные ресурсы, объемы машинной памяти, время на анализ при обработке и т.п.

Исследование источников информации с корреляционными сообщениями удобно проводить с использованием аппарата цепей Маркова. Марковские источники характеризуются состоянием и правилами перехода из одного состояния в другое. Для них характерно, что вероятность любого состояния системы в будущем зависит только от ее состояния в данный момент и не зависит от того, каким образом система пришла в это состояние, т.е. не зависит от предыстории.

110

Глава 2. Количественные оценки информации

____________________________________________________________________________________________

Основные выводы

Существуют три подхода к анализу информации: синтаксический, семантический и прагматический.

На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представленной информации, надежность и точность преобразования этих кодов и т.п.

Семантический аспект допускает учет содержания информации.

Для информационного взаимодействия чаще всего используется часть информации, которая содержит определенный (из тех или других соображений допустимый) объем данных. Такие части данных называют информационными объектами, или сообщениями.

Информация является характеристикой не сообщения, а соотношением между источником информации (объектом исследования), сообщением и его потребителем.

Информационные объекты - предметы, процессы, явления материальной или нематериальной природы, которые рассматриваются с точки зрения их информационных свойств.

Источник информации или сообщение - это физический объект, система или явление, которое формирует переданное сообщение. Само сообщение - это значение или изменение некоторой физической величины, которая отражает состояние информационного объекта (системы или явления).

Пути и процессы, которые обеспечивают передачу сообщений от источника информации к ее потребителю, называются информационнокоммуникационными системами.

Степень изменения неопределенности ситуации положено в основу количественной меры информации. При введении количественной меры информации принято не учитывать содержание сообщений (семантику), а ограничиваться только формальными признаками, важными с точки зрения передачи сообщений по каналам связи.

Часто используют простой способ определения количества информации, который можно назвать объемным. Он базируется на подсчете количества символов в сообщении, т.е. связан с его длиной и не учитывает содержание.

В теории информации под количеством информации понимают меру уменьшения неопределенности знания. Нахождение такой меры требует оценивания и учета количества переданной информации. В теории информации количеством информации называют числовую характеристику сигнала, которая не зависит от его формы и содержания и характеризует неопределенность, которая исчезает после получения сообщения в виде данного сигнала.

Для количественного оценивания информации довольно часто применяют синтаксическую, семантическую и прагматическую меры информации.

111

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ

____________________________________________________________________________________________

Количество информации на синтаксическом уровне определяется через понятие энтропии системы.

Энтропия определяет меру неопределенности всего множества сообщений на входе системы и вычисляется как среднее количество собственной информации во всех сообщениях.

Энтропия источника и количество информации тем больше, чем больше размер алфавита источника.

Энтропия источника зависит от статистических свойств сообщений. Энтропия максимальная, если сообщения источника равновероятные и статистически независимые.

Энтропия источника, который вырабатывает равновероятные сообщения, всегда меньше максимально допустимой.

При определении энтропии и количества информации в сообщениях, элементы которых статистически связаны, нельзя ограничиваться только безусловными вероятностями - необходимо учитывать также условные вероятности появления отдельных сообщений.

Общая энтропия двух сообщений равняется сумме безусловной энтропии одного из сообщений и условной энтропии второго.

При наличии связи между элементарными сообщениями энтропия источника снижается.

Универсальный носитель информации - электрический сигнал (или материалы, которые имеют электромагнитные свойства, и дают возможность просто снимать с них информацию в виде электрических сигналов).

С целью упрощения анализа информации, заложенной в параметрах сообщений, сигналы, которые отображают информационное сообщение произвольной сложности, подают в виде суммы элементарных колебаний (базисных функций). Как базисные функции можно использовать известные системные функции Фурье, Бесселя, Лежандра, Чебышева, Уолша и др.

Преобразование Фурье переводит анализ сообщений и сигналов в частотную область. Для исследования сигналов в часовой области применяется теорема В. А. Котельникова (теорема отсчетов).

Вопросы для самоконтроля

1. С проявлениями каких функций информации чаще всего мы сталкиваем-

ся?

2.Насколько актуальны в исследовании информации ее динамические свойства?

3.В чем заключается отличие в понятиях «данные» и «информация»?

4.Приведите примеры сложных информационных объектов.

5.Запишите формулы для вычисления количества информации, которое содержит сообщение.

6.Раскройте свойство симметрии для количества информации.

112

Глава 2. Количественные оценки информации

____________________________________________________________________________________________

7.Раскройте свойство аддитивности для количества информации.

8.Запишите формулу для среднего количества информации в сообще-

нии.

9. Какие меры информации используют для ее количественной оценки?

10.Назовите единицы измерения информации.

11.Приведите классификацию мер информации и их свойств.

12.Дайте определение энтропии.

13.Выведите формулу для определения общей энтропии двух источников X и Y.

14.Назовите основные свойства энтропии сложных сообщений.

15.Определите границы, в которых может изменяться условная эн-

тропия.

16.Как изменяется энтропия при наличии статистических связей между элементарными сообщениями?

17.Какие параметры сигнала могут быть функционально зависимыми от информационного сообщения?

The main conclusions

There are three approaches to the analysis of the information: syntactical, semantic and pragmatic

At a syntactical level the type of the carrier and a way of representation of the information, a transmission rate and processing, the sizes of codes of representation of the information, reliability and accuracy of transformation of these codes and so on are taken into account.

The semantic aspect assumes taking into account a content of the information. The particle of information which contains certain, for these or those reasons, admissible volume of data is oftener used for informational interaction It is accept-

ed to name such particles of data as informational objects or messages.

The information is not the characteristic of messages, but it is a correlation between the source of information (the object of research), the message and its consumer.

Informational objects are subjects, processes, phenomena of material or nonmaterial property that are considered from the point of view of their informational properties.

The Source of information or message is a physical object, system or phenomenon that forms the transmitted message. The message in itself is a value or change of some physical quantity that reflect a state of informational object (system or the phenomenon).

Ways and processes which provide message transmission from a source of information to its consumer are called information-communication systems.

The degree of change of uncertainty of a situation is put in a basis of quantitative measure of the information. While leading of quantitative measure it is not

113

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ

____________________________________________________________________________________________

accepted to take into account a content of messages (semantics), but to be limited only to formal characteristics, important from the point of view of message transmission through communication channels.

A simple and rough way of determining the quantity of information, that can be named a volume way is often used. It is based on counting the quantity of symbols in the message, in other words it is connected with its length also does not consider content.

In information theory the quantity of information is a measure of decrease of uncertainty of knowledge. Finding of such measure demands estimation and registration of quantity of the transmitted information. In information theory the quantity of information is the numerical characteristic of a signal that does not depend on its form and content and characterizes uncertainty that disappears after obtaining the message in the form of the given signal.

Syntactic, semantic and pragmatic measures of the information are often used for a quantitative estimation of the information. The quantity of the information at a syntactical level is determined as a notion of entropy of system.

Entropy defines a measure of uncertainty of a great number of messages on an entry of system and it is calculated as average quantity of own information in all the messages.

The more is the size of the alphabet of a source the more is entropy of a source and the quantity of the information.

Entropy of a source depends on statistical qualities of messages. Entropy is maximal if the messages of a source are equally possible and statistically independent.

The common entropy of two messages is equal to the sum of unconditional entropy of one of them and conditional entropy of the other.

Signals that display an information message of arbitrary complexity are represented in the form of the sum of elementary oscillations (basic functions) with the purpose of simplification of the analysis of information put in parameters of messages. Many famous systems of functions of such scientists as Furie, Bessel, Lezhandr, Chebishev, Walsh and so on can be used as basic functions.

Furie’s transformations convert the analysis of messages and signals in area of frequency. Theorem of V. A. Kotelnikov (sampling theorem) is used for research of signals in time area.

Ключевые слова

Русский

Английский

информационное сообщение

information message

источник информации

information source

количество информации

amount of information

мера информации

measure information

114

115

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ

3.1.Виды информационных сигналов

иих математические модели

Согласно с общепринятой терминологией информационным сигналом

(или сигналом) называют процесс, который характеризует изменение во времени физического состояния некоторого объекта и используется для отображения, регистрации, передачи, принятия и обработки сообщений.

Информационные сигналы могут иметь разную физическую природу. Широко известны электрические сигналы (ток или напряжение), конкретную реализацию которых можно наблюдать на экране осциллографа или в других устройствах от изображения сигналов; акустические сигналы, воспринимаемые органами слуха, и т.п.

Знание математических моделей сигналов дает возможность сравнивать их между собой, устанавливать тождественность и разногласия, а в конечном итоге - классифицировать.

Рассмотрим ряд критериев (признаков) классификации сигналов:

Критерий пространственно-временного представления сигналов.

Любые сигналы существуют в пространстве и во времени. При этом как в пространстве (по величине), так и во времени сигналы могут иметь

или непрерывные, или дискретные значения.

Если в качестве классификационного признака взять характер изме-

нения сигнала по величине и во времени, то возможны такие четыре класса сигналов (рис. 3.1):

сигналы произвольные по величине и непрерывные во времени; сигналы произвольные по величине и дискретные во времени; сигналы квантованные по величине и непрерывные во времени; сигналы квантованные по величине и дискретные во времени.

Сигналы первого класса (рис. 3.1, а) называют аналоговыми, или непрерывными. Общепринятыми являются такие обозначения математиче-

ских моделей этих сигналов: s t , x t , u t ,... .

Сигналы второго класса (рис. 3.1, б) называют дискретными, или дискретизированными. Термин «дискретный» в этом случае характеризует не сам сигнал, а способ представления его в часовой области. Математическую модель дискретного сигнала в общем случае обозначают как:

s tn , x tn , u tn , n 0,1, .

Временной интервал Tn tn 1 tn , n 0,1,

называют n-м шагом вре-

менной дискретизации.

 

Если шаг временной дискретизации Tn

не зависит от n, т. е. Tn T ,

n 0,1, , то это значит, что речь идет об эквидистантной во времени дис-

кретизации сигнала. Интервал Т называют периодом дискретизации. Обозна-

чим математическую модель дискретного сигнала

116

Глава 3. Информационные сигналы и их математические модели

s nT , x nT , u nT , n 0,1, ,

или, отбрасывая для упрощения Т, в виде s n , x n ,u n , n 0,1, .

Если нет предостережений относительно другого способа часовой дискретизации, то под дискретными сигналами понимают последнюю форму их математических моделей.

s

 

s

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

t

0

1

2

3

4

5

n

 

а

 

 

 

б

 

 

 

k

s

k

s

 

 

 

 

 

5

 

 

 

 

 

 

 

 

4

4

 

 

 

 

 

 

 

 

 

3

3

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

t

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

1

2

3

4

5

6

7

8

n

0

t

в

г

Рис. 3.1. Основные пространственно-временные модели сигналов

Сигналы третьего класса (рис. 3.1, в) называют квантованными. Для этого класса сигналов осуществляется дискретизация по уровню, т.е. квантован-

ный сигнал может приобретать только дискретные значения. Математическую модель квантованного сигнала можно обозначить как sˆ t , при этом время t непрерывно (в общем случае в интервале от минус бесконечности к плюс бесконечности), а величина sˆ может приобретать одно из множества

значений sk , т.е. sˆ s0 , s1, ..., sm 1 .

Шаг квантования сигнала по уровню, как правило, выбирается постоянным.

Сигналы четвертого класса (рис. 3.1, г) называют цифровыми. Такие сиг-

налы образуются из аналоговых сигналов в результате их дискретизации во времени и квантования по величине.

Критерий предвиденья сигналов. Если в качестве классификационно-

го признака взять предвиденье мгновенного значения сигнала в любой момент

117

ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ

времени, то всю совокупность сигналов можно разделить на такие два класса:

детерминированные сигналы и случайные сигналы.

Детерминированными называются сигналы, значения которых могут быть вычислены в любой момент времени, т.е. они предвидятся с вероятностью, которая равняется единице. Самым простым примером математи-

ческой модели детерминированного сигнала может быть гармоническое колебание

u t Acos 0

t 0 ,

(3.1)

где амплитуда А, угловая частота 0 и начальная фаза

0 колебаний зада-

ны.

 

 

Случайными называются сигналы, значение которых в любой момент времени непредсказуемы, т.е. в заданный момент времени t их невозможно определить с вероятностью, которая равняется единице.

Примерами случайных сигналов могут быть акустические колебания, воспроизводимые акустической аппаратурой; электромагнитные помехи, создаваемые атмосферными явлениями, и тому подобное.

Осциллограмма детерминированного сигнала (3.1) с начальной фазой0 0 изображена на рис. 3.2, а, а случайного - на рис. 3.2, б.

u(t)

 

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

t

 

 

t

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

–A

 

 

 

 

 

 

 

 

а

б

 

 

Рис. 3.2. Осциллограммы типичных сигналов: а - детерминированный; б - случайный

Все сигналы, несущие информацию, являются случайными, поскольку детерминированный (полностью известный) сигнал информации не содержит. Он может быть полностью воспроизведен в месте принятия без передачи по каналу связи.

Между детерминированными и случайными сигналами нет непреодолимой границы. Очень часто в условиях, когда уровень помех значительно меньше уровня полезного сигнала с известной формой, более простая детерминированная модель оказывается вполне адекватной поставленному заданию.

Критерий области существования сигналов. Если за классификацион-

ный признак взять длину часового интервала, в пределах которого существу-

118

Глава 3. Информационные сигналы и их математические модели

ет сигнал, то можно выделить такие классы сигналов: бесконечные во времени сигналы и импульсные сигналы, т.е. сигналы, которые существуют в пределах конечного интервала времени.

Общая форма записи бесконечных во времени

сигналов s(t),

t ( , ) , а импульсных сигналов s(t),

t a,b , где а

и b границы вре-

менного интервала, в котором существует сигнал.

 

A(t)

A(t)

 

t t

а

б

 

Рис. 3.3. Импульсные сигналы

В электро- и радиотехнике широко используется понятие видеоимпульсов (рис. 3.3, а) и радиоимпульсов (рис. 3.3, б). Их характерные особенности легко установить по временным диаграммам. Отличие между этими двумя

основными импульсными сигналами заключается в следующем. Если A t видеоимпульс, то соответствующий ему радиоимпульс

 

uр t A t cos 0 t 0 ,

(3.2)

причем сигнал

A t называется огибающей радиоимпульса

u p (t) , а функ-

ция cos 0t 0

его высокочастотным заполнением.

 

Из сравнения выражений (3.1) и (3.2) выплывает, что математическую модель радиоимпульса up t можно получить из модели гармонического ко-

лебания up t , заданного формулой (3.1), если в ней выполнить замену ам-

плитуды А (постоянной величины) на функцию времени A t , что описывает

видеоимпульс.

Критерий размерности сигналов. Допустим, что наблюдается сигнал в виде напряжения up t на зажимах любого элемента электрического цепи или

тока i t , что протекает в заданной ветке цепи. Такой сигнал up t или i t , что описывается одной функцией времени, называют одномерным сигналом. Так называемые многомерные сигналы вида V t v1 t ,v2 t ,...,vN t со-

119