125 Кібербезпека / 4 Курс / 4.2_Управління інформаційною безпекою / Лiтература / V_P_Babak_A_A_Kliuchnykov-Teoreticheskye_osnovy_zashchity_informat
...pdf
ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ
____________________________________________________________________________________________
P |
|
|
P s1 s2 |
|
P s |
, |
||
|
P s1 |
s2 P s2 |
s1 |
|||||
1 |
|
|
1 |
|
||||
|
|
|
|
|
||||
|
|
|
|
P s2 s1 |
|
|
(2.63) |
|
P2 |
|
|
|
P s2 . |
||||
P s1 |
s2 P s2 |
s1 |
||||||
|
|
|
|
|
||||
Используя те или иные переходные вероятности, можно формировать модели двусимвольных сообщений с разными статистическими свойствами и исследовать влияние корреляции на количество информации источников сообщений.
Коэффициент корреляции между случайными событиями А и В определяется как соотношение
r |
|
P AB P A P B |
|
|
. |
(2.64) |
||
|
|
|
||||||
|
|
|
|
|
|
|||
P A 1 P A P b 1 P B |
||||||||
|
|
|
|
|
|
|
||
Для марковских последовательностей P(s1s2) = P(s1) P(s2 / s1) = P(s2)P(s1 / s2), 1 – P(s1) = P(s2), 1 – P(s2) = P(s1), а соответственно, для коэффициента корреляции получаем формулу
r |
P s1 / s2 P s1 |
|
P s2 / s1 P s2 |
. |
(2.65) |
|
P s1 |
|
P s2 |
|
|
Выведем формулы для определения количества информации источника
марковских сообщений. Если состоялось событие s1 |
или s2, то условные ма- |
тематические ожидания i(s1) и i(s2) определим за формулами: |
|
i s1 P s1 / s1 i s1 / s1 P s2 / s1 i s2 / s1 , |
|
|
(2.66) |
i s1 P s1 / s2 i s1 / s2 P s2 / s2 i s2 / s2 . |
|
Ожидаемое количество информации источника на один символ |
|
i P s1 i s1 P s2 i s2 . |
(2.67) |
Подставив формулу (2.66) в (2.67), получим:
i P s1 P s1 / s1 i s1 / s1 P s1 P s2 / s1 i s2 / s1P s2 P s1 / s2 i s1 / s2 P s2 P s2 / s1 i s2 / s2 .
Учитывая то, что i(s1 / s1) = – lоg2P(s1/s1), i(s2/s1) = – lоg2P (s2/s1), i(s1/s2) = = – lоg2P(s1/s2), i(s2/s2) = – lоg2P(s2/s2), имеем
|
i |
j |
2 |
|
i |
|
j |
|
i 2 2 P |
s s |
|
log |
P |
s |
s |
. |
(2.68) |
i 1 j 1 |
|
|
|
|
|
|
|
|
Для Марковских сигналов вероятность произведения двух событий определяется так:
100
Глава 2. Количественные оценки информации
____________________________________________________________________________________________
P s1s1 P s1 P s1 |
s1 |
|
|
|
P s1 |
s1 P s1 |
s2 |
|
, |
|
||||
|
P |
s1 |
s2 P s2 |
|
s1 |
|
||||||||
|
|
|
|
|
|
|
|
|||||||
P s1s2 P s2 s1 |
|
P s1 s2 |
P s2 |
s1 |
|
, |
|
|
(2.69) |
|||||
P s1 |
s2 |
P s2 |
s1 |
|
|
|||||||||
|
|
|
|
|
|
|||||||||
P s2 s2 P s2 P s2 |
s2 |
|
|
|
P s2 s2 P s2 |
|
s1 |
|
|
. |
||||
|
P s1 |
s2 P s2 |
s1 |
|||||||||||
|
|
|
|
|
|
|
||||||||
Пример. Рассмотрим марковское сообщение. Предположим, что
P(s1/s1) = 3
4 ; P(s2/s1) = 1
4 ; P(s1/s2) =1
8 ; P(s2/s2) = 7
8 .
В таком сообщении P(s1)=1
3 ; P(s2)= 2
3 . Если бы символы были независимые, то
i 13 log2 3 2 3 log2 32 0,91183.
Условная информация на символы s1 и s2 равняется: i s1 3 4 log2 3 4 14 lоg2 4 = 0,8113,
i s2 18 log2 8 7 8 log2 8 7 = 0,5428.
Ожидаемая информация источника на один символ равняется их среднему значению
i 13 i s1 2 3 i s2 0,6323.
Как и ожидалось, она меньшая, чем у источника сообщений с независимыми символами.
Измерение информации при объединении нескольких источников сообщений. Рассмотрим два источника сообщений с алфавитом символов v1, v2, …, vn и u1, u2, …, um и объединенный источник с парами символов vj uj, i =
1, 2, …, n; j = 1, 2, …, m... Известный многомерный закон распределения вероятностей P(v1, v2, …, vn, u1, u2, …, um) = P(|v|,|u|),где |v| = |v1, v2, …, vn|T -
вектор символов первого источника; |u| = |u1, u2, …, um|T - вектор символов второго источника; Т - знак транспонирования.
Законы распределения P(|v|) = P(v1, v2, …, vn) и P(|u|) = P(u1, u2, …, um) получаем с объединенного закона:
P |
|
|
|
m |
|
|
|
|
|
|
|
|
|
um , |
|
||
v |
P v1 , v2 , ..., vn , |
u1 , u2 , ..., |
u j , ..., |
|
|||||||||||||
|
|
|
|
j 1 |
|
1 |
|
|
|
|
|
|
|
|
m |
(2.70) |
|
|
|
|
|
|
2 |
i |
n |
1 |
|
2 |
|
|
|||||
|
|
|
|
|
|
|
|
||||||||||
P |
|
u |
|
|
n |
P |
v , |
v , |
...v , |
..., v , |
u , |
u |
|
, ..., |
u |
. |
|
|
|
|
|
||||||||||||||
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
101
ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ
____________________________________________________________________________________________
Количество информации каждого из источников и объединенного источника определяем как
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
log2 P vi |
, |
|
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
v |
|
P vi |
|
|
|
|
|
|
|
|
(2.71а) |
|||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
log2 P u j , |
|
|
|
|
|
|
|
|
|
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||
|
|
|
|
|
|
|
|
u |
P u j |
|
|
|
|
|
|
|
|
(2.71б) |
|||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
j |
|
|
|
|
|
2 |
|
|
|
j |
|
|
|
|
|
|
||||||||||||||
|
|
|
|
i |
|
v |
, |
u |
|
|
n |
|
|
m |
P |
|
v ,u |
|
|
lî g |
P |
v ,u |
. |
|
|
|
|
(2.71в) |
|||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i 1 j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P vi ,u j |
P vi P u j и |
|||||||||||||
Если источники статистически независимые, то |
|||||||||||||||||||||||||||||||||||||||||||||||||||||
тогда |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
n |
|
|
m |
vi P u j log2 P vi P u j |
|
|
|
|||||||||||||||||||||||||||||||||||||
v |
, |
u |
P |
|
|
|
|||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
i 1 j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j |
|||||||||||||||
|
|
i |
|
|
|
|
2 |
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j |
2 |
|
|
j |
|
|
||||||||||||||||||
n |
P v |
log |
|
P v |
|
m |
P |
|
u |
|
|
|
m |
P |
|
u |
|
|
log |
P |
|
u |
|
m |
P |
|
u |
|
|||||||||||||||||||||||||
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
||||||
|
|
|
|
|
|
n |
|
|
vi 1 и |
m |
|
|
|
|
u j |
1, |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
Учитывая то, что P |
P |
|
получаем: |
|
|
|
|
||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
i |
|
v |
|
, |
|
u |
|
i |
|
v |
|
i |
|
u |
|
, |
|
|
|
|
|
|
|
|
(2.72) |
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
т.е. информация объединенного источника при независимых символах равняется сумме информации источников, которые входят в объединение.
Если источники сообщений статистически зависимые, то двумерный закон распределения записывается в виде:
P vi u j P vi P u j
vi P u j P vi
u j .
Тогда формулу для вычисления количества информации объединенного источника (2.71в) можно преобразовать в такой способ:
|
|
i |
|
|
|
|
|
|
|
n m |
|
vi log2 |
P vi log2 P u j |
vi . |
|||
|
|
v |
, |
u |
P vi P u j |
||||||||||||
|
|
|
|
|
|
|
|
|
i 1 j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
m |
/ vi 1, имеем: |
|
|
|
|
||
Учитывая то что P u j |
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
n |
|
|
|
n |
|
vi , |
|
|
|
|
|
|
|
v |
, |
u |
P vi lo g2 |
P vi P vi i |
u |
|
||||||
|
|
|
|
|
|
|
|
|
|
i 1 |
|
|
|
i 1 |
|
|
|
где i |
|
|
|
|
m |
|
|
- условное количество информации |
|||||||||
u |
,vi P u j / vi log2 P u j / vi |
||||||||||||||||
|
|
|
|
|
j 1 |
|
|
|
|
|
|
|
|||||
второго источника, если имел место символ vi первого источника. Очевидно,
102
Глава 2. Количественные оценки информации
____________________________________________________________________________________________
n |
|
vi i |
|
|
|
|
|
|
|
|
|
|
|
- условное количество информации второ- |
|||||||||||||||||||||||||||||
что P vi i |
u |
u |
|
|
|
|
|
|
v |
|
|||||||||||||||||||||||||||||||||
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
го источника относительно первого. Итак, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
|
|
|
i |
|
v |
|
|
|
u |
|
i v i |
|
u |
|
|
|
|
v |
|
. |
(2.73) |
||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
Можно показать также, что исполняется соотношение |
|
||||||||||||||||||||||||||||||||||||||||||
|
|
|
i |
|
v |
|
|
|
|
u |
|
i |
|
è |
|
i |
|
v |
|
|
|
|
u |
|
. |
(2.74) |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||
Поскольку P vi 1, это выполняется неравенство |
|
||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
i |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
n P v |
i |
|
u |
v |
i |
|
|
|
u |
. |
|
|||||||||||||||||||||||||||||
|
|
|
i 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
Итак, всегда имеем: |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
i v , u i v i u ,
т.е. количество информации объединенного источника меньше суммы информации исходных статистически зависимых источников сообщений.
Измерение информации источников непрерывных сообщений. Ин-
туитивно понятно, что многозначность непрерывных сигналов, которые используются для передачи информации, очень большая. Достаточно изменить значение сигнала в пределах одной точки, чтобы это был уже другой сигнал. Поделим диапазон изменения случайного сигнала X как непрерывной, случайной величины на конечное количество п малых интервалов X так, чтобы
Xi 1 Xi X .
Будем считать, что реализовано значения Xi, если X удовлетворяет неравенство
Xi X
2 X Xi X
2. Вероятность того, что это будет Xi, равняется
P Xi |
Ui 0.5 U |
W X dX W Xi X , |
(2.75) |
|
Ui 0.5 U
где W (X) - закон распределения случайного сигнала.
Количество информации, которая содержится в выборке случайных величин X1, X2, …, Xn с вероятностями появления P (X1), P(X2), …, P(Xn), согласно формуле К. Шеннона имеет вид:
n |
n |
|
|
|
I1 n P Xi log2 P Xi n W Xi X log2 |
||||
W Xi X . |
||||
i 1 |
i 1 |
|
|
|
Будем считать, что реализовано значения Xi, если X удовлетворяет неравенство
Xi X
2 X Xi X
2.
103
ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ
____________________________________________________________________________________________
Жозеф Луи Лагранж
(Joseph Louis Lagrange, 1736 - 1813),
французский математик и механик. Автор классического трактата "Аналитическая механика", который расширил основы статики и механики, установив общую формулу, известную также как принцип возможных перемещений. Формулу конечных приростов и несколько другие теоремы названы его именем. Лагранж сделал важный вклад во много областей математики, включая вариационное исчисление, теорию дифференциальных уравнений, решение задач на отыскание максимумов и минимумов, теорию чисел (теорема Лагранжа), алгебру и теорию вероятностей.
Вероятность того, что это будет Xi, равняется
P Xi |
Ui 0.5 U |
W X dX W Xi X , (2.75) |
|
||
|
Ui 0.5 U |
|
где W (X) - закон распределения случайного сигнала. Количество информации, которая содержится в
выборке случайных величин X1, X2, …, Xn с вероятностями появления P (X1), P(X2), …, P(Xn), согласно формуле К. Шеннона имеет вид:
n
I1 n P Xi log2 P Xi
i 1
n n |
W X |
X log |
W X |
X . |
|
|
i |
|
2 |
i |
|
i 1 |
|
|
|
|
|
Количество информации, которая приходится в среднем на один символ, запишем в виде
n |
|
|
|
|
i1 W Xi log2 |
log2 X , |
|||
W Xi X |
||||
i 1 |
|
|
|
|
n
причем W Xi X 1. Заменив сумму интегралом,
i 1
получим
i1 W X lî g2W X dX lî g2 X . (2.76)
Первый член в этом выражении имеет конечное значение и зависит только от закона распределения сигнала, который несет информацию, второй зависит от выбора интервала квантования X. Если считать, что при сравнении количества информации разных сигналов интервал квантования для всех будет тот же, то для измерения информации можно воспользоваться формулой
|
W |
|
dX . |
|
i W X log2 |
X |
(2.77) |
||
|
|
|
|
|
Среднее количество информации на один отсчет равняется математическому ожиданию двоичного логарифма закона распределения для непрерывных сигналов.
Пример. В каком источнике непрерывных сообщений содержится максимальное количество информации?
104
Глава 2. Количественные оценки информации
____________________________________________________________________________________________
Рассмотрим два вида ограничений на сигналы:
1)сигналы имеют конечную мощность (дисперсию);
2)сигналы имеют ограниченную амплитуду ( А).
Предположим, что случайный сигнал с нулевым математическим ожиданием (постоянная не несет информации) имеет конечную дисперсию. Тогда имеем
|
|
|
|
|
D |
|
x2W x dx, |
W x dx 1. |
(2.78) |
|
|
|
|
|
Это означает, что на вид неизвестной функции W(x) накладываются ограничение вида (2.78). Необходимо определить, которая из функций W(x) максимизирует функционал
|
|
|
|
|
|
|
|
||
i |
|
ln W x W x dx. |
(2.79) |
|
Это задача вариационного исчисления с ограничениями (2.78). Методика ее решения известная. Необходимо сформировать функционал Лагранжа путем присоединения к функционалу (2.79) ограничений (2.78) с помощью множителей λ1 и λ2:
L |
|
ln W x W x |
dx |
D |
|
x2W x dx |
1 |
|
W x dx |
. |
||||||
|
|
|
||||||||||||||
|
|
|
|
1 |
|
|
|
|
2 |
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Функционал Лагранжа в рассмотренном случае сводится к виду |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L 2 1D |
|
|
|
|
2 |
|
|
|
|
(2.80) |
||
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
2 1x |
|
lnW x W x dx. |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Условие максимума - равенство нулю первой вариации функционала |
||||||||||||||||
(2.80): |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
L |
|
2 1x2 |
lnW x W x |
W x lnW x dx 0. |
|
|||||||||||
|
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Поскольку вариацию δW(x) можно подать как W(x)δ[ln(x)] = δW(x), то условие экстремума запишется как уравнение относительно неизвестной функции W(x):
lnW x |
2 |
x2 |
1 0. |
(2.81) |
|
1 |
|
|
|
Решив это уравнение, получим |
|
|
|
|
W x exp 1x2 2 1 . |
(2.82) |
|||
Для определения множителей Лагранжа используем ограничение (2.78). Первое ограничение дает возможность записать уравнение
|
|
|
|
W x dx 1 |
|
e 2 |
1 e 1x2 dx. |
|
|
|
|
105
ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ
____________________________________________________________________________________________
|
|
|
|
|
e 1x2 dx |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Поскольку |
1 , |
|
то |
связь |
между λ1 и λ2 имеет вид |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
e 2 1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
. Второе ограничение запишется как интеграл |
||||||||||||||||||||
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
D |
|
1 |
|
|
x2e 1x2 dx |
1 |
|
|||||||||
|
|
|
|
|
|
|
|
. |
|||||||||||||
|
|
|
|
|
|
|
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 1 |
||
Подставив в (2.80) значение для λ1 и λ2, получим |
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
x2 |
|
|
|
||
|
|
|
|
|
W (x) |
|
|
e |
2 D , |
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
2 D |
|
|
|
|
|
|||
т.е. максимальное количество информации содержат непрерывные сигналы с нормальным (гауссовским) законом распределения вероятностей.
Вторая задача решается при одном ограничении нал Лагранжа
L a |
lnW x W x dx |
1 a |
W |
|||
|
|
|
1 |
|
|
|
a |
|
|
|
|
a |
|
a
W x dx 1. Функцио-
a
x dx ,
а его первая вариация
L a |
lnW x |
1 Wdx 0. |
|
|
|
1 |
|
a |
|
|
|
Из уравнения lnW (x) 1 1 0 |
с |
учетом ограничения получаем, |
|
W x e 1 1 1
2a, т.е. среди ограниченных за амплитудой сигналов макси-
мальное количество информации содержат сигналы с равномерным законом распределения вероятностей.
2.6. Связь информации с параметрами сигналов
Источники информации имеют физическую природу и различаются видом формируемых сообщений, энергетической активностью, вероятностными характеристиками и т.п.
Для анализа интересными являются не только характеристики определенных сообщений, а и потоки сообщений как специфический случайный процесс. В информационных системах информация с носителей разной физической природы (голос, изображение, символы на бумаге, ленте, вибрации и т.п.) преобразуется к универсальному виду и фиксируется на универсальных носителях.
В качестве универсального носителя информации используется электрический сигнал (или материалы, которые имеют электромагнитные свойства, дающие возможность просто снимать с них информацию в виде электрических сигналов).
106
Глава 2. Количественные оценки информации
____________________________________________________________________________________________
Электрические сигналы являются носителями |
|
|
|
|
|
|
информации, а материалы - носители информации - |
|
|
|
|
|
|
выполняют функции ее хранения. |
|
|
|
|
|
|
Как правило, первичные информационные со- |
|
|
|
|
|
|
общения - язык, музыка, изображение, значение па- |
|
|
|
|
|
|
раметров окружающей среды и т.д. - представляют |
|
|
|
|
|
|
собой функции времени Х(t) или других аргументов |
|
|
|
|
|
|
Х(x,y,z) неэлектрической природы (акустическое дав- |
|
|
|
|
|
|
ление, температура, распределение яркости на неко- |
|
|
|
|
|
|
торой плоскости и т.п.). С целью передачи информа- |
Жан |
Батист |
Жозеф |
|||
ции к потребителю эти сообщения обычно превра- |
Фурье (Jean |
Baptiste |
||||
щаются в электрический сигнал, изменения которого |
Joseph Fourier, 1768 - |
|||||
во времени Х(t) отображают переданную информа- |
1830), |
|
|
|
|
|
французский |
матема- |
|||||
цию. Такие сообщения называются непрерывными, |
||||||
тик и физик. Основная |
||||||
или аналоговыми, сообщениями (сигналами), и для |
||||||
работа Фурье - "Ана- |
||||||
них выполняются условия |
||||||
литическая |
теория |
|||||
|
||||||
Х(t) (Хmin, Хmax), t (0, t), |
теплоты" |
(1822), |
где |
|||
т.е. как значение функции, так и значение аргумента |
изложена математиче- |
|||||
ская теория теплопро- |
||||||
для таких сообщений непрерывны или определены |
||||||
водности. |
Эта теория |
|||||
для любого значения из интервала, непрерывного как |
||||||
стала |
|
основанием |
||||
|
|
|||||
за Х, так и за t . |
современных методов |
|||||
Пример. Преобразование признаков любой физиче- |
математической |
фи- |
||||
ской природы в электрический сигнал можно рас- |
зики, которые касают- |
|||||
смотреть на примере работы микрофонной цепи те- |
ся |
интегрирования |
||||
лефонного аппарата. Звуковая энергия человека, ко- |
уравнений в |
частных |
||||
производных |
|
при |
||||
торый говорит, в виде переменного давления соглас- |
|
|||||
заданных |
предельных |
|||||
но информационному сообщению с(t) влияет на мик- |
||||||
условиях. |
|
Метод |
||||
рофон, который содержит внутри угольный порошок. |
|
|||||
Фурье, который |
за- |
|||||
Из-за этого изменяется электрическое сопротивление |
||||||
ключается в представ- |
||||||
микрофона, вследствие чего ток І(t) повторяет звуко- |
||||||
лении функций в виде |
||||||
|
||||||
вые колебания функции времени с(t). |
тригонометрических |
|||||
Такие преобразования могут осуществляться с |
рядов (рядов Фурье), |
|||||
использованием цепи переменного тока путем влия- |
нашел |
широкое при- |
||||
ния на индуктивность, или емкость, колебательного |
менение |
в |
разных |
|||
контура, в результате чего параметры колебательного |
разделах |
физики |
и |
|||
математики. |
Кроме |
|||||
процесса превратят закономерности информационно- |
||||||
этого, |
Фурье построил |
|||||
го процесса в электрический ток. |
||||||
первую |
математиче- |
|||||
Если информационное сообщение является некоторой |
||||||
скую теорию теплово- |
||||||
|
||||||
функцией с(t), то электрический сигнал будет иметь |
го излучения. |
|
вид |
||
|
||
X t Fc [c t ], |
|
|
где Fc [c t ] - оператор преобразования, |
|
107
ТЕОРЕТИЧЕСКИЕ ОСНОВЫ ЗАЩИТЫ ИНФОРМАЦИИ
____________________________________________________________________________________________
Фридрих Вильгельм Бессель (Friedrich Wilhelm Bessel, 1784 - 1846),
немецкий астроном, геодезист, математик, иностранный почетный член Петербургской академии наук (1814). Создал теорию и методы учета инструментальных и личных ошибок в астрономических наблюдениях. Одним из первых он измерил звездный параллакс (1838). В геодезии известные его работы по определению длины секундного маятника. В математике исследовал функции, которые нашли широкое применение в физике, астрономии, технике. Позднее их стали называть его именем - функциями Бесселя.
который должен повторять закон изменения информационного сообщения с(t) в изменении своих параметров, которыми на этом этапе преобразования являются мгновенное значение электрического тока или напряжения, фазы и т.п.
На практике добиваются практически абсолютного сходства функций информационного сообщения с(t) и функции электрического сигнала Х(t) при любой сложности их отображения (или с точностью до масштабного множителя). Поэтому их математические модели должны быть одинаковыми.
С целью упрощения анализа сигналов, которые отображают информационное сообщение с(t) произвольной сложности, подают в виде суммы элементарных колебаний (t), которые называются базисными функциями
|
k t , |
|
c t Ck |
(2.83) |
|
k 0 |
|
|
где Ck - коэффициенты.
Как базисные могут использоваться известные системы функций Фурье, Бесселя, Лежандра, Чебышева, Уолша и др.
Классической суммой в этом понимании есть ряд Фурье, в котором базисными есть гармонические колебания, а также базисные функции, имеющие вид sinx/x, расписанные В. А. Котельниковым.
Если информационное сообщение является некоторой функцией с(t), то электрический сигнал будет иметь вид
X t Fc [c t ],
где Fc [c t ] - оператор преобразования, который
должен повторять закон изменения информационного сообщения с(t) в изменении своих параметров, которыми на этом этапе преобразования есть наиболее частое мгновенное значение электрического тока или напряжения, фазы и т.п.
На практике добиваются практически абсолютного сходства функций информационного сообщения с(t) и функции электрического сигнала Х(t) при любой сложности их отображения (или с точностью до масштабного множителя).
108
Глава 2. Количественные оценки информации
____________________________________________________________________________________________
Поэтому их математические модели должны быть одинаковыми.
С целью упрощения анализа сигналов, которые отображают информационное сообщение с(t) произвольной сложности, подают в виде суммы элементарных колебаний (t), которые называются базисными функциями:
|
k t , |
|
c t Ck |
(2.83) |
|
k 0 |
|
|
где Ck - коэффициенты.
Как базисные функции могут использоваться такие известные системы функций, как функции Фурье, Бесселя, Лежандра, Чебышева, Уолша и т.д.
Классической суммой в этом понимании есть ряд Фурье, в котором базисными есть гармонические колебания, а также базисные функции, имеющие вид sinx/x, расписанные В.А. Котельниковым.
Преобразование Фурье дает возможность перевести информационное сообщение произвольной формы в совокупность элементарных гармонических колебаний. При этом анализ преобразований сигнала сводится к анализу изменений параметров гармонических колебаний амплитуды, фазы и частоты (элементарных «кирпичиков» сложного информационного объекта) как базисных функций и их весовых коэффициентов.
Преобразование Фурье переводит анализ сообщений и сигналов в частотную область. Для исследования сигналов во временной области применяется
теорема В.А.Котельникова (теорема отсчетов). Если функция Х(t) не содержит частот выше
Fm, то она полностью определяется последовательностью своих значений в моменты времени, которые отличаются друг от друга на
t 1/ 2Fm .
Согласно теореме В.А. Котельникова можно подавать сигналы как функции от любого параметра, не только от времени.
Таким образом, математические модели сообщений и видеосигналов имеют одинаковую функциональную структуру и параметры и пригодные для анализа информационных сообщений.
Адриан Мари Ле-
жандр (Adrien-Marie Legendre, 1752 - 1833),
французский математик член Парижской академии наук (1783). Лежандр обосновал и развил теорию геодезических измерений и первым открыл и применил в вычислениях метод наименьших квадратов. В области математического анализа ввел так называемые многочлены Лежандра, преобразование Лежандра, а также исследовал интегралы Эйлера І і ІІ рода. Лежандр доказал сведение эллиптических интегралов к каноническим формам, нашел соответствующие разложения в ряды, составил таблицы их значений.
109
