Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебники 6083.doc
Скачиваний:
4
Добавлен:
01.05.2022
Размер:
619.52 Кб
Скачать

ФГБОУВПО «Воронежский государственный технический университет»

Кафедра систем информационной безопасности

Технический контроль безопасности информационно-телекоммуникационных систем методические указания

к практическим занятиям

по дисциплине «Технический контроль безопасности

информационно-телекоммуникационных систем»

для студентов направления 210302 «Радиотехника»

специальности 090105 «Комплексное обеспечение информационной безопасности автоматизированных систем»

очной формы обучения

Часть 1

Воронеж 2011

Составители: канд. техн. наук И.В. Владимиров, канд. техн. наук Е.А. Москалева

УДК 621.382.82

Технический контроль безопасности информационно-телекоммуникационных систем. Методические указания к практическим занятиям по дисциплине «Технический контроль безопасности информационно-телекоммуникационных систем» для студентов направления 210302 «Радиотехника» специальности 090105 «Комплексное обеспечение информационной безопасности автоматизированных систем» очной формы обучения / ФГБОУВПО «Воронежский государственный технический университет»; сост. И.В. Владимиров, Е.А. Москалева. Воронеж, 2011. 43 с.

Методические указания к практическим занятиям содержат материал, направленный на закрепление полученных во время лекционных занятий знаний и приобретение практических навыков при рассмотрении вопросов технического контроля безопасности информационно-телекоммуникационных систем.

Предназначены для студентов 5 курса обучения.

Табл. 4. Ил. 5. Библиогр.: 12 назв.

Рецензент канд. техн. наук, доц. Г.А. Остапенко

Ответственный за выпуск зав. кафедрой д-р техн. наук, проф. А.Г. Остапенко

Издается по решению редакционно-издательского совета Воронежского государственного технического университета

© ФГБОУВПО «Воронежский государственный технический университет», 2011

Практическое занятие№1

Виды информации, защищаемой техническими средствами. Оценка количества информации. Информационные характеристики источника

1 Цель занятия

Введение в дисциплину. Повторение основных вопросов теории передачи информации.

2 Теоретические сведения

Под информацией обычно понимаются сведения о ли­цах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления. К защищаемой информации относится информация, яв­ляющаяся предметом собственности и подлежащая за­щите в соответствии с требованиями правовых докумен­тов или требованиями, устанавливаемыми собственни­ком информации. Это, как правило, информация огра­ниченного доступа, содержащая сведения, отнесенные к государственной тайне, а также сведения конфиденци­ального характера.

2.1. Количественное определение информации.

Количество информации I(ai), содержащееся в символе ai, выбираемом из ансамбля {ai} (i = 1, 2 ,3 …, K; Kобъем алфавита) с вероятностью P(ai), причем , определяется следующим образом:

I(ai) = –log P(ai). (1.1)

Основание логарифма в (1.1) определяет систему единиц измерения количества информации. (Чаще всего log2. При этом информации измеряется в двоичных единицах, т.е. битах.)

Среднее количество информации H(A), приходящееся на один символ, выдаваемый дискретным источником независимых сообщений с объемом алфавита K, можно найти как математическое ожидание дискретной случайной величины A, определяющей количество информации, содержащееся в одном случайно выбранном символе (знаке) ai. Эта величина называется энтропией источника независимых сообщений:

. (1.2)

Одной из информационных характеристик дискретного источника является избыточность:

. (1.3)

Избыточность источника зависит от протяженности статистических связей между последовательно выбираемыми символами (памятью источника), так и от степени неравновероятности отдельных символов. Если источник без памяти (последовательно передаваемые символы независимы), все символы равновероятны и избыточность равна нулю.

2.2. Количество и скорость передачи информации. Пропускная способность канала.

Дискретный канал

Если на вход канала с шумами поступают символы символе bi (i = 1, 2 ,3 …, m), а с выхода снимаются символы bj (j = 1, 2 ,3 …, m), то условие вероятности переходов P(bj/bi), а также и апостериорные вероятности P(bi / bj) удовлетворяют соотношениям:

0 < P(bj/bi) < 1; 0 < P(bi / bj) < 1.

Это означает, что при фиксированном символе bj нельзя с полной определенностью утверждать, какой символ bi передавался. Следовательно, часть информации, содержащейся в символе bi, оказывается потерянной.

Среднее количество информации, теряемой при передаче произвольного символа по каналу без памяти

. (1.4)

Эта величина называется ненадежностью канала и показывает степень неопределенности последовательности входных символов B(t) при условии, что принята последовательность B(t).

Среднее количество переданной по каналу информации для источника и канала без памяти

, (1.5)

где I(B) – количество информации на входе канала, I(B/B) – количество информации, потерянной в канале.

I(B/B’) = I(B’/B) = H(B’) – H(B’/B).

Величина H(B) = I(B) определяет информацию (энтропию) выходных символов канала.

Энтропия шума:

. (1.6)

Если на вход дискретного канала поступает в среднем vк символов в единицу времени, то можно определить среднюю скорость передачи информации по каналу с шумами:

I(B,B) = vк I(B/B) = H(B) – H(B/B) = H(B) – H(B/B),

где H(B) – производительность источника на входе канала; H(B) – производительность источника, образованного выходом канала; H(B/B) – количество ложной информации, создаваемой шумом в единицу времени.

Пропускной способностью канала называется предельная скорость передачи информации при заданных свойствах каналах:

C = vк maxI(B,B’).

Непрерывный канал

Для описания информационных свойств непрерывного источника широко используется понятие дифференциальной энтропии h(S):

. (1.7)

Количество информации, содержащееся в одном непрерывном отсчете процесса Z(t) относительно отсчета процесса X(t):

, (1.8)

где w2(s,z) – совместная плотность вероятности процессов S(t) и Z(t).

I(S,Z) = h(S) – h(S/Z) = h(Z) – h(Z/S),

где h(S) и h(Z) – дифференциальная энтропия на отсчет процесса S(t) и Z(t) соответственно.

Условная дифференциальная энтропия отсчета S(t) при известном отсчете Z(t):

/ (1.9)

Условная дифференциальная энтропия отсчета Z(t) при известном отсчете S(t):

/ (1.10)

Если на вход канала поступил сигнал s(t), а в канале действует аддитивная помеха U(t), то принимаемое колебание

Z(t) = s(t) + U(t), (1.11)

условная дифференциальная энтропия

h(Z/S) = h(U),

где h(U) – дифференциальная энтропия на один отсчет помехи.

I(S, Z) = h(Z) – h(U). (1.9)

Скорость передачи информации по непрерывному каналу с дискретным временем

I’(S, U) = vк [h(S) – h(S/Z)] = vк [h(Z) – h(Z/S)], (1.12)

где vк = 2Fк – число отсчетов сигнала, передаваемое в одну секунду по каналу с полосой Fк.

Пропускной способностью C непрерывного канала с заданным шумом и числом отсчетов сигнала vk называют предельным значением скорости передачи информации (1.8), достигаемом при вариации всевозможных источников на входе.

При аддитивном шуме в канале

C = vк max[h(Z) – h(U)]. (1.13)

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]