Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ГЕК защита информации.docx
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
828.16 Кб
Скачать

Различают следующие основные методы несанкционированного доступа:

– физические (например, простое копирование);

– программные (вирусы, «троянские кони», клавиатурные анализаторы, анализаторы протоколов и другие деструктивные программы);

– электронные (исследования электромагнитного излучения от различных блоков и устройств комп. техники, а также каналов передачи информации);

– технические (непосредственное подключение к каналам связи).

Основные методы защиты:

1. Организационные методы. Подразумевают разработку и исполнение в лаборатории правил, регламентирующих доступ физ. лиц к инф, хранящейся на носителях либо передаваемой внутри сети данного предприятия. В организациях, осуществляющих операции над критической информацией (правительственные), назначается специальное ответственное лицо – администратор безопасности, ответственный за реализацию и соблюдение правил на основе реализуемой политики безопасности.

2. Правовые методы. ГК предусматривает наказание за компьютерные преступления. В 1983 г. Организация экономического сотрудничества и развития определила под термином «компьютерная преступность» любые незаконные действия, связанные с автоматической обработкой или передачей информации.

3. Технические методы. Объединяют методы ограничения физ. доступа лиц к каналам передачи информации, устройствам ее хранения и обработки. Основаны на использовании простых замков, магнитных карт, на анализе антропометрических и биологических параметров человека.

4. Аппаратно-программные методы. Базируются на применении аппаратных или программных средств, позволяющих идентифицировать пользователя, а также оценить происхождение программного средства, поступающего в информационную сеть. Наиболее известными из указанных средств являются использование пароля, антивирусных программ на основе методов шифрования.

115. Энтропия источника сообщения. Энтропия Шеннона и Хартли.

Энтропия – мера неопределенности – величина показывающая, какое количество информации приходится в среднем на один символ алфавита.

Алфавит – совокупность символов, с помощью которых можно представить любое сообщение в ИС.

Мощность алфавита – количество символов, составляющее алфавит.

a i – элемент алфавита,P(ai) –вероятность

С функциональной точки зрения энтропия показывает, какое количество информации приходится в среднем на один символ алфавита.

I (Xк) = A(f) * к

A(f) – энтропия алфавита

Xk = «Добрыйдень»

к = 10

I = 3,12 * 10 = 31,2 бит.

Условная энтропия – потери информации, приходящиеся в среднем на один символ алфавита.

Условной энтропией источника дискретного сообщения Х называют величину: H(X|Y) = - p*log2p – q* log2q

Определяем условную энтропию и потери с шагом 0.1:

public void conditional_entropy(double entropy, int size) { double cond_entropy = 0; double potery; for(double i = 0.1; i <= 1; i += 0.1) { cond_entropy = (-i*Math.log(i)/Math.log(2)-(1-i)*Math.log(1-i)/Math.log(2))*entropy; potery = cond_entropy * size; System.out.println(Math.round(i*100) + "%" + " " + cond_entropy + " Потери: " + potery); } }

Частным случаем энтропии Шеннона является энтропия Хартли. Дополнительным условием при этом является то, что все вероятности одинаковы и постоянны для всех символов алфавита.

Формула Хартли определяет количество информации, содержащееся в сообщении длины n.

Имеется алфавит А, из букв которого составляется сообщение:

Количество возможных вариантов разных сообщений:

где N — возможное количество различных сообщений, шт; m — количество букв в алфавите, шт; n — количество букв в сообщении, шт.

Пример: Алфавит состоит из двух букв «B» и «X», длина сообщения 3 буквы — таким образом, m=2, n=3. При выбранных нами алфавите и длине сообщения можно составить   разных сообщений «BBB», «BBX», «BXB», «BXX», «XBB», «XBX», «XXB», «XXX» — других вариантов нет.

Формула Хартли определяется:

где I — количество информации, бит.