- •113. Сущность проблемы информационной безопасности и надежности систем.
- •Различают следующие основные методы несанкционированного доступа:
- •116. Методы повышения надежности аппаратно-программных средств ис.
- •117. Помехоустойчивое кодирование информации в ис
- •123. Метод сжатия данных Хаффмана. Особенности программной реализации.
- •124. Классификация методов криптопреобразования информации.
- •125. Подстановочные и перестановочные шифры.
- •126. Системы асимметричного криптопреобразования. Алгоритм rsa.
- •127. Избирательная и мандатная модели разграничения доступа к данным.
- •Новые методы защиты
- •Текстовая стеганография
- •Графические методы
- •134. Электронная цифровая подпись на основе хеш-функций.
- •Пример ис на основе по повышенной надежности
- •Простая интуитивная модель надежности по
- •Экспоненциальная математическая модель
Различают следующие основные методы несанкционированного доступа:
– физические (например, простое копирование);
– программные (вирусы, «троянские кони», клавиатурные анализаторы, анализаторы протоколов и другие деструктивные программы);
– электронные (исследования электромагнитного излучения от различных блоков и устройств комп. техники, а также каналов передачи информации);
– технические (непосредственное подключение к каналам связи).
Основные методы защиты:
1. Организационные методы. Подразумевают разработку и исполнение в лаборатории правил, регламентирующих доступ физ. лиц к инф, хранящейся на носителях либо передаваемой внутри сети данного предприятия. В организациях, осуществляющих операции над критической информацией (правительственные), назначается специальное ответственное лицо – администратор безопасности, ответственный за реализацию и соблюдение правил на основе реализуемой политики безопасности.
2. Правовые методы. ГК предусматривает наказание за компьютерные преступления. В 1983 г. Организация экономического сотрудничества и развития определила под термином «компьютерная преступность» любые незаконные действия, связанные с автоматической обработкой или передачей информации.
3. Технические методы. Объединяют методы ограничения физ. доступа лиц к каналам передачи информации, устройствам ее хранения и обработки. Основаны на использовании простых замков, магнитных карт, на анализе антропометрических и биологических параметров человека.
4. Аппаратно-программные методы. Базируются на применении аппаратных или программных средств, позволяющих идентифицировать пользователя, а также оценить происхождение программного средства, поступающего в информационную сеть. Наиболее известными из указанных средств являются использование пароля, антивирусных программ на основе методов шифрования.
115. Энтропия источника сообщения. Энтропия Шеннона и Хартли.
Энтропия – мера неопределенности – величина показывающая, какое количество информации приходится в среднем на один символ алфавита.
Алфавит – совокупность символов, с помощью которых можно представить любое сообщение в ИС.
Мощность алфавита – количество символов, составляющее алфавит.
a
i
– элемент алфавита,P(ai)
–вероятность
С функциональной точки зрения энтропия показывает, какое количество информации приходится в среднем на один символ алфавита.
I (Xк) = A(f) * к
A(f) – энтропия алфавита
Xk = «Добрыйдень»
к = 10
I = 3,12 * 10 = 31,2 бит.
Условная энтропия – потери информации, приходящиеся в среднем на один символ алфавита.
Условной энтропией источника дискретного сообщения Х называют величину: H(X|Y) = - p*log2p – q* log2q
Определяем условную энтропию и потери с шагом 0.1:
public void conditional_entropy(double entropy, int size) { double cond_entropy = 0; double potery; for(double i = 0.1; i <= 1; i += 0.1) { cond_entropy = (-i*Math.log(i)/Math.log(2)-(1-i)*Math.log(1-i)/Math.log(2))*entropy; potery = cond_entropy * size; System.out.println(Math.round(i*100) + "%" + " " + cond_entropy + " Потери: " + potery); } }
Частным случаем энтропии Шеннона является энтропия Хартли. Дополнительным условием при этом является то, что все вероятности одинаковы и постоянны для всех символов алфавита.
Формула Хартли определяет количество информации, содержащееся в сообщении длины n.
Имеется алфавит А, из букв которого составляется сообщение:
Количество возможных вариантов разных сообщений:
где N — возможное количество различных сообщений, шт; m — количество букв в алфавите, шт; n — количество букв в сообщении, шт.
Пример:
Алфавит состоит из двух букв «B» и «X»,
длина сообщения 3 буквы — таким
образом, m=2, n=3. При выбранных нами алфавите
и длине сообщения можно составить
разных
сообщений «BBB», «BBX», «BXB», «BXX», «XBB»,
«XBX», «XXB», «XXX» — других вариантов
нет.
Формула Хартли определяется:
где I — количество информации, бит.
