- •П.Н. Девянин, о.О. Михальский, д.И. Правиков, а.Ю. Щербаков Теоретические основы компьютерной безопасности
- •Глава 1 структура теории компьютерной безопасности 8
- •Глава 2 методология построения систем защиты информации в ас 22
- •Глава 3 политика безопасности 72
- •Глава 4 модели безопасности 95
- •Глава 5 основные критерии защищенности ас. Классификация систем защиты ас 123
- •Введение
- •Глава 1структура теории компьютерной безопасности
- •1.1Основные понятия и определения
- •1.2 Анализ угроз информационной безопасности
- •1.3 Структуризация методов обеспечения информационной безопасности
- •1.4 Основные методы реализации угроз информационной безопасности
- •1.5Основные принципы обеспечения информационной безопасности в ас
- •1.6Причины, виды и каналы утечки информации
- •Глава 2методология построения систем защиты информации в ас
- •2.1 Построение систем защиты от угрозы нарушения конфиденциальности информации Организационно-режимные меры защиты носителей информации в ас
- •Передача пароля по сети
- •Криптографические методы защиты
- •Утечки информации по техническим каналам:
- •Требования к скзи
- •Требования надежности
- •Требования к средам разработки, изготовления и функционирования скзи.
- •Криптографическая защита транспортного уровня ас
- •Криптографическая защита на прикладном уровне ас
- •Особенности сертификации и стандартизации криптографических средств
- •Защита от угрозы нарушения конфиденциальности на уровне содержания информации
- •2.2Построение систем защиты от угрозы нарушения целостности информации Организационно-технологические меры защиты целостности информации на машинных носителях
- •Модель контроля целостности Кларка-Вилсона
- •Защита памяти
- •Барьерные адреса
- •Динамические области памяти
- •Адресные регистры
- •Страницы и сегменты памяти
- •Цифровая подпись
- •Защита от угрозы нарушения целостности информации на уровне содержания
- •2.3 Построение систем защиты от угрозы отказа доступа к информации
- •Защита от сбоев программно-аппаратной среды
- •Обеспечение отказоустойчивости по ас
- •Предотвращение неисправностей в по ac
- •Защита семантического анализа и актуальности информации
- •2.4 Построение систем защиты от угрозы раскрытия параметров информационной системы
- •2.5 Методология построения защищенных ас
- •Иерархический метод разработки по ас
- •Исследование корректности реализации и верификация ас
- •Теория безопасных систем (тсв)
- •Список литературы к главе 2
- •Глава 3политика безопасности
- •3.1 Понятие политики безопасности
- •3.2 Понятия доступа и монитора безопасности
- •3.3 Основные типы политики безопасности
- •3.4 Разработка и реализация политики безопасности
- •3.5Домены безопасности
- •Список литературы к главе 3
- •Глава 4модели безопасности
- •4.1 Модель матрицы доступов hru Основные положения модели
- •Безопасность системы
- •4.2 Модель распространения прав доступа take-grant Основные положения модели
- •Возможность похищения прав доступа
- •Расширенная модель Take-Grant
- •4.3 Модель системы безопасности белла-лападула Основные положения модели
- •Пример некорректного определения безопасности в модели бл
- •Эквивалентные подходы к определению безопасности в модели бл
- •Подход Read-Write (rw)
- •Подход Transaction (т)
- •Проблемы использования модели бл
- •Модель Low-Water-Mark
- •4.4Модель безопасности информационных потоков
- •Пример автоматной модели системы защиты gm
- •Список литературы к главе 4
- •Глава 5основные критерии защищенности ас. Классификация систем защиты ас
- •5.1Руководящие документы государственной технической комиссии россии
- •5.2 Критерии оценки безопасности компьютерных систем министерства обороны сша ("оранжевая книга")
- •Глава 5 Основные критерии защищенности ас. Классификация систем
- •Демонстрационный материал к учебной теме “Криптосистема rsa” Введение
- •Системные требования
- •Описание программы
4.4Модель безопасности информационных потоков
Рассмотренные модели HRU, Take-Grant, БЛ могут быть использованы при построении и анализе детерминированных систем защиты, т.е. систем, которые не включают элементов, имеющих вероятностную природу. При исследовании систем, закономерности функционирования которых сложны или практически не поддаются описанию, целесообразно использовать элементы теории вероятностей. К числу таких систем можно отнести глобальные вычислительные сети, например Internet, или современные многозадачные, многопользовательские сетевые операционные системы.
Рассмотрим систему защиты Σ, реализующую мандатное (полномочное) разграничение доступа. Без ограничения общности можно считать, что:
• в системе используются только два уровня секретности: высокий и низкий;
144
• все объекты системы делятся на две непересекающиеся группы: высокоуровневые объекты (H), имеющие право обрабатывать информацию высокого уровня секретности, и низкоуровневые (L);
• все взаимодействие между H и L осуществляется через систему защиты Σ. Таким образом, систему можно представить схемой
Задача системы защиты – не допустить возникновение информационного потока от высокоуровневых объектов к низкоуровневым.
Пусть на множестве значений объектов системы задано вероятностное распределение, т.е. Н и L являются случайными величинами. Для описания и анализа информационных потоков между ними воспользуемся понятиями теории вероятностей: независимости и условного распределения. С их помощью по [11] рассмотрим два подхода к определению безопасности информационных потоков, основанных на понятиях:
• информационной невыводимости;
• информационного невмешательства.
Определение 1. В системе присутствует информационный поток от высокоуровневых объектов Н к низкоуровневым L, если некое возможное значение переменной в некотором состоянии низкоуровневого объекта невозможно одновременно с возможными значениями переменных состояний высокоуровневых объектов.
Определение 2. Система безопасна в смысле информационной невыводимости, если в ней отсутствуют информационные потоки вида, описанного в определении 1.
Более формально это определение можно дать следующим образом: нет информационного потока oт Н к L тогда и только тогда, когда выполняется условие: если p(H)>0, p(L)>0, то p (Н | L)>0.
Так как при p (Н)>0, p (L)>0 выполняется
p (L | Н) =p (Н, L)/p (Н) = p (Н | L) p (L)/p (Н),
то в условиях определения 1 из истинности неравенства p(H | L)>0 следует истинность p (L | H)>0, что предполагает отсутствие информационных потоков от низкоуровневых объектов к высокоуровневым. Таким образом, требования информационной невыводимости являются более строгими, чем требования безопасности классической модели БЛ, и фактически предполагают изоляцию друг от друга высокоуровневых и низкоуровневых объектов системы.
В традиционной модели информационного невмешательства требуется, чтобы низкоуровневая информация была независима от высокоуровневой, т.е. выполнялось равенство
p (L | H)=p (L),
что при p (H)>0, p (.L)>0 равносильно равенству
p (H | L)=p (H).
145
Однако если ввести параметр времени, то ограничение, данное выше, слишком строгое. Если Li описывает состояния всех низкоуровневых объектов, a Hi всех высокоуровневых объектов в момент времени t = 0,1,2,…, то нет необходимости требовать выполнения
p (Ht | Lt-1) = p (Ht),
т.е. текущее значение низкоуровневых объектов может содержать информацию о последующих значениях высокоуровневых объектов.
Например, если низкоуровневым является некий несекретный файл, обрабатываемый пользователем с низким допуском, а высокоуровневым объектом является журнал аудита, то значение файла и операции, совершаемые над ним пользователем на шаге t, могут отображаться в журнале аудита на шаге t+1.
Казалось бы, необходимо потребовать, чтобы текущие значения низкоуровневых объектов не зависели бы от значений высокоуровневых объектов на предыдущих тактах работы системы, т.е. выполнялось для t = 1,2,...
p (Lt | Ht-1) = p (Lt) или, что равносильно, p (Ht-1 | Lt) = p (Нt-1).
Здесь учитывается тот факт, что состояние системы влияет на последующие только через информацию, хранимую в объектах системы.
Следует отметить, что данный вариант определения соотношения Lt и Нt-1 является слишком строгим, так как предполагает независимость Lt и Нt-1. Однако значения высокоуровневых объектов на текущем шаге часто оказывает влияние на значения низкоуровневых объектов на последующих шагах работы системы. Рассмотрим два примера.
Пример 1. Система резервного копирования.
Для защиты низкоуровневых пользователей от сбоев системы все данные, записываемые ими в низкоуровневые файлы, предварительно копируются системой в высокоуровневый аудиторский файл. В результате, если в момент времени t значение низкоуровневого файла было X, то это означает, что в момент времени t-1 высокоуровневый файл аудита содержал значение X. Налицо зависимость значений Lt и Нt-1. Однако, никакой угрозой безопасности это не является.
Пример 2. Монитор ссылок.
Монитор ссылок в реальных системах защиты является высокоуровневым субъектом, принимающим решения по запросам на доступ к объектам, полученным от других субъектов системы. Очевидно, что такое решение, полученное низкоуровневым субъектом на шаге t работы системы, содержит информацию о значении высокоуровневого монитора ссылок на предыдущем шаге.
Более целесообразным представляется подход, обеспечивающий невозможность накопления низкоуровневыми объектами новой информации о значениях высокоуровневых объектов. Более формально, необходимо потребовать, чтобы знание значений Lt-1 и Lt, не давало бы новой информации о Ht-1, т.е. должно выполняться равенство
p (Lt | Ht-1, Lt-1) = p (Lt | Lt-1) для t = 1,2, …
Данное равенство равносильно равенству
p (Ht | Lt-1, Lt-1) = p (Ht | Lt-1) ,
т.е. тем самым запрещается обратный информационный поток из Lt в Нt-1, но не запрещается поток из Lt и Нt+1. Кроме этого, следует отметить, что, 146
решая проблемы, обозначенные в рассмотренных выше примерах, последнее правило запрещает временные каналы утечки информации.
С учетом того, что состояние системы влияет на последующие состояния только через информацию, хранимую в объектах системы, дадим определение модели безопасности информационных потоков.
Определение 3. Система безопасна в смысле информационного невмешательства, если выполняется равенство
p (Lt | Hs, Ls) = p (Lt | Ls), где t, s = 1,2, … и s < t
Модель безопасности информационных потоков служит практическим примером подхода к построению системы защиты, которая разрешает корреляцию значений высокоуровневых и низкоуровневых объектов, но при этом остается безопасной.
