- •Основные этапы становления криптографии как науки
- •Простейшие шифры, их свойства. Шифры замены и перестановки.
- •3. Открытые сообщения и их характеристики.
- •4. Частотные характеристики открытых сообщений.
- •5. Критерии на открытые сообщения.
- •6. Основные понятия криптографии
- •7. Криптосистема, ключевая система шифра, основные требования к криптосистемам.
- •8. Шифр перестановки. Разновидности.
- •9. Криптоанализ шифров перестановки.
- •10. Шифр замены, одноалфавитные и многоалфавитные замены.
- •11. Вопросы криптоанализа простейших шифров замены.
- •12. Поточные шифры замены.
- •13. Табличное и модульное гаммирование. Случайные и псевдослучайные гаммы.
- •14. Криптограммы, полученные при повторном использовании ключа.
- •Вопрос 15. Математическая модель шифра. Опорный шифр.
- •Вопрос 16. Шифр с неограниченным ключом
- •Вопрос 17. Модель шифра с ограниченным ключом.
- •18. Шифры совершенные по Шенону.
- •19.Теоретическая стойкость шифра с позиции теории информации.
- •20. Безусловно и вычислительно стойкие шифры. Избыточность языка и расстояние единственности.
- •21. Имитостойкость шифра. Имитация и подмена сообщений.
- •22. Характеристики имитостойкости. Методы обеспечения имитостойкости.
- •23. Совершенная имитостойкость.
- •24. Линейные регистры сдвига
- •25. Помехоустойчивость шифров. Характеристики помехоустойчивых шифров.
- •26. Основные способы реализации криптографических алгоритмов и требования к ним.
- •27. Методы получения случайных и псевдослучайных последовательностей.
- •28. Методы анализа криптоалгоритмов. Понятие криптоатаки.
- •29. Методы анализа криптоалгоритмов. Перебор ключей
- •30. Методы анализа криптоалгоритмов. Метод встречи посередине.
- •31. Методы анализа криптоалгоритмов. Бесключевые методы.
- •32. Система шифрования с открытым ключом. Понятие односторонней функции с секретом.
- •33. Криптосистемы rsa.
- •34. Криптосистема Эль-Гамаля.
- •35. Проблема факторизации целых чисел и логарифмирование в конечных полях.
- •36. Американский стандарт шифрования des
- •37. Российский стандарт шифрования гост 28147-89
- •38. Шифр rc4
- •39. Шифр Rijndael. Математические основы работы.
- •40. Шифр Rijndael. Работа с байтами состояния.
- •41. Шифр Rijndael. Алгоритм выработки ключей.
- •43. Криптографические протоколы. Модели криптографических протоколов.
- •Классификация
- •44. Электронная цифровая подпись. Стандарты эцп.
- •45. Математические основы шифрсистем на эллиптических кривых.
- •46. Свойства множества точек эллиптической кривой.
- •47. Выбор параметров на эллиптической кривой. Шифр Эль-Гамаля на эллиптической кривой.
- •48.Эцп на базе эллиптической кривой.
- •49. Протоколы установления подлинности. Парольные системы разграничения доступа.Протокол рукопожатия.
- •50. Криптосистема на алгоритме а5
- •51. Протоколы сертификации ключей. Протоколы распределения ключей.
- •52. Протоколы выработки сеансовых ключей. Открытое распределение ключей Диффи-Хеллмана.
18. Шифры совершенные по Шенону.
Первая Условная вероятность и вторая условная вероятность где .
Имеет смысл рассматривать x и y одинаковой длины. пусть , , для шифра с ограниченным ключом условная вероятность появления шифротекста (1) . выполняется следующее условие
при . , при этом распределение вероятностей определяется через оприорное распределение на множестве ключей шифра Pk. Условную вероятность можно вычислить по стандартной формуле .(2)
Шифр называется совершенным по Шенону если для любых и для любого натурального числа l, выполняется неравенство .Часто бывает удобно пользоваться альтернативным вариантом определения шифра . Покажем что совершенным может быть шифр с неограниченным ключом, и критерием совершенности такого шифра является свойство совершенности его опорных шифров.
Шифр с ограниченным ключом .
Шифр с неограниченным ключом .
Если шифр является совершенным то для любых , и любого натурального числа e выполняется следующее неравенство
Доказательство: 1.от противного: пусть тогда мы бы имели согласно первому следующее равенство . А согласно второму
А из третьего следует .
Шифр с ограниченным ключом не является совершеннм.
Если взять и зафиксировать символ , то согласно второму найдется ключ , поэтому для совершенного шифра мощность ключевого потока должна быть , где K это константа. В соответствии с этим получаем что .С ростом l величина Y(l) неограниченно растет.
Совершенными могут быть лишь только шифры с неограниченным ключом.
Шифр с неограниченным ключом является совершенным, тогда и только тогда, когда его l- опорный шифр является совершенным при любом l принадлежащим N. Такой подход позволяет нам при изучении свойств шифром, рассматривать лишь их опорные шифры. Под шифром будем понимать совокупность ( , , , , состоящей из случайных величин, заданных на конечных множествах x-открытых текстов и y-шифрованных текстов. В соответствии с априорным распределением вероятностей
. При этом |x|>1, |1|>1, |k|>1, а также правил зашифрования таких что . Полагаем что случайные величины и независимы.
Вероятность появления вычисляется обычно по формуле . Из общих соображение следует следующее равенство .
Если шифр совершенен то справедливы следующие неравенства |X|≤|Y|≤|K|, первое неравенство очевидно, если шифр совершенен то согласно доказательству утверждения 2, | |≥1 по этому для любого x X. { }=Y и по этому в большинстве случаев применяемые на практике шифр обладают следующим…
Шенону удалось описать эндоморфные шифры с минимально возможным числом ключей. Это число не меньше чем |Y|.
19.Теоретическая стойкость шифра с позиции теории информации.
Сложность вскрытия поточного шифра простой замены зависит от характера открытого текста. Все достаточно просто, если шифрованию подвергается литер-ный текст. Однако задача усложняется, если перед шифрованием тот же текст сжать при помощи архиватора. И наложенный критерий на отрр текст становится аморфным для 2го случая. Это объясняется избыточностью текста как инреграль. хар-ки данного языка. Речь идет о том, что в норматив текстах каждая буква или знак препинания передает небольшое кол-во инф-,и от некот. из них можно отказаться без ущерба для передаваемой инф-и.
Избыточность текса дает возможность сжимать его при архивации. В связи с этим возникает вопрос об избыточности текста и ср кол-вом инф-и, передаваемой отдельной буквой. Рассмотрим некот. модель отк. текста. В основу возьмем к-граммную модель. В этом случае имеем дело со случайной величиной, распределение кот опред-ся ЧХ языка. В этом случае откр текст можно представить как последовательность испытаний случайной величины:
при k=1. Р(а), р(в), …, р(я) – вероят-ти появления букв в открытом тексте. Кол-во инф-и, извлекаемое из эксперимента по угадыванию исх. случайной величины:
,
Если для любого i, то .
Причем Н=0 только в том случае, когда .
Для биграммной модели текста, учитывающего зависимость появления знака текста от предыдущего знака кол-во инф-и на знак отк. текст опр-ся след ф-лой:
n – мощность алфавита
- вероятность появления j символа вслед за i символом. - вероятность появления I символа.
Единицу измерения энтропии дает теорема кодирования, кот утверждает, что любой исход случайной величины ξ можно закодировать символами 0 или 1. Так, что получ. длина кодового слова будет близка сверху к Н. На основании этого энтропия измеряется в битах.
Под кодированием случайной величины ξ понимается ф-я f отображения, кот. отображает случайную величину ξ в один из эл-ов множ-ва 0, 1.
Если требуется однозначность кодирования, то отображение должно быть инъективным. Отображение f естественно продолжается до кодирования строк исходов:
( ):f( )=f( , f( ,…, f( .
При этом слова приписываются друг за другом. Мерой эффективности кодирования яв-ся средняя длина кодового слова, кот опред-ся след образом:
L(f)=
Кодирование которое минимизирует l(f) наз-ся оптимальным. Оптимальные коды: Хэмминга, Фано, Хаффмана.
Величину среднего кол-ва инф-и приходящейся на одну букву откр. текста языка Λ обозначают и называют энтропией одного знака. Энтропию языка вычисляют последовательными приближениями, определяемыми ростом r в r-граммной модели откр. текста.
Первым приближением открытого текста яв-ся энтропия случайного текста. Вторым приближением служит позначной модели, в кот. совпадает с вероятностью появления буквы в открытом тексте.
В качестве следующего более точного приближения применяется энтропия вероятностного распределения биграмм деленная на 2. В общем случае, берется энтропия вероятностной схемы на r- граммах деленная на r.
Исследования показывает, что для естественных языков сремится к конечному пределу r.
А формула = 1 - – определяет избыточность языка .
Термин «избыточность языка» возникает в связи с тем, что макс. инф-я, кот. могла нести каждая буква сообщения равна .
.
Средняя энтропия буквы в открытом тексте значительно меньше, и след-но, каждая буква несет больше инф-и, чем .
Величина характеризует неиспользованные возможности букв в передаче информации, а соотношение:
– «неинформативная» доля букв.
В пересчете на весь текст это сообщение характеризует долю лишних букв. Исключение этих букв из текста не приведет к потере инф-и, потому что она будет восстановлена исходя из знаний остальных букв.
Колмогоров предложи комбинированный подход к определению . Суть его подхода состоит в том, что кол-во инф-и, кот приходится на одну букву текста определяется тем условием, что число открытых текстов длины l удовлетворяющих закономерностям языка при достаточно больших l равно не = . Как это было бы, если бы мы имели право брать любые наборы букв из l букв, и будет равна: М(l)= .
По сути это и есть асимптоматика осмысленных текстов длины l для данного языка Λ. Исходя из этого можно определить:
Величину М(l) можно оценить с помощью подсчета возможных продолжений литературного текста. Такая работа была проведена с использованием русского языка.
Попытаемся использовать энтропия и избыточность языка для анализа стойкости шифра.
Попытки определения ключа шифра по данной криптограмме путем ее расшифрования на всевозможных ключах могут привести к тому, что критерий на открытый текст примет несколько претендентов на открытый текст.
Для нахождения оценки числа ложных ключей для шифра требуется условная энтропия: ξ, n – случайные величины, заданные вероятностными распределениями. Для них можно вычислить совместное распределение и условное: р(ξ,η), р(ξ/η), р(η/ξ).
Тогда условная энтропия Усредненная по величина условной энтропии наз-ся условной энтропией ξ и η и будет равна:
Эта величина измеряет среднее количество информации о ξ, обнаруживаемую с помощью η. Из курса теории информации известно, что имеет место след нер-во: , причем равенство будет только тогда, когда ξ и η – независимые величины. Шеннон назвал условную энтропию ненадежностью шифра по ключу. Она измеряет среднее количество информации о ключе, который дает текст длины l.
Лучшей при заданном распределении P( ) яв-ся ситуация, когда случайная энтропия принимает максимальное значение: . Именно в этом случае шифр можно считать совершенно стойким.
Связь между энтропиями компонент шифра дает доказанная Шенноном формула для ненадежности шифра по ключу: )+ )- )
Эта формула позволяет получить оценку среднего числа ключей шифра с ограниченным ключом. Рассмотрим эндоморфные шифры с ограниченным ключом и мн-во открытых текстов с известной избыточностью. Зафиксируем l b , отвечающих данной криптограмме: . В таком случае естественно определить :
= H( )/l.
Введем обозначения: .
Число ложных ключей отвечающих данной криптограмме будет равно:
Так как лишь один из допустимых ключей является истинным, определяется среднее число ложных ключей относительно всех возможных шифротекстов длины l следующей формулой: ,
Теорема: Для эндоморфного шифра с ограниченным ключом выполняется условие:
, где n- число шифровеличин, – избыточность языка пересчитанная на шифровеличину.
Следствие: Для эндоморфного шифра с ограниченным ключом число ложных ключей удовлетворяет следующему неравенству:
В частном случае, когда все ключи шифра равновероятные, число ложных ключей удовлетворяет следующему неравенству: -1
Минимальное l удовлетворяющее этому неравенству называется расстоянием единственности шифра.
эта величина является приближением минимальной длины шифротекста, По которой однозначно можно восстановить ключ. существенно зависит от избыточности текста.