- •Visa велико, а действительные последствия ареста, да и сама его
- •1" С 9 компьютерными кражами в Вашингтонском университете.
- •1000 Коммерческих организаций в России и не менее чем 600 банков
- •Ice, zip и сжатия дисков на ibm pc. Употребление этих кодов
- •14 Символов, то при кодировке ascii он занимает 112 бит, в то
- •10%. Несомненно, что для более эффективного ее уплотнения нужны
- •11, Либо байтом точек исходного изображения. Число повторений
- •XIX века Клаузен первым предложил для этой цели код авс, a
- •Vanol a, an ababa It is hoped
- •История криптологии
- •Появление шифров
- •Veni vidi vici, то есть пришел увидел победил, сделанное Цезарем
- •5Х5, заполненный алфавитом в случайном порядке. Для шифрования на
- •2 Дисков, помещенных на общую ось, содержал на ободе алфавит в
- •Становление науки криптологии
- •314, Получаем шифровку:
- •0' 90' 180' 270' Шифp
- •1, Став королем Англии, хотел пригласить Лейбница на британскую
- •Криптология в Новое время
- •XIX век с расширением связных коммуникаций занялся
- •62985, Очень затрудняющая расшифровку коротких сообщений. Гораздо
- •25 Электрических контактов, столько же, сколько букв в алфавите.
- •1, Который в 1712 году встречался с Лейбницем, чтобы уговорить
- •1812 Года замечается знание и употребление шифров. Исследователи
- •XIX века и до революции, правительственные криптоаналитики читали
- •1923 Года Советы снова сменили скомпрометированные
- •Элементы криптоанализа
- •Характеристики сообщений
- •45% Сократить длину файлов в формате ascii. Таким образом,
- •I, а вероятности Pij появления знака j при условии, что перед ним
- •3.5 Бит, что эквивалентно примерно II буквам в русском алфавите
- •1. Текст и шифр лишь кажутся независимыми, по-
- •2. Статистические испытания являются единствен-
- •3. Статистические проверки являются, пожалуй,
- •9 Или их сочетания маловероятны. Поэтому будем считать, что текст
- •1975 Году слушатели лекций по криптологии Винкель и Листер
- •56 Бит, что недостаточно для таких задач, как национальная
- •Idea - Improved Proposed Encryption Standard - улучшенный
- •III. Началом третьего периода развития криптоло-
- •130 Десятичных цифр, приведенного в их публикации, потребует
- •10**(-38). Вместе с тем, что очень важно, восстановить
- •5 Лет, а это время - приемлемый срок жизни стандарта и шифров.
- •1916 Году выдающимся математиком нашего века Германом Вейлем.
- •2**N-1. Если 2**n-1 простое число, то последовательность
- •Ibm, которая привезла в Австралию заказанную ей программную
- •1. Область загрузки диска, сохраняющая основ-
- •2. Таблица расположения файлов (fat) и дирек-
- •3. Последний уровень защиты - файловый. Не-
- •10 Абонентов, имеющих связь друг с другом, требует как минимум 90
- •Image.Cfg .. A:
- •Idea. Ключ idea длиной в 128 бит, на первый взгляд кажется
- •1993 Году лишь незаконное использование кредитных карточек с
- •1200 Раз перевел по 10 фунтов на собственный счет, зная, что
- •300 Часов круглосуточно отслеживая телефонные звонки, засекли его
- •100 Рабочих станций этой фирмы, объединенных в сеть,
- •20 Случаев пользователь вместо пароля вводит: свое имя, название
- •Ivanuglov как пароли. При анализе списка пароля наблюдались такие
- •3.11, Когда за счет посылки сообщения с адресом станции
- •Irene iron jazz job julia
Характеристики сообщений
До этого места, говоря об информации, мы ограничивались в ее
определении призывами к здравому смыслу. Теперь же попробуем
описать ее строже, так как использование слова информация
приводит порой к недоразумениям и многозначности. Письмо,
телеграмма, выступление по радио несут информацию и являются
сообщениями. Однако надлежит отличать сообщения от извещений.
Понять разницу между ними позволит следующий анекдот. Однажды
Пьер попросил свою невесту Мари, чтобы она бросила вечером из
окна монету, когда родители уйдут в кино и можно будет провести
время наедине. Родители ушли, и Мари бросила монету. Через
полчаса ожидания она, выглянув на улицу, увидела Пьера,
обшаривающего тротуар. Таков сюжет, а теперь перейдем к
размышлениям. Зачем Пьер занимался поиском? Скупость отвергнем
сразу же - монета не купюра, да и драгоценное время уходит.
Скорее всего, что бросок монеты Мари приняла за извещение:
наступил момент времени, когда ушли родители. А Пьер, искушенный
в информатике любовных посланий, отнесся к этому событию как к
сообщению: если брошена монета, то родители ушли, а если
обручальное кольцо, то ему предлагают утешиться аперитивом в
ближайшем бистро. Извещения несут в себе информацию лишь о
времени наступления известного заранее события. Ими являются
сигнал точного времени, свисток футбольного судьи, выстрел
стартового пистолета. А вот сообщения существуют вне времени,
например, картина Рубенса, текст инъективы Цицерона против
Саллюстия, опера Чайковского "Пиковая дама", лозунг Ленина "Вся
власть Советам" или зажженная надпись STOP на переходе.
Сообщения, как бы сложны они не были, можно представить себе
в виде последовательности знаков. Эти знаки берутся из заранее
фиксированного набора, например, русского алфавита или палитры
цветов (красный, желтый, зеленый). Разные знаки могут встречаются
в сообщениях с разной частотой. Поэтому количество информации,
передаваемой разными знаками может быть разным. В том смысле,
который предложил Шеннон, количество информации определяется
средним числом возможных вопросов с ответами ДА и НЕТ для того,
чтобы угадать следующий символ сообщения. Если буквы в тексте
следуют независимо друг от друга, то среднее количество
информации в сообщении приходящееся на один знак, равно:
H= См. PiLd(Pi)
где Pi - частота появления символа i, a Ld- двоичный логарифм.
Отметим три особенности такого определения информации.
1. Оно абсолютно не интересуется семантикой, смыслом
сообщения, и им можно пользоваться, даже когда точный смысл
неясен.
2. В нем предполагается независимость вероятности появления
знаков от их предыстории.
3. Заранее известна знаковая система, в которой передается
сообщение, то есть язык, способ кодирования.
В каких единицах выражается значение количества информации по
Шеннону? Точнее всего ответ на этот вопрос дает теорема
кодирования, утверждающая, что любое сообщение можно закодировать
символами 0 и 1 так, что полученная длина сообщения будет сколь
угодно близка сверху к Н. Эта теорема позволяет назвать и единицу
информации - бит.
Каждый, кто использовал, работая на персональном компьютере,
архиваторы, знает, как лихо они ужимают текстовые файлы, ничего
при этом не теряя. Их работа лучшим образом демонстрирует теорему
кодирования в действии. Так как для русского текста, переданного
лишь прописными буквами, Н=4.43, то это означает, что в принципе
в русском алфавите можно было бы обойтись лишь 22 буквами или на