Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
25 ответы к экзамWord.doc
Скачиваний:
25
Добавлен:
05.09.2019
Размер:
215.04 Кб
Скачать

Билет 1

Понятие информации, формы ее представления, виды, свойства

Ответ

ГБОУ СПО СЕРГИЕВСКИЙ ГУБЕРНСКИЙ ТЕХНИКУМ

Рассмотрен на заседании

предметно-цикловой комиссии математических дисциплин

Протокол №_____от_______2012г.

Председатель ПЦК______________

Л.А.Терехова

ЭКЗАМЕНАЦИОННЫЙ БИЛЕТ № 1

(комплексный экзамен)

по дисциплинам «Основы теории информации» и

«Операционные системы и среды»

УТВЕРЖДАЮ

Зам. директора по

реализации программ

СПО________________

О.К.Лозбенева

________________2012г.

Специальность 080802.51 Прикладная информатика ( по отраслям),

курс 2 группа 25 форма обучения - очная

Билет 1

  1. Понятие информации, формы ее представления, виды, свойства .

Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

  • графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;

  • звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

  • текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

  • числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;

  • видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

Свойства информации

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенностью информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информацию. С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

  • Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании человека, информация может искажаться (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта, и, таким образом, перестать быть объективной.

  • Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  • Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

  • Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

  • Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

  • Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

3..Практическое задание. Запишите числа в обратном и дополнительном кодах (формат 1 байт):

      а) -9;      б) -15;     в) -127;     г) -128.

Билет 2

1.Понятие информации в теории Шеннона.

Содержательный подход к понятию « информация» с точки зрения Клода Шеннона

Количество информации, заключенное в сообщении, определяется объемом знаний, который несет это сообщение получающему его человеку.

Сообщение содержит информацию для человека, если заключенные в нем сведения являются для этого человека новыми и понятными и , следовательно, пополняют его знания.

При содержательном подходе возможна качественная оценка информации: полезная, безразличная, важная, вредная…

Одну и ту же информацию разные люди могут оценить по разному.

Единица измерения количества информации называется бит

Сообщение , уменьшающее неопределенность знаний человека в два раза, несет для него 1 бит информации.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из равновероятных событий( равновероятность обозначает , что ни одно событие не имеет преимущества перед другими). Тогда количество информации, заключенное в этом сообщении ,- х бит и число N связаны формулой:

2х=N

Данная формула является уравнением относительно неизвестной х. Из математики известно, что решение такого уравнения имеет вид

Х=LOG2N

Если N равно целой степени двойки(2.4,8,16 …) то такое решение можно «в уме». В противном случае, нужно воспользоваться таблицей логарифмов.

Основоположник математической теории информации- Клод Шеннон, американский ученый и инженер( 30-е годы двадцатого века)

Определение информации Клода Шеннона:

« Информация как снятая неопределенность»

Под информацией Клод Шеннон понимал не любые сведения, , а лишь те , которые снимают полностью или уменьшают существующую до их получения неизвестность( неопределенность).

Билет 3

1.Единицы измерения данных.

В опорном конспекте несколько определений единицы измерения информации – бита.

Бит (англ. bit — binary digit — двоичная цифра) - количество информации, содержащееся в сообщении типа “да - нет”; количество информации, необходимое для различения двух равновероятных сообщений; наименьшая "порция" памяти, необходимая для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд; минимальное количество информации.

1 байт = 8 битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Информационный объем сообщения – это количество символов (равно количеству байтов).

3. Практическое задание. Найдите десятичные представления чисел, записанных в дополнительном коде:

      а) 1 1111000;      б) 1 0011011;     в) 1 1101001;      г) 1 0000000.

Билет 4

1.Меры измерения информации.

Одной из важнейших характеристик информации является ее адекватность. Адекватность информации — это уровень соответствия образа, создаваемого с помощью информации, реальному объекту, процессу, явлению. От степени адекватности информации зависит правильность принятия решения.

Адекватность информации может выражаться в трех формах: синтаксической, семантической и прагматической.

Синтаксическая адекватность отображает формально-структурные характеристики информации, не затрагивая ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость ее передачи и обработки, размеры кодов представления информации, надежность и Точность преобразования этих кодов и т. д. Информацию, рассматриваемую с таких позиций, обычно называют данными.

Семантическая адекватность определяет степень соответствия образа объекта самому объекту. Здесь учитывается смысловое содержание информации. На этом уровне анализируются сведения, отражаемые информацией, рассматриваются смысловые связи. Таким образом, семантическая адекватность проявляется при наличии единства информации и пользователя. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая адекватность отражает соответствие информации цели управления, реализуемой на ее основе. Прагматические свойства информации проявляются при наличии единства информации, пользователя и цели управления. На этом уровне анализируются потребительские свойства информации, связанные с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

Каждой форме адекватности соответствует своя мера количества информации.

Синтаксическая мера информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. На этом уровне объем данных в сообщении измеряется количеством символов в этом сообщении. В современных ЭВМ минимальной единицей измерения данных является бит — один двоичный разряд. Широко используются также более крупные единицы измерения: байт, равный 8 битам; килобайт, равный 1024 байтам; мегабайт, равный 1024 килобайтам, и т. д.

Семантическая мера информации используется для измерения смыслового содержания информации. Наибольшее распространение здесь получила тезаурусная мера, связывающая семантические свойства информации со способностью пользователя принимать поступившее сообщение. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. Максимальное количество семантической информации потребитель получает при согласовании ее смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные сведения. С семантической мерой количества информации связан коэффициент содержательности, определяемый как отношение количества семантической информации к общему объему данных.

Прагматическая мера информации определяет ее полезность, ценность для процесса управления. Обычно ценность информации измеряется в тех же единицах, что и целевая функция управления системой.

Билет 5

1.Энтропия как мера неопределенности выбора. Требования к мере неопределенности выбора.

В качестве основной характеристики сообщения теория информации принимает величину, называемую количеством информации. Это понятие не затрагивает смысла и важности передаваемого сообщения, а связано со степенью его неопределенности.

Пусть алфавит источника сообщений состоит из m знаков, каждый из которых может служить элементом сообщения. Количество N возможных сообщений длины n равно числу перестановок с неограниченными повторениями:

N = mn

Если для получателя все N сообщений от источника являются равновероятными, то получение конкретного сообщения равносильно для него случайному выбору одного из N сообщений с вероятностью 1/N.

Ясно, что чем больше N, тем большая степень неопределенности характеризует этот выбор и тем более информативным можно считать сообщение.

Поэтому число N могло бы служить мерой информации. Однако, с позиции теории информации, естественно наделить эту меру свойствами аддитивности, т.е. определить ее так, чтобы она бала пропорциональна длине сообщения (например, при передаче и оплате сообщения - телеграммы, важно не ее содержание, а общее число знаков).

В качестве меры неопределенности выбора состояния источника с равновероятными состояниями принимают логарифм числа состояний:

I = log N = log mn = n log m.

Эта логарифмическая функция характеризует количество информации:

Указанная мера была предложена американским ученым Р.Хартли в 1928 г.

Количество информации, приходящееся на один элемент сообщения (знак, букву), называется энтропией:

.

3. Практическое задание Для представления вещественного числа отводится 8 байт. Порядок занимает 11 бит. Сколько значащих цифр будет со­держать двоичная мантисса?

Билет 6

1.Позиционные и непозиционные системы счисления.

Для записи информации о количестве объектов используются числа. Числа записываются с использование особых знаковых систем, которые называют системами счисления. Система счисления – совокупность приемов и правил записи чисел с помощью определенного набора символов. Все системы счисления делятся на две большие группы: ПОЗИЦИОННЫЕ и НЕПОЗИЦИОННЫЕ. Позиционные - количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра. Непозиционные - количественное значение цифры числа не зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.

Самой распространенной из непозиционных систем счисления является римская. В качестве цифр используются: I(1), V(5), X(10), L(50), C(100), D(500), M(1000). Величина числа определяется как сумма или разность цифр в числе. MCMXCVIII = 1000+(1000-100)+(100-10)+5+1+1+1 = 1998 Первая позиционная система счисления была придумана еще в Древнем Вавилоне, причем вавилонская нумерация была шестидесятеричная, т.е. в ней использовалось шестьдесят цифр! В XIX веке довольно широкое распространение получила двенадцатеричная система счисления. В настоящее время наиболее распространены десятичная, двоичная, восьмеричная и шестнадцатеричная системы счисления. Количество различных символов, используемых для изображения числа в позиционных системах счисления, называется основанием системы счисления.

Система счисления

Основание

Алфавит цифр

Десятичная

10

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

Двоичная

2

0, 1

Восьмеричная

8

0, 1, 2, 3, 4, 5, 6, 7

Шестнадцатеричная

16

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

Билет 7

  1. Кодирование информации и декодирование информации

Кодирование информации.

 

С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код. Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.

С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде проследовательность нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента: 0 – отсутствие электрического сигнала; 1 – наличие электрического сигнала.

Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных. Вам приходится постоянно сталкиваться с устройством, которое может находится только в двух устойчивых состояниях: включено/выключено. Конечно же, это хорошо знакомый всем выключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключаться в любое из 10 состояний, оказалось невозможным. В результате после ряда неудачных попыток разработчики пришли к выводу о невозможности построения компьютера на основе десятичной системы счисления. И в основу представления чисел в компьютере была положена именно двоичная система счисления.

Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.

Рассмотрим основные способы двоичного кодирования информации в компьютере.

 3.Практическое задание. Записать следующие числа в форме с плавающей запятой и нормализованной мантиссой: а) 217, 93410 ; б) 7532110 ; в) 10,010110

Билет 8

1. Кодирование текстовой информации.

Двоичное кодирование текстовой информации

Начиная с 60-х годов, компьютеры все больше стали использовать для обработки текстовой информации и в настоящее время большая часть ПК в мире занято обработкой именно текстовой информации.

Традиционно для кодирования одного символа используется количество информации = 1 байту (1 байт = 8 битов). Для кодирования одного символа требуется один байт информации.

Учитывая, что каждый бит принимает значение 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов. (28=256)

Кодирование заключается в том, что каждому символу ставиться в соответствие уникальный двоичный код от 00000000 до 11111111 (или десятичный код от 0 до 255).

Важно, что присвоение символу конкретного кода – это вопрос соглашения, которое фиксируется кодовой таблицей.

Таблица, в которой всем символам компьютерного алфавита поставлены в соответствие порядковые номера (коды), называется таблицей кодировки.

Для разных типов ЭВМ используются различные кодировки. С распространением IBM PC международным стандартом стала таблица кодировки ASCII (American Standard Code for Information Interchange) – Американский стандартный код для информационного обмена. Стандартной в этой таблице является только первая половина, т.е. символы с номерами от 0 (00000000) до 127 (0111111). Сюда входят буква латинского алфавита, цифры, знаки препинания, скобки и некоторые другие символы.

Остальные 128 кодов используются в разных вариантах. В русских кодировках размещаются символы русского алфавита. В настоящее время существует 5 разных кодовых таблиц для русских букв (КОИ8, СР1251, СР866, Mac, ISO).

В настоящее время получил широкое распространение новый международный стандарт Unicode, который отводит на каждый символ два байта. С его помощью можно закодировать 65536 (216= 65536 ) различных символов.

Билет 9

1. Кодирование графической информации.

Под изображением будем понимать прямоугольную область, закрашенную непрерывно изменяющимся цветом. Поэтому для представления изображений в целых числах необходимо отдельно дискретизировать прямоугольную область и цвет.

Для описания области она разбивается на множество точечных элементов – пикселов [pixel]. Само множество называется растром [bit map, dot matrix, raster] (см. рис. 1.3), а изображения, которые формируются на основе растра, называются растровыми.

Число пикселов называется разрешением [resolution]. Часто встречаются значения 640х480, 800х600, 1024х768, 1280х1024. Каждый пиксел нумеруется, начиная с нуля слева направо и сверху вниз.

Для представления цвета используются цветовые модели.

Цветовая модель [color model] это правило, по которому может быть вычислен цвет. Самая простая цветовая модель – битовая. В ней для описания цвета каждого пиксела (чёрного или белого) используется всего один бит. Для представления полноцветных изображений используются несколько более сложных моделей.

Известно, что любой цвет может быть представлен как сумма трёх основных цветов: красного, зелёного и синего. Если интенсивность каждого цвета представить числом, то любой цвет будет выражаться через набор из трёх чисел. Так определяется наиболее известная цветовая RGB-модель. На каждое число отводится один байт. Так можно представить 224 цвета, то есть примерно 16,7 млн. цветов. Белый цвет в этой модели представляется как (1,1,1), чёрный – (0,0,0), красный (1,0,0), синий (0,0,1). Жёлтый цвет является комбинацией красного и зелёного и потому представляется как (1,1,0).

Цветовая модель RGB [Red-Green-Blue] была стандартизирована в 1931 г. и впервые использована в цветном телевидении. Модель RGB является аддитивной моделью, то есть цвет получается в результате сложения базовых цветов. Существуют и другие цветовые модели, которые для ряда задач оказываются более предпочтительными, чем RGB-модель.

Например, для представления цвета в принтере используется субтрактивная CMY-модель [Cyan-Magenta-Yellow], цвет в которой получается в результате вычитания базовых цветов из белого цвета. Белому цвету в этой модели соответствует (0,0,0), чёрному - (1,1,1), голубому - (1,0,0), сиреневому - (0,1,0), жёлтому - (0,0,1).

В цветовой модели HSV [Hue-Saturation-Value] цвет представляется через цвет, насыщенность и значение, а в модели HLS [Hue-Lightness-Saturation] через оттенок, яркость и насыщенность. Современные графические редакторы, как правило, могут работать с несколькими цветовыми моделями.

Наиболее популярными являются графические форматы: BMP [Bit MaP], PCX, GIF [Graphics Interchange Format], TIFF [Tagged Image File Format], JPEG [Joint Photographic Experts Group], которые по существу различаются между собой используемыми методами сжатия. Форматы BMP и PCX используют RLE-алгоритм, форматы GIF и TIFF – LZW-алгоритм, JPEG использует одноимённый алгоритм сжатия.

3.Практическое задание. Запишите в десятичной системе счисления числа: 1) А5 = 34,1;     А3 = 221; 2) А7 = 120;     А16 = Е41А,12.

Билет 10

1. Кодирование звуковой и видеоинформации.

Приемы и методы кодирования звуковой информации пришли в вычислительную технику наиболее поздно и до сих пор далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, хотя можно выделить два основных направления.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармоничных сигналов разной частоты, каждый из которых представляет правильную синусоиду, а следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр, то есть являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальные устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). При таких преобразованиях часть информации теряется, поэтому качество звукозаписи обычно получается не вполне удовлетворительным и соответствует качеству звучания простейших электромузыкальных инструментов с «окрасом», характерным для электронной музыки.

Метод таблично-волнового синтеза (Wave-Table) лучше соответствует современному уровню развития техники. Имеются заранее подготовленные таблицы, в которых хранятся образцы звуков для множества различных музыкальных инструментов. В технике такие образцы называются сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения. Поскольку в качестве образцов используются «реальные» звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

Билет 11

1.Систематические коды. Коды Хэмминга.

Систематический код — код, содержащий в себе кроме информационных контрольные разряды.

3. Практическое задание .В пруду живут 8000 карасей, 2000 щук и 40 000 пескарей.

А.Определите вероятность улова каждого вида рыб;

Б.Определите количество информации, полученной рыбаком при улове карася;

В.Определите количество информации, полученной рыбаком при улове щуки;

Г.Определите количество информации, полученной рыбаком при улове пескаря.

Билет 12

  1. Правила недесятичной арифметики.

Работа в двоичной системе счисления В двоичной системе, так же, как и в десятичной, можно выполнять арифметические действия. Вообще говоря, с точки зрения математики абсолютно все равно, в какой системе считать. Однако, нас сейчас интересуют не математические доказательства, а правила, как выполнять арифметические действия. Общее правило: действия выполняются так же, как и в десятичной системе, только при сложении перенос производится, когда сумма превысит два ( а не десять, как в десятичной системе), а при вычитании - единица, занятая в старшем разряде равна двум а не десяти в младшем. А. Сложение.

Код:

  11100 +   10110 --------  110010

 

Пояснения: Младший разряд:    0+0=0 Второй разряд:   0+1=1 Третий разряд:   1+1=2 = 10(двоичное) = 0 и 1 перенос Четвертый разряд:    1+0+1 переноса = 10(дв.) = 0 и 1 перенос Пятый разряд:    1+1+1 переноса=3 = 11(дв.) = 1 и 1 переносится в шестой разряд. Б. Вычитание.

Код:

  110010 - 110110 ---------    11100

   

Младший разряд: 0-0=0 Второй разряд:   1-1=0 Третий разряд:   0-1= Заняли в старшем разряде1, добавилось 2 в текущем разряде. 2-1=1 Четвертый разряд:   0-0-1 занятое третьим разрядом, занимаем в следующем разряде, получилось 2 в текущем разряде. 2-1=1 Пятый разряд:    1-1-1 занятое четвертым разрядом, занимаем в следующем разряде, добавилось 2 в текущем разряде. 1+2-1-1=1 Шестой разряд:   Была 1, но ее заняли для пятого разряда, остался 0. Как и в десятичной системе, нули перед числом обычно не записываются. В. Умножение.

Код:

 10110 *   1011 -----------    10110    10110    00000    10110 ----------- 11110010

 

Г. Деление.

Код:

 11110010|1011 -   1011    |________   ------- |  10110    10000  -     1011   -----------      1011    -      1011   -----------         00

-----------      1011    -      1011   -----------

Билет 13

1. Характеристика каналов связи.

3. Практическое задание .В корзине лежат белые и черные шары. Среди них 18 черных шаров. Сообщение о том, что из корзины достали белый шар, несет 2 бита информации. Сколько всего в корзине шаров?

Билет 14.

1.Понятие архива. Программы-архиваторы. Методы и форматы сжатия данных.

Характерной особенностью большинства типов данных является их избыточность. Степень избыточности данных зависит от типа данных. Например, для видеоданных степень избыточности в несколько раз больше чем для графических данных, а степень избыточности графических данных, в свою очередь, больше чем степень избыточности текстовых данных. Другим фактором, влияющим на степень избыточности является принятая система кодирования. Примером систем кодирования могут быть обычные языки общения, которые являются ни чем другим, как системами кодирования понятий и идей для высказывания мыслей. Так, установлено, что кодирование текстовых данных с помощью средств русского языка дает в среднем избыточность на 20—25% большую чем кодирование аналогичных данных средствами английского языка.

Для человека избыточность данных часто связана с качеством информации, поскольку избыточность, как правило, улучшает понятность и восприятие информации. Однако, когда речь идет о хранении и передаче информации средствами компьютерной техники, то избыточность играет отрицательную роль, поскольку она приводит к возрастанию стоимости хранения и передачи информации. Особенно актуальной эта проблема стает в случае обработки огромных объемов информации при незначительных объемах носителей данных. В связи с этим, постоянно возникает проблема уменьшения избыточности или сжатия данных. Если методы сжатия данных применяются к готовым файлам, то часто вместо термина "сжатие данных" употребляют термин "архивация данных", сжатый вариант данных называют архивом, а программные средства, которые реализуют методы сжатия называются архиваторами.

В зависимости от того, в каком объекте размещены данные, подлежащие сжатию различают:

1.             Сжатие (архивация) файлов: используется для уменьшения размеров файлов при подготовке их к передаче каналами связи или к транспортированию на внешних носителях маленькой емкости;

2.             Сжатие (архивация) папок: используется как средство уменьшения объема папок перед долгим хранением, например, при резервном копировании;

3.             Сжатие (уплотнение) дисков: используется для повышения эффективности использования дискового просторную путем сжатия данных при записи их на носителе информации (как правило, средствами операционной системы).

Существует много практических алгоритмов сжатия данных, но все они базируются на трех теоретических способах уменьшения избыточности данных. Первый способ состоит в изменении содержимого данных, второй — в изменении структуры данных, а третий — в одновременном изменении как структуры, так и содержимого данных.

Если при сжатии данных происходит изменение их содержимого, то метод сжатия называется необратимым, то есть при восстановлении (разархивировании) данных из архива не происходит полное восстановление информации. Такие методы часто называются методами сжатия с регулированными потерями информации. Понятно, что эти методы можно применять только для таких типов данных, для которых потеря части содержимого не приводит к существенному искажению информации. К таким типам данных относятся видео— и аудиоданные, а также графические данные. Методы сжатия с регулированными потерями информации обеспечивают значительно большую степень сжатия, но их нельзя применять к текстовым данным. Примерами форматов сжатия с потерями информации могут быть:

         JPEG — для графических данных;

         MPG — для для видеоданных;

         MP3 — для аудиоданных.

Если при сжатии данных происходит только изменение структуры данных, то метод сжатия называется обратимым. В этом случае, из архива можно восстановить информацию полностью. Обратимые методы сжатия можно применять к любым типам данных, но они дают меньшую степень сжатия по сравнению с необратимыми методами сжатия. Примеры форматов сжатия без потери информации:

         GIF, TIFF — для графических данных;

         AVI — для видеоданных;

         ZIP, ARJ, RAR, CAB, LH — для произвольных типов данных.

Существует много разных практических методов сжатия без потери информации, которые, как правило, имеют разную эффективность для разных типов данных и разных объемов. Однако, в основе этих методов лежат три теоретических алгоритма:

         алгоритм RLE (Run Length Encoding);

         алгоритмы группы KWE(KeyWord Encoding);

         алгоритм Хаффмана.

Алгоритм RLE

В основе алгоритма RLE лежит идея выявления повторяющихся последовательностей данных и замены их более простой структурой, в которой указывается код данных и коэффициент повторения. Например, пусть задана такая последовательность данных, что подлежит сжатию:

1 1 1 1 2 2 3 4 4 4

В алгоритме RLE предлагается заменить ее следующей структурой: 1 4 2 2 3 1 4 3, где первое число каждой пары чисел — это код данных, а второе — коэффициент повторения. Если для хранения каждого элемента данных входной последовательности отводится 1 байт, то вся последовательность будет занимать 10 байт памяти, тогда как выходная последовательность (сжатый вариант) будет занимать 8 байт памяти. Коэффициент сжатия, характеризующий степень сжатия, можно вычислить по формуле:

где Vx— объем памяти, необходимый для хранения выходной (результирующей) последовательности данных, Vn— входной последовательности данных.

Чем меньше значение коэффициента сжатия, тем эффективней метод сжатия. Понятно, что алгоритм RLE будет давать лучший эффект сжатия при большей длине повторяющейся последовательности данных. В случае рассмотренного выше примера, если входная последовательность будет иметь такой вид: 1 1 1 1 1 1 3 4 4 4, то коэффициент сжатия будет равен 60%. В связи с этим большая эффективность алгоритма RLE достигается при сжатии графических данных (в особенности для однотонных изображений).

Алгоритмы группы KWE

В основе алгоритма сжатия по ключевым словам положен принцип кодирования лексических единиц группами байт фиксированной длины. Примером лексической единицы может быть обычное слово. На практике, на роль лексических единиц выбираются повторяющиеся последовательности символов, которые кодируются цепочкой символов (кодом) меньшей длины. Результат кодирования помещается в таблице, образовывая так называемый словарь.

Алгоритмы сжатия этой группы наиболее эффективны для текстовых данных больших объемов и малоэффективны для файлов маленьких размеров (за счет необходимости сохранение словаря).

Алгоритм Хаффмана

В основе алгоритма Хаффмана лежит идея кодирования битовыми группами. Сначала проводится частотный анализ входной последовательности данных, то есть устанавливается частота вхождения каждого символа, встречащегося в ней. После этого, символы сортируются по уменьшению частоты вхождения.

Основная идея состоит в следующем: чем чаще встречается символ, тем меньшим количеством бит он кодируется. Результат кодирования заносится в словарь, необходимый для декодирования. Рассмотрим простой пример, иллюстрирующий работу алгоритма Хаффмана.

Пусть задан текст, в котором бурва 'А' входит 10 раз, буква 'В' — 8 раз, 'С'— 6 раз , 'D' — 5 раз, 'Е' и 'F' — по 4 раза. Тогда один из возможных вариантов кодирования по алгоритму Хаффмана приведен в таблицы 1.

Таблица 1.

Символ

Частота вхождения

Битовый код

A

10

00

B

8

01

C

6

100

D

5

101

E

4

110

F

4

111

Как видно из таблицы 1, размер входного текста до сжатия равен 37 байт, тогда как после сжатия — 93 бит, то есть около 12 байт (без учета длины словаря). Коэффициент сжатия равен 32%. Алгоритм Хаффмана универсальный, его можно применять для сжатия данных любых типов, но он малоэффективен для файлов маленьких размеров (за счет необходимости сохранение словаря).

На практике программные средства сжатия данных синтезируют эти три "чистых" алгоритмы, поскольку их эффективность зависит от типа и объема данных. В таблице 2 приведены распространенные форматы сжатия и соответствующие им программыи—архиваторы, использующиеся на практике.

Таблица 2.

Формат сжатия

Операционная система MS DOS

Операционная система Windows

Программа архивации

Программа разархивации

Программа архивации

Программа разархивации

ARJ

Arj.exe

Arj.exe

WinArj.exe

WinArj.exe

RAR

Rar.exe

Unrar.exe

WinRar.exe

WinRar.exe

ZIP

Pkzip.exe

Pkunzip.exe

WinZip.exe

WinZip.exe

3.Практическое задание. Какой должна быть частота дискретизации и глубина кодирования для записи звуковой информации длительностью 2 минуты, если в распоряжении пользователя имеется память объемом 5,1 Мбайт

Билет 15.

1.Классические системы шифрования.

Основные термины и определения криптологии.

Криптография - дисциплина, включающая принципы, средства и математические методы преобразования информации, с целью сокрытия смысла или структуры данных, а также для защиты их от несанкционированного использования или подделки. Основным методом криптографии является шифрование.

Шифрованием называется взаимно однозначное преобразование сообщения, с целью скрытия его смысла от посторонних. Исходный текст сообщения – открытый текст. Результат шифрования – шифрованный текст (шифртекст). При шифровании могут использоваться секретные параметры – ключи.

Открытый текст состоит из элементов, которые определяются шифрпреобразованием. Элемент - это наименьшая часть данных, (набор битов), которая может быть зашифрована. Элементам открытого текста соответствуют элементы шифртекста.

Некоторые классические примеры шифров.

Потребность шифровать и передавать шифрованные сообщения возникла очень давно. Так, еще в V-IV вв. до н. э. греки применяли специальное шифрующее устройство. По описанию Плутарха, оно состояло из двух палок одинаковой длины и толщины. Одну оставляли себе, а другую отдавали отъезжающему. Эти палки называли скиталами. Когда правителям нужно было сообщить какую-нибудь важную тайну, они вырезали длинную и узкую, вроде ремня, полосу папируса, наматывали ее на свою скиталу, не оставляя на ней никакого промежутка, так чтобы вся поверхность палки была охвачена этой полосой. Затем, оставляя папирус на скитале в том виде, как он есть, писали на нем все, что нужно, а написав, снимали полосу и без палки отправляли адресату. Так как буквы на ней разбросаны в беспорядке, то прочитать написанное можно только при помощи скиталы, соответствующего диаметра, намотав на нее без пропусков полосу папирус. Таким образом, диаметр скиталы являлся секретным параметром.

Аристотелю принадлежит способ дешифрования этого шифра. Надо изготовить длинный конус и, начиная с основания, обертывать его лентой с шифрованным сообщением, постепенно сдвигая ее к вершине. В какой-то момент начнут просматриваться куски сообщения. Так можно определить диаметр скиталы.

В Древней Греции (II в. до н. э.) был известен шифр, называемый квадрат Полибия.

Применительно к современному латинскому алфавиту из 26 букв шифрование по этому квадрату заключалось в следующем. В квадрат размером 5x5 клеток выписываются все буквы алфавита, при этом буквы I,J не различаются (J отождествляется с буквой I).

A

B

C

D

E

A

A

B

C

D

E

B

F

G

H

I

K

C

L

M

N

O

P

D

Q

R

S

T

U

E

V

W

X

Y

Z

Шифруемая буква заменялась на координаты квадрата, в котором она записана. Так, B заменялась на AB, F на BA, R на DB и т.д. При расшифровании каждая такая пара определяла соответствующую букву сообщения. Ключом такого шифра являлось расположение букв в таблице 5x5.

Древнеримский император Юлий Цезарь (100-44 гг. до н.э.) применял шифр, при котором каждая буква текста заменялась на букву, расположенную в алфавите на 9 позиций правее, чем исходная. При выходе за пределы алфавита, соответствующий знак шифртекста выбирался из второго алфавита, записанного вслед за первым. Это эквивалентно преобразованию латинского алфавита с помощью циклического сдвига на 9 позиций влево. Очевидно, здесь секретным параметром является величина сдвига.

Все современные алгоритмы шифрования информации построены на основе шифров, указанных типов.

Шифр вертикальной перестановки.

Рассмотрим пример шифра вертикальной перестановки, для которого подстановка задается неявно, исходя из т.н. ключевого слова - «лозунга».

Открытый текст криптограммы следующий: "В связи с создавшимся положением отодвигаем сроки возвращения домой Рамзай".

Для зашифрования шифром вертикальной перестановки построим прямоугольную таблицу, количество строк которой определяется длиной текста, а количество колонок равно шести. В качестве «лозунга» выберем слово "ЗАПИСЬ" (количество букв в ключевом слове должно равняться количеству колонок в нашей таблице).

Заменим теперь каждую букву ключевого слова на число от 1 до 6 таким образом, чтобы буква, имеющая меньший номер следования в алфавите, заменялась на меньшее число. Полученные числа (2,1,4,3,5,6) проставим подряд в начале соответствующих колонок таблицы и будем в дальнейшем считать их номерами этих колонок. Впишем открытый текст в таблицу, переходя обычным образом со строки на строку. В результате получим:

2

1

4

3

5

6

в

с

в

я

з

и

с

с

о

з

д

а

в

ш

и

м

с

я

п

о

л

о

ж

е

н

и

е

м

о

т

о

д

в

и

г

а

е

м

с

р

о

к

и

в

о

з

в

р

а

щ

е

н

и

я

д

о

м

о

й

р

а

м

з

а

й

Выпишем теперь буквы из столбцов таблицы: сначала весь столбец, в начале которого стоит единица, затем - столбец, помеченный двойкой и т.д.

В итоге, получим следующий шифртекст (представив его пятизначными группами знаков):

ссшои дмвщо мвсвп ноеиа даязм омирз ноаво илевс оемзз дсжог

овийй иаяет акряр

Ясно, что шифртекст отличается от открытого текста лишь перестановкой букв и мы, таким образом, совместили процесс генерации подстановок с процессом зашифрования.

3. Практическое задание. Какой объем видеопамяти необходим для хранения четырех страниц изображения при условии, что разрешающая способность дисплея равна 640Х480 точек, а используемых цветов-32?

Билет 16.

1. Кодирование звуковой и видеоинформации.

Как всякий звук, музыка является не чем иным, как звуковыми колебаниями, зарегистрировав которые достаточно точно, можно этот звук безошибочно воспроизвести. Нужно только непрерывный сигнал, которым является звук, преобразовать в последовательность нулей и единиц. С помощью микрофона звук можно превратить в электрические колебания, измерить амплитуду колебаний через равные промежутки времени (несколько десятков тысяч раз в секунду). Каждое измерение записывается в двоичном коде. Этот процесс называется дискретизацией. Устройство для выполнения дискретизации — АЦП (аналогово-цифровой преобразователь). Воспроизведение такого звука ведётся при помощи ЦАП (цифро-аналогового преобразователя). Полученный ступенчатый сигнал сглаживается и преобразуется в звук при помощи усилителя и динамика. На качество воспроизведения влияют частота дискретизации и разрешение (размер ячейки, отведённой под запись значения амплитуды). Например, при записи музыки на компакт-диски используются 16-разрядные значения и частота дискретизации 44 032 Гц. Понятно, что музыкальное произведение содержит в себе множество разных звуков, поэтому для того, чтобы хранить такой объём информации, нужно много места, такую запись трудно обрабатывать, так как в музыке ещё очень много оттенков. По этим причинам удобнее использовать для кодирования музыки нотную запись — своего рода алгоритм музыканту. В 1983 году ведущие производители электронных музыкальных инструментов и композиторов договорились о системе команд универсального синтезатора. Это соглашение — стандарт MIDI (Musical Instrument Digital Interface). При таком кодировании запись компактна, легко меняется инструмент исполнителя, тональность звучания, одна и та же запись воспроизводится как на синтезаторе, так и на компьютере.