
- •Сдача зачета 19.01.12 в 1000 – 301-1к. И 20.01.12 в 900 – 301-1к. Список вопросов для магистрантов по Основам информационных технологий (11/12)
- •1. Тенденции и особ-сти развития инф-ных технологий до середины 19 века.
- •2 Тенденции и особенности развития ит после сер. 19 в.
- •2. Тенденции и особенности развития информационных технологий со второй половины 19 века
- •3 Абстрактная машина Тьюринга
- •4 Основные параметры, характеристики и свойства ис
- •5 Сущность проблемы скорости передачи данных (пд)
- •7 Системная шина пк
- •8. Энтропия источника сообщения
- •9. Особенности двоичных систем передачи информации
- •11 Сущность основных проблем современных иСиТ
- •12. Базовые технологии преобразования информации
- •13 Сущность методов избыточного кодирования информации
- •14 Методы и средства защиты ис от несанкционированного доступа
- •15 Сущность и классификация методов сжатия данных в ис.
- •16. Оценка эффективности сжатия информации.
- •17 Сжатие и распаковка информации по методу Шеннона-Фано.
- •18 Сжатие и распаковка информации по методу Хаффмана.
- •19 Сущность символ-ориентированных методов сжатия
- •20 Безопасность информационных технологий
- •21 Назначение и особенности использования криптографических методов в ис
- •22 Классификация методов шифрования данных
- •23 Особенности блокового шифрования данных
- •24 Особенности симметричных и ассиметрич. Систем шифрования данных
- •25 Подстановочные и перестановочные шифры
- •26. Особенности алгоритма rsa
- •27. Эцп и ее использование в инф-х процессах
- •28. Основные методы генерации эцп
- •29. Эцп в Беларуси
- •30 Место и роль бд в ис
- •31 Реляционная бд
- •32 Основные модели баз данных (бд)
- •33 Особенности проектирования компьютерных бд
- •34 Интегральность в бд
- •35 Операции и операторы в реляционной модели бд
- •36 Особенности языка sql.
- •37 Базовые структуры предложений языка в запросах
- •38 Генерация и обработка запросов к бд
- •39 Тенденции развития компьютерных бд
- •41. Методы борьбы с вредоносными компьютерными программами
- •43. Типы атак вирусов
- •44 Общая характеристика техник защиты от вирусов
- •45 Сканеры вирусов
- •46 Мониторы вирусов
- •47 Современные технологии противодействия компьютерным вирусам
- •48 Ит в области образования, коммерции, банковского дела
- •49 Особенности моделирования объектов и техпроцессов
- •50 Математическое моделирование
- •51 Имитационное моделирование
- •52 Формальная модель объекта
- •53 Элементы теории оптимизации
- •54 Постановка задачи оптимизации
- •55 Решение оптимизационных задач в системе ms Excel
- •56.Классификация компьютерных сетей
- •57.Базовые архитектуры компьютерных сетей
- •58.Основные топологии компьютерных сетей
- •Топология общая шина
- •59. Особенности пакетной передачи данных по компьютерным сетям
- •60. Модель iso/osi
- •61 Адресация и маршрутизация в компьютерных сетях. Мас-адрес.
- •62 Адресация и маршрутизация в компьютерных сетях. Ip − адрес
- •63 Адресация и маршрутизация в компьютерных сетях. Dns-имя
- •64 Беспроводные технологии передачи информации
9. Особенности двоичных систем передачи информации
Дост-ва двоичной системы счисления: простота реализ-и проц-в хран-я, передачи и обработки инф. на ПК, для ее реализ-и нужны эл-ты с 2мя возможными сост-ми, а не с десятью, предст-е инф-и посредством только 2х сост-й надежно и помехоуст-во, возм-сть прим-я алгебры логики для вып-ния логич-х преобр-й.
Недостатки двоичной системы счисления: код числа - послед-сть из 0 и 1. Большие числа занимают дост-но бол-е число разрядов. Быстрый рост числа разрядов – самый существенный недостаток двоичной системы счисления.
Таблица
сложения
Пример сложения «столбиком» (14 + 5 = 19):
Таблица
умножения
Пример умножения «столбиком» (14 × 5 = 70):
Для преобр-я из двоичной системы в десятичную исп-т следующую таблицу степеней основания 2:
512 256 128 64 32 16 8 4 2 1
Преобр-е двоичных чисел в десятичные: дано двоичное число 110001. Для перевода в десятичное запишите его справа налево как сумму по разрядам:
Преобр-е
десятичных чисел в двоичные: нужно
перевести число 19 в двоичное:
19 /2 = 9 с остатком 1
9 /2 = 4 c остатком 1
4 /2 = 2 с остатком 0
2 /2 = 1 с остатком 0
1 /2 = 0 с остатком 1
Делим каждое частное на 2 и запис-м остаток в конец двоичной записи. Прод-м деление до тех пор, пока в делимом не будет 0. В рез-те получаем число 19 в двоичной записи: 10011.
Преобр-е дробных двоичных чисел в десятичные: нужно перевести число 1011010.101 в десятичную систему:
Преобр-е дробных десятичных чисел в двоичные: * Вначале переводится целая часть десятичной дроби в двоичную систему счисления; * Затем дробная часть десятичной дроби умнож-ся на основ-е двоичной системы счисления; * В получ-м произвед-и выд-ся целая часть, кот-я приним-ся в кач-ве знач-я 1-го после запятой разряда числа в двоичной системе счисления; * Алгоритм заверш-ся, если дробная часть получ-го произвед-я = 0 или если достигнута требуемая точ-сть вычисл-й. В противном случае вычисления продолжаются с предыдущего шага.
Пример: Требуется перевести дробное десятичное число 206,116 в дробное двоичное число. Перевод целой части дает 20610=110011102 по ранее опис-м алг-мам; дроб-ю часть умнож-м на основ-е 2, занося целые части произв-я в разряды после запятой искомого дробного двоичного числа:
.116 • 2 = 0.232 .232 • 2 = 0.464 .464 • 2 = 0.928
.928 • 2 = 1.856 .856 • 2 = 1.712 .712 • 2 = 1.424
.424 • 2 = 0.848 .848 • 2 = 1.696 .696 • 2 = 1.392
.392 • 2 = 0.784 и т.д.
Получим: 206,11610=11001110,00011101102
Двоичная система исп-ся в цифр-х ус-вах, поскольку является наиболее простой и соотв-т требованиям: Чем меньше значений сущ-т в системе, тем проще изготовить отд-е элементы, оперирующие этими знач-ми. В частности, две цифры двоичной системы счисления м.б. легко предст-ны многими физ-ми явл-ми: есть ток (ток больше пороговой в-ны) – нет тока (ток меньше пороговой в-ны), индукция магн-го поля больше пороговой в-ны или нет (индукция магнитного поля меньше пороговой величины) и т. д.
Чем меньше кол-во сост-й у элемента, тем выше помехоуст-сть и тем быстрее он может работать. Двоичная арифметика является довольно простой. Простыми являются таблицы сложения и умножения — основных действий над числами.
10. Количество информации (а/в)
Кол-во инф-и I в произв-м сообщ-и XK, где К – число символов в сообщ.:
Кодироска ASCII – American Standard Code for Information Interchallenge.
Инф-я в машинных кодах обладает избыточ-стью.
Пусть дан перечень сообщ-й с указ-м вер-сти появл-я каждого из них. При этом суммарная вер-сть всех сообщ-й д.б. = 1. Не указ-ся конкретное число сообщ-й, т.к. оно не имеет особого знач-я. Указ-ся только порядковые номера сообщ-й.
Верхняя
строка сод-т номера поступающих сообщ-й,
нижняя – вер-сти их появл-я. Кол-во
информации, которое содержится в i-м
сообщении равно:
,
т.е. чем менее вероятно сообщ-е тем больше
инф-и оно сод-т. Т.о., от частной ситуации
равной вер-сти сообщ-й, рассм-й Хартли,
Шеннон перешел к общему случаю. Кол-во
инф-ции, кот-е сод-т в среднем 1 сообщение
можно рассм-ть как мат-е ожид-е
Получ-е выр-е наз-ся энтропией ист-ка:
–среднее
кол-во инф-и в 1м сообщении. Если в ист-ке
есть мн-во сообщ-й, точно знать о каждом
из них необяз-но. В этом заключ-ся преим-во
ср-го знач-я кол-ва инф-и. Каждое сообщ-е
передается n сигналами, каждый из кот-х
может принимать K значений. Пусть в
сигнале, кот-м передается i-е сообщение,
содержится
элементарных сигналов со знач-м
j. Тогда можно утв-ть, что знач-е сигнала
j встретится в канале связи с вер-стью:
Символ j появится
раз в i-м сообщ-и только в том случае,
если появится само сообщ-е; так получ-ся
произвед-е
.
По Хартли инф-ная емкость сигнала зав-т
от n и K:
где
1/K – вер-сть появл-я любого сообщ-я из
возм-х.
Шеннон
оценил ср-е знач-е кол-ва инф-и:
где HC – энтропия 1го эле-мент-го сигнала, кот-й им-т K раб-х знач-й разной вер-сти.
Количество инф-и - меру уменьшения неопределенностии (=энтропии) знания при получении информационных сообщений.
Подход к инф-и как мере уменьшения неопределенности знания (=энтропии) позволяет количественно измерять инф-ю.
За единицу количества инф-и принимается такое количество инф-и, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом (BInary digiT). Производной от бита единицей измерения количества инф-и является байт, причем 1 байт = 8 битов.
В компьютере инф-я кодируется с помощью двоичной знаковой системы, поэтому в кратных единицах измерения количества инф-и используется коэффициент 2n.
Кратные байту единицы измерения количества инф-и:
1 килобайт (Кбайт) = 210 байт = 1024 байт ≈ 103 байт;
1 мегабайт (Мбайт) = 220 байт ≈ 106 байт;
1 гигабайт (Гбайт) = 230 байт ≈ 109 байт.
Для исчисления ещё больших объёмов инфи имеются единицы терабайт (240 байт) и петабайт (250 байт).
При алфавитном подходе к определению количества инф-и информационное сообщение рассм-ют как последовательность знаков определенной знаковой системы.
Формула N = 2К связывает между собой количество возможных информационных сообщений N и количество бит инф-и К, которое несет полученное сообщение.
Чем большее количество знаков содержит алфавит, тем большее количество инф-и несет один знак. Тогда в рассматриваемой ситуации N — это количество знаков в алфавите знаковой системы, а К — количество бит инф-и, которое несет каждый знак.
Пример: определим количество инф-и, которое несет 1 буква русского алфавита. В русский алфавит входят 33 буквы, но на практике часто для передачи сообщений используются 32 буквы (исключается "ё").
С помощью формулы N = 2К определим количество инф-и, которое несет буква русского алфавита: N = 32 => 32 = 2К => 25 = 2К => К=5 битов.
Таким образом, буква русского алфавита несет 5 битов инф-и.
Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество инф-и. Если знаки несут одинаковое количество инф-и, то количество инф-и Кc в сообщении можно подсчитать, умножив количество инф-и Кзн, которое несет один знак, на длину кода (количество знаков в сообщении) N:
Кc = Кзн × N