
Шпоры по информатике (очень удобные)
.doc
12.Позиционные системы счисления:представление и правила перевода, положительных рациональных чисел в произвольных позиционных системах счисления. Систе́ма
счисле́ния
— символический метод записи чисел,
представление чисел с помощью письменных
знаков. Системы счисления подразделяются
на позиционные, непозиционные и
смешанные. В
позиционных системах счисления один
и тот же числовой знак (цифра) в записи
числа имеет различные значения в
зависимости от того места (разряда),
где он расположен.
Разряд —
это структурный элемент числа в
позиционных системах счисления. В
десятичной системе число 421 равняется.
Каждая позиционная система счисления определяется некоторым числом b > 1 (т. н. основание системы счисления) Система счисления с основанием b также |
называется
b-ричной. Если не возникает разночтений
(например, когда все цифры представляются
в виде уникальных письменных знаков),
число x записывают в виде последовательности
его b-ричных цифр, перечисляемых по
убыванию старшинства разрядов слева
направо:
Правила перевода: Двоичная система счисления — позиционная целочисленная система счисления с основанием 2. Используются цифры 0 и 1. Допустим, нам нужно перевести число 19 в двоичное. 19 /2 = 9 с остатком 1 9 /2 = 4 c остатком 1 4 /2 = 2 с остатком 0 2 /2 = 1 с остатком 0 1 /2 = 0 с остатком 1 В результате получаем число 19 в двоичной записи (начиная с конца): 10011 |
|
||
12. (2) Шестнадцатеричная система счисления (шестнадцатеричные числа) — позиционная система счисления по целочисленному основанию 16. Обычно в качестве шестнадцатеричных цифр используются десятичные цифры от 0 до 9 и латинские буквы от A до F для обозначения цифр от 10 до 15. Перевод чисел из одной системы счисления в другую. Перевод чисел из шестнадцатеричной системы в десятичную. Например, требуется перевести шестнадцатеричное число 5A3 в десятичное. В этом числе 3 цифры, представим его в виде суммы степеней с основанием 16: 5A3=5·16+10·16+3·16 =5·256+10·16+3·1=1280+160+3=1443 Перевод чисел из двоичной системы в шестнадцатеричную Для перевода многозначного двоичного числа в |
шестнадцатеричную систему нужно разбить его на тетрады справа налево и заменить каждую тетраду соответствующей шестнадцатеричной цифрой. Например: 10110100011=0101 1010 0011=5A3 (Таблица приведена в 12 (3) ) Переведём в восьмеричную систему счисления. Для этого число 124 (в 10ой системе) разделим на число 8.
|
|
||
12 (3) 0000 0 Таблица перевода с 2 в 16ую. 0001 1 0010 2 0011 3 0100 4 0101 5 0110 6 0111 7 1000 8 1001 9 1010 a 1011 b 1100 c 1101 d 1110 e 1111 f |
Перевод из восьмеричной и шестнадцатеричной систем в двоичную. Для этого типа операций существует упрощенный алгоритм-перевёртыш. Для восьмеричной — преобразуем по таблице в триплеты 0 000 4 100 1 001 5 101 2 010 6 110 3 011 7 111 Для шестнадцатеричной — преобразуем по таблице в квартеты 0 0000 4 0100 8 1000 C 1100 1 0001 5 0101 9 1001 D 1101 2 0010 6 0110 A 1010 E 1110 3 0011 7 0111 B 1011 F 1111 Пример: преобразуем 54 (в 8ричн) → 101 100 2C( в 16ричн) → 0010 1100 |
|
||
13. Позиционные системы счисления:представление и правила перевода, положительных рациональных чисел в произвольных позиционных системах счисления с кратными основаниями. Система счисления — способ записи чисел с помощью заданного набора специальных знаков (цифр). Позиционная система счисления — система счисления, в которой вес цифры меняется с изменением положения цифры в числе, но при этом полностью определяется написанием цифры и местом, которое она занимает. В частности, это означает, что вес цифры не зависит от значений окружающих ее цифр. Кратное натурального (целого положительного) числа а, натуральное число, делящееся на а без остатка. Так, 156 есть Кратное 13. |
|
|
||
14. Позиционные системы счисления:представление и правила перевода целых отрицательных чисел в произвольных позиционных системах счисления. Дополнительный код— наиболее распространенный способ представления отрицательных целых чисел в компьютерах. Он позволяет заменить операцию вычитания на операцию сложения. Дополнительный код отрицательного числа получается инвертированием двоичного числа и прибавлением к нему единицы. Преобразование числа из прямого кода в дополнительный осуществляется по следующему алгоритму. Если число, записанное в прямом коде, положительное, то к нему дописывается старший (знаковый) разряд, равный 0, и на этом преобразование заканчивается; Если число, записанное в прямом коде, отрицательное, то все разряды числа инвертируются |
(преобразовываются), а к результату прибавляется 1. К получившемуся числу дописывается старший (знаковый) разряд, равный 1. Например: А=1801, В=-333 (в десятичной) Переводим оба числа в двоичную систему. 1801=709, -333=-14D 14D (доводим до 15 и получаем EB2) EB2 (к полученному прибавляем 1) 1 EB3 Отpицательные - модуль числа не меняется при переходе к другой СС, посему: запомнить знак, пpименить стандаpтный метод - поставить знак.
|
|
||
12 (4) Перевод десятичных дробей в двоичную систему счисления. Например, переведём десятичную дробь 0,75 в двоичную систему 0,75=0,11 (в 2-ичной) Например, переведём десятичную дробь 71,5 в двоичную систему счисления Переведём целую часть 71 в двоичную систему счисления по алгоритму перевода целого десятичного числа в двоичное: 71=1000111 Переведём дробную часть методом последовательного умножения: 0,5=0,1 Запишем результат 71,5=1000111+ 0,1= 1000111,1 |
0 2 1 0,664 2 1 0,656
0,10101010 |
|
||
14 (2) Перевод отрицательных двоичных в 10-ую систему происходит так: переворачиваем все цифры на противоположные, т.е. вместо 0 ставим 1 и наоборот. 11111011b -> 00000100b переводим полученное в Dec 00000100b = 4 добавляем 1 4 + 1 = 5 ставим знак минус 5 -> -5 |
|
|
||
15. Связь информационной емкости двоичного кода и динамического диапазона представления целых чисел. Информационная емкость двоичного кода - количество состояний, каждое из которых может приобретать двоичный код определенной длины. В качестве единицы измерения информационной емкости используются бит, представляющий собой один ( любой ) разряд двоичного числа. Часто используются производные единицы: байт ( 1 байт = 8 бит ); Кбайт ( 1 Кбайт = 210 байт ); Мбайт ( 1 Мбайт = 220 байт ) и др. Информационная емкость записывается, как правило, в виде произведения: Синф = n x m, где n - число двоичных слов; |
m - разрядность слова. Например, емкость ОЗУ типа К155РУ1 составляет Синф = 16 х 1 бит = 16 бит. Емкость ППЗУ типа К155РЕЗ равна Синф = 32 х 8 бит = 256 бит = 32 байта. Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.). Бит - двоичный знак двоичного алфавита {0, 1}. Бит- минимальная единица измерения информации. Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ. Байт - единица количества информации в системе СИ. (В 15(2) пойдёт СНАЧАЛА тоже самое, но более точно и далее продолжение вопроса) |
|
||
15 (2) В ЭВМ (компьютер) ИСПОЛЬЗУЮТСЯ 2 СИМВОЛА- НОЛЬ И ЕДИНИЦА (0 и 1), АНАЛОГИЧНО ТОМУ, КАК В АЗБУКЕ МОРЗЕ ИСПОЛЬЗУЮТСЯ ТОЧКА И ТИРЕ. ЭТО СВЯЗАНО С ТЕМ, ЧТО ИНФОРМАЦИЮ, ПРЕДСТАВЛЕННУЮ В ТАКОМ ВИДЕ, ЛЕГКО ТЕХНИЧЕСКИ СМОДЕЛИРОВАТЬ, НАПРИМЕР В ВИДЕ ЭЛЕКТРИЧЕСКИХ СИГНАЛОВ. Оперативная память состоит из очень большого числа триггеров- электронных схем, состоящих из двух транзисторов. Триггер может сколь угодно долго находиться в одном из двух состояний- когда один транзистор открыт, а другой закрыт, или наоборот. Одно состояние обозначается нулем, а другое единицей. (Транзи́стор— трёхэлектродный полупроводниковый электронный прибор). ОБЪЕМ ИНФОРМАЦИИ, НЕОБХОДИМЫЙ ДЛЯ ЗАПОМИНАНИЯ ОДНОГО ИЗ ДВУХ СИМВОЛОВ-0 ИЛИ 1, НАЗЫВАЕТСЯ 1 БИТ. |
Если у нас есть один бит, то с его помощью мы можем закодировать один из двух символов- либо 0, либо 1. Если же есть 2 бита, то из них можно составить один из четырех вариантов кодов: 00 , 01 , 10 , 11 . Если есть 3 бита- один из восьми: 000 , 001 , 010 , 100 , 110 , 101 , 011 , 111 . Закономерность очевидна: 1 бит- 2 варианта, 2 бита- 4 варианта, 3 бита- 8 вариантов. N бит - 2 в степени N вариантов. ДЛЯ КОДИРОВАНИЯ ОДНОГО ПРИВЫЧНОГО ЧЕЛОВЕКУ СИМВОЛА В ЭВМ ИСПОЛЬЗУЕТСЯ 8 БИТ, ЧТО ПОЗВОЛЯЕТ ЗАКОДИРОВАТЬ 256 РАЗЛИЧНЫХ СИМВОЛОВ. СТАНДАРТНЫЙ НАБОР ИЗ 256 СИМВОЛОВ НАЗЫВАЕТСЯ ASCII ( произносится "аски", означает "Американский Стандартный Код для Обмена Информацией"- англ. American Standart Code for Information Interchange). |
|
||
15 (2) КАЖДОМУ СИМВОЛУ ASCII СООТВЕТСТВУЕТ 8-БИТОВЫЙ ДВОИЧНЫЙ КОД, НАПРИМЕР: A - 01000001, B - 01000010, C - 01000011, D – 01000100. Таким образом, если человек создает текстовый файл и записывает его на диск, то на самом деле каждый введенный человеком символ хранится в памяти компьютера в виде набора из восьми нулей и единиц. При выводе этого текста на экран или на бумагу специальные схемы - знакогенераторы видеоадаптера (устройства, управляющего работой дисплея) или принтера образуют в соответствии с этими кодами изображения соответствующих символов. ОБЪЕМ ИНФОРМАЦИИ, НЕОБХОДИМЫЙ ДЛЯ ЗАПОМИНАНИЯ ОДНОГО СИМВОЛА ASCII НАЗЫВАЕТСЯ 1 БАЙТ. Очевидно что, поскольку под один стандартный ASCII-символ отводится 8 бит, |
1 БАЙТ = 8 БИТ. Остальные единицы объема информации являются производными от байта: 1 КИЛОБАЙТ = 1024 БАЙТА И СООТВЕТСТВУЕТ ПРИМЕРНО ПОЛОВИНЕ СТРАНИЦЫ ТЕКСТА, 1 МЕГАБАЙТ = 1024 КИЛОБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 500 СТРАНИЦАМ ТЕКСТА, 1 ГИГАБАЙТ = 1024 МЕГАБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 2 КОМПЛЕКТАМ ЭНЦИКЛОПЕДИИ, 1 ТЕРАБАЙТ = 1024 ГИГАБАЙТАМ И СООТВЕТСТВУЕТ ПРИМЕРНО 2000 КОМПЛЕКТАМ ЭНЦИКЛОПЕДИИ. СКОРОСТЬ ПЕРЕДАЧИ ИНФОРМАЦИИ ПО ЛИНИЯМ СВЯЗИ ИЗМЕРЯЕТСЯ В БОДАХ. 1 БОД = 1 БИТ/СЕК. В частности, если говорят, что пропускная способность какого-то устройства составляет 28 Килобод, то это значит, что с его помощью можно передать по линии связи около 28 тысяч нулей и единиц за одну секунду. |
|
||
1.Задача:Оцените период дискретизации непрерывного сигнала с частотным диапазоном 20-800 Гц, который позволяет полностью восстановить исходный сигнал. Дискретизация - это процесс перевода аналогового сигнала в дискретный сигнал. Процесс обратный этому, называется восстановление. Непрерывный аналоговый сигнал заменяется здесь последовательностью коротких импульсов – отсчётов, величина которых равна значению сигнала в данный момент времени. Возможность точного воспроизведения такого представления зависит от интервала времени между отсчётами δt. Согласно теореме Котельникова:
|
|
|
||
|
16. Экономичность систем счисления. Для оценки пригодности той или иной системы счисления в качестве основы для конструирования вычислительной машины имеет значение, кроме простоты осуществления арифметических операций в ней, также и то, что обычно называют экономичностью системы. Под этим понимается тот запас чисел, который можно записать в данной системе с помощью определенного количества знаков. Какая из систем счисления самая экономичная? В общем случае, если взять n знаков, а за основание системы счисления принять некоторое число x, то получится n/x разрядов, и количество чисел, которые при этом можно записать, будет равно xn/x . Рассмотрим это выражение как функцию переменной x, принимающей любые положительные значения. График функции y = xn/x изображен на рисунке: |
Под экономичностью системы счисления будем понимать то количество чисел, которое можно записать в данной системе с помощью определенного количества цифр. Речь в данном случае идет не о кол-ве разрядов, а об общем количестве сочетаний цифр, которые интерпретируются как различные числа. Поясним на примере: пусть в нашем распоряжении имеется12 цифр. |
||
|
16(2). Мы можем разбить их на 6 групп по 2 цифры ("0" и "1") и получить шестиразрядное двоичное число; общее количество таких чисел, как уже неоднократно обсуждалось, равно 26. Можно разбить заданное количество цифр на 4 группы по три цифры и воспользоваться троичной системой счисления – в этом случае общее количество различных их сочетаний составит 34. Аналогично можно произвести другие разбиения; при этом число групп определит разрядность числа, а количество цифр в группе – основание системы счисления. Наиболее экономичной оказывается троичная система счисления, причем, результат будет тем же, если исследовать случаи с другим исходным кол-вом цифр. Точное расположение максимума экономичности может быть установлено путем следующих рассуждений. |
Пусть имеется n знаков для записи чисел, а основание системы счисления p. Тогда количество разрядов числа k = n/p, а общее количество чисел (N), которые могут быть составлены, равно:
Если считать N(p) непрерывной функцией, то можно найти то значение pm, при котором N принимает максимальное значение. Для нахождения положения максимума нужно найти производную функции N(p), приравнять ее к нулю и решить полученное уравнение относительно p.
|
||
|
16(3). Приравнивая полученное выражение к нулю, получаем ln p = 1, или pm = e, где e=2,71828… – основание натурального логарифма. Ближайшее к e целое число, очевидно, 3 – по этой причине троичная система счисления оказывается самой экономичной для представления чисел. В 60-х годах в нашей стране была построена вычислительная машина "Сетунь", которая работала в троичной системе счисления. Предпочтение все же отдается двоичной системе, поскольку по экономичности она оказывается второй за троичной, а технически она реализуется гораздо проще остальных. Таким образом, простота технических решений оказывается не единственным аргументом в пользу применения двоичной системы в компьютерах. |
|
17. Способы представления и кодирования информации в ЭВМ, единицы измерения информации. Материал из инета: В ЭВМ информация кодируется числовыми кодами. Если система счисления имеет основание m, то числу разрядов n соответствует разное количество N комбинаций цифр (N=mn). Если m=2, n=4, то N=24=16: 0000, 0001, 0010, 0011 ..., 1111, то есть в 4 разрядах может быть записано I=log2 16=4 бит. При представлении информации в виде последовательности символов 0 и 1, раскодирование возможно при наличии соглашения о фиксированной длине последовательностей из 0 и 1, составляющих слово. Такой длиной принято считать восемь символов (0 и 1) -- 8 бит или байт. Более крупные единицы: 1 Кбайт = 1024 байта=210 байт, 1 Мбайт=1024 Кбайта=220 байт, 1 Гбайт=1024 Мбайта=230 байт, |
В восьми разрядах (байте) можно записать 256 различных целых двоичных чисел, что достаточно, чтобы дать неповторяющееся обозначение каждой заглавной и строчной букве русского и английского алфавитов, цифрам, знакам препинания, всем символам на клавиатуре компьютера. Таблица кодирования символов 8-битовыми числами называется кодовой таблицей символов ASCII (American Standart Code for Information Interchange). Материал из книги: Способы кодирования информации: символьный, лингвистический, табличный, графический. Любой способ кодирования характеризуется наличием основы (алфавит, тезаурус, спектр цветности, система координат, основание системы счисления) и правил конструирования информационных образов на этой основе. |
17(2). Коды, использующие два различных элементарных сигнала, называются двоичными. Если отвлечься от физической природы сигналов, удобно обозначать их символами 0 и 1. Тогда кодовые слова можно представлять как последовательность из нулей и единиц. Существует множество кодов: двоичный код обмена информации ДКОИ, восьмеричный код обмена информацией КОИ-8, в современных персональных компьютерах информация представляется в коде ASCII (American Standard Code for Information Interchange) – американский стандартный код для обмена информацией. В России исп-ся так наз. альтернативная ASCII кодировка, содержащая символы русского алфавита. При вводе информации в компьютер каждый символ-буква русского или латинского алфавита, цифра, знак пунктуации или действия кодируется определённой последовательностью из 8ми двоичных |
цифр в соответствии с таблицей кодирования. Комбинация из 8 бит называется байтом, или слогом. Вероятностный подход к определению кол-ва информации: Количественный подход – наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв – фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна – имеет в точности одинаковое количество информации. Оценка кол-ва информации основывается на законах теории вероятностей, точнее, определяется через вероятность событий. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиб. Распростр-ым двоичным способом её кодирования при передаче и обработке. |
17(3). Известно, что кол-во информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят учёные, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна ½. Такова вероятность выпадения орла или решки при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. следует отметить, что сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика – напр., 4/5. вероятность ничьей намного меньше, напр., 3/20. вероятность же поражения совсем мала. Количество информации – это мера уменьшения неопределённости некоторой ситуации. |
Различные кол-ва информации передаются по каналам связи, и кол-во проходящей информации не может быть больше его пропускной способности. Её определяют по кол-ву информации за единицу времени. Единицы измерения информации: В наст. время наиб. известны след-е способы измерения информации: объёмный, энтропийный, алгоритмический. Объёмный способ является простым и грубым способом измерения информации. Соответствующую количест-венную оценку информации естественно назвать объёмом информации. Объём информации в сообщении – это кол-во символов в сообщении. Т.к., например, одно и то же число может быть записано разными способами (с использованием разных алфавитов), то этот способ чувствителен к форме представления(записи) сообщения. |
17(4). В вычислительной технике обрабатываемая и хранимая информация вне зависимости от её природы (число, текст, отображение) представлена в двоичной системе (с использованием алфавита, состоящего всего из двух символов – 0 и 1). Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Байт – это 8 бит. В теории информации и кодирования принят энтропийный подход к измерению информации. Этот способ исходит из следующей модели. Получатель информации (сообщения) имеет определённые представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённости (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. |
Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения. Алгоритмический метод оценки информации в сообщении – заключается в том, что любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет её произвести. Сущ-ет много разных вычислительных машин и разных языков программирования (разных способов задания алгоритма), и поэтому для определённости задаются некоторой конкретной вычислительной машиной. Предполагаемая количественная характеристика – сложность слова (сообщения) определяется как минимальное число внутренних состояний вычислительной машины, требующихся для его воспроизведения. |
17(5). Из Википедии: Бит – является основой исчисления информации в цифровой технике. Следующей по порядку популярной единицей информации является 8 бит, или байт. Именно к байту (а не к биту) непосредственно приводятся все большие объёмы информации, исчисляемые в компьютерных технологиях. Для измерения больших количеств байтов служат единицы «килобайт» = 1024 байт. Единицы «мегабайт» = 1024 Кбайт = 1048576 байт применяются для измерения объёмов носителей информации. Единицы «гигабайт» = 1024 Мбайт = 230 байт измеряют объём больших носителей информации, например жёстких дисков.
|
|