Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Билеты ОИТ.docx
Скачиваний:
214
Добавлен:
26.03.2015
Размер:
807.27 Кб
Скачать

9. Особенности двоичных систем передачи информации

Дост-ва двоичной системы счисления: простота реализ-и проц-в хран-я, передачи и обработки инф. на ПК, для ее реализ-и нужны эл-ты с 2мя возможными сост-ми, а не с десятью, предст-е инф-и посредством только 2х сост-й надежно и помехоуст-во, возм-сть прим-я алгебры логики для вып-ния логич-х преобр-й.

Недостатки двоичной системы счисления: код числа - послед-сть из 0 и 1. Большие числа занимают дост-но бол-е число разрядов. Быстрый рост числа разрядов – самый существенный недостаток двоичной системы счисления.

Таблица сложения

Пример сложения «столбиком» (14 + 5 = 19):

Таблица умножения

Пример умножения «столбиком» (14 × 5 = 70):

Для преобр-я из двоичной системы в десятичную исп-т следующую таблицу степеней основания 2:

512 256 128 64 32 16 8 4 2 1

Преобр-е двоичных чисел в десятичные: дано двоичное число 110001. Для перевода в десятичное запишите его справа налево как сумму по разрядам:

Преобр-е десятичных чисел в двоичные: нужно перевести число 19 в двоичное:

19 /2 = 9 с остатком 1

9 /2 = 4 c остатком 1

4 /2 = 2 с остатком 0

2 /2 = 1 с остатком 0

1 /2 = 0 с остатком 1

Делим каждое частное на 2 и запис-м остаток в конец двоичной записи. Прод-м деление до тех пор, пока в делимом не будет 0. В рез-те получаем число 19 в двоичной записи: 10011.

Преобр-е дробных двоичных чисел в десятичные: нужно перевести число 1011010.101 в десятичную систему:

Преобр-е дробных десятичных чисел в двоичные: * Вначале переводится целая часть десятичной дроби в двоичную систему счисления; * Затем дробная часть десятичной дроби умнож-ся на основ-е двоичной системы счисления; * В получ-м произвед-и выд-ся целая часть, кот-я приним-ся в кач-ве знач-я 1-го после запятой разряда числа в двоичной системе счисления; * Алгоритм заверш-ся, если дробная часть получ-го произвед-я = 0 или если достигнута требуемая точ-сть вычисл-й. В противном случае вычисления продолжаются с предыдущего шага.

Пример: Требуется перевести дробное десятичное число 206,116 в дробное двоичное число. Перевод целой части дает 20610=110011102 по ранее опис-м алг-мам; дроб-ю часть умнож-м на основ-е 2, занося целые части произв-я в разряды после запятой искомого дробного двоичного числа:

.116 • 2 = 0.232 .232 • 2 = 0.464 .464 • 2 = 0.928

.928 • 2 = 1.856 .856 • 2 = 1.712 .712 • 2 = 1.424

.424 • 2 = 0.848 .848 • 2 = 1.696 .696 • 2 = 1.392

.392 • 2 = 0.784 и т.д.

Получим: 206,11610=11001110,00011101102

Двоичная система исп-ся в цифр-х ус-вах, поскольку является наиболее простой и соотв-т требованиям: Чем меньше значений сущ-т в системе, тем проще изготовить отд-е элементы, оперирующие этими знач-ми. В частности, две цифры двоичной системы счисления м.б. легко предст-ны многими физ-ми явл-ми: есть ток (ток больше пороговой в-ны) – нет тока (ток меньше пороговой в-ны), индукция магн-го поля больше пороговой в-ны или нет (индукция магнитного поля меньше пороговой величины) и т. д.

Чем меньше кол-во сост-й у элемента, тем выше помехоуст-сть и тем быстрее он может работать. Двоичная арифметика является довольно простой. Простыми являются таблицы сложения и умножения — основных действий над числами.

10. Количество информации (а/в)

Кол-во инф-и I в произв-м сообщ-и XK, где К – число символов в сообщ.:

Кодироска ASCII – American Standard Code for Information Interchallenge.

Инф-я в машинных кодах обладает избыточ-стью.

Пусть дан перечень сообщ-й с указ-м вер-сти появл-я каждого из них. При этом суммарная вер-сть всех сообщ-й д.б. = 1. Не указ-ся конкретное число сообщ-й, т.к. оно не имеет особого знач-я. Указ-ся только порядковые номера сообщ-й.

Верхняя строка сод-т номера поступающих сообщ-й, нижняя – вер-сти их появл-я. Кол-во информации, которое содержится в i-м сообщении равно:

, т.е. чем менее вероятно сообщ-е тем больше инф-и оно сод-т. Т.о., от частной ситуации равной вер-сти сообщ-й, рассм-й Хартли, Шеннон перешел к общему случаю. Кол-во инф-ции, кот-е сод-т в среднем 1 сообщение можно рассм-ть как мат-е ожид-е Получ-е выр-е наз-ся энтропией ист-ка:–среднее кол-во инф-и в 1м сообщении. Если в ист-ке есть мн-во сообщ-й, точно знать о каждом из них необяз-но. В этом заключ-ся преим-во ср-го знач-я кол-ва инф-и. Каждое сообщ-е передается n сигналами, каждый из кот-х может принимать K значений. Пусть в сигнале, кот-м передается i-е сообщение, содержится элементарных сигналов со знач-м j. Тогда можно утв-ть, что знач-е сигнала j встретится в канале связи с вер-стью: Символ j появится раз в i-м сообщ-и только в том случае, если появится само сообщ-е; так получ-ся произвед-е. По Хартли инф-ная емкость сигнала зав-т от n и K:

где 1/K – вер-сть появл-я любого сообщ-я из возм-х.

Шеннон оценил ср-е знач-е кол-ва инф-и:

где HC – энтропия 1го эле-мент-го сигнала, кот-й им-т K раб-х знач-й разной вер-сти.

Количество инф-и - меру уменьшения неопределенностии (=энтропии) знания при получении информационных сообщений.

Подход к инф-и как мере уменьшения неопределенности знания (=энтропии) позволяет количественно измерять инф-ю.

За единицу количества инф-и принимается такое количество инф-и, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом (BInary digiT). Производной от бита единицей измерения количества инф-и является байт, причем 1 байт = 8 битов.

В компьютере инф-я кодируется с помощью двоичной знаковой системы, поэтому в кратных единицах измерения количества инф-и используется коэффициент 2n.

Кратные байту единицы измерения количества инф-и:

1 килобайт (Кбайт) = 210 байт = 1024 байт ≈ 103 байт;

1 мегабайт (Мбайт) = 220 байт ≈ 106 байт;

1 гигабайт (Гбайт) = 230 байт ≈ 109 байт.

Для исчисления ещё больших объёмов инфи имеются единицы терабайт (240 байт) и петабайт (250 байт).

При алфавитном подходе к определению количества инф-и информационное сообщение рассм-ют как последовательность знаков определенной знаковой системы.

Формула N = 2К связывает между собой количество возможных информационных сообщений N и количество бит инф-и К, которое несет полученное сообщение.

Чем большее количество знаков содержит алфавит, тем большее количество инф-и несет один знак. Тогда в рассматриваемой ситуации N — это количество знаков в алфавите знаковой системы, а К — количество бит инф-и, которое несет каждый знак.

Пример: определим количество инф-и, которое несет 1 буква русского алфавита. В русский алфавит входят 33 буквы, но на практике часто для передачи сообщений используются 32 буквы (исключается "ё").

С помощью формулы N = 2К определим количество инф-и, которое несет буква русского алфавита: N = 32 => 32 = 2К => 25 = 2К => К=5 битов.

Таким образом, буква русского алфавита несет 5 битов инф-и.

Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество инф-и. Если знаки несут одинаковое количество инф-и, то количество инф-и Кc в сообщении можно подсчитать, умножив количество инф-и Кзн, которое несет один знак, на длину кода (количество знаков в сообщении) N:

Кc = Кзн × N