Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы мелко.doc
Скачиваний:
27
Добавлен:
04.08.2019
Размер:
640 Кб
Скачать
  1. Внутреннее (машинное) представление чисел (целых и вещественных).

Целые числа могут представляться в компьютере со знаком или без знака.

Целые числа без знака обычно занимают в памяти один или два байта и принимают в однобайтовом формате значения от 000000002 до 111111112, а в двубайтовом формате - от

00000000 000000002 до 11111111 111111112.

Система вещественных чисел в математических вычислениях предполагается непрерывной и бесконечной, т. е. не имеющей ограничений на диапазон и точность представления чисел. Однако в компьютерах числа хранятся в регистрах и ячейках памяти с ограниченным количеством разрядов. Вследствие этого система вещественных чисел, представимых в машине, является дискретной и конечной.

При написании вещественных чисел в программах вместо привычной запятой принято ставить точку.

Для отображения вещественных чисел, которые могут быть как очень маленькими, так и очень большими, используется форма записи чисел с порядком основания системы счисления.

Любое число N в системе счисления с основанием q можно записать в | виде N = М * qp, где М -- множитель, содержащий все цифры числа (мантисса), а р -- целое число, называемое порядком. Такой способ записи чисел называется представлением числа с плавающей точкой.

Если плавающая точка расположена в мантиссе перед первой значащей цифрой, то при фиксированном количестве разрядов, отведенных под мантиссу, обеспечивается запись максимального количества значащих цифр числа, т. е, максимальная точность представления числа в машине. Из этого следует, что мантисса должна быть правильной дробью, у которой первая цифра после точки (запятой в обычной записи) отлична от нуля: 0.12 < М < 1. Если это требование выполнено, то число называется нормализованным. Мантиссу и порядок q-ичного числа принято записывать в системе с основанием q, а само основание - в десятичной системе. I

  1. Кодирование текста. Особенности стандарта ascii и стандарта Unicode. Форматы текстовых файлов.

Символьные данные, которые несут в себе текстовую информацию, попадают в компьютер наиболее простым из всех известных способов: после нажатия клавиш на клавиатуре генерируется один байт данных, который записывается в память компьютера. Каждой клавише компьютера соответствует определенное сочетание битов в байте. Поскольку битов в байте 8, то общее количество сочетаний, которое может быть получено в результате различных комбинаций нулей и единиц внутри байта равно 256 (28). Любая комбинация из битов в байте может рассматриваться как число, записанное в двоичном коде. Соответствие числа, которое при нажатии клавиши записывается в память компьютера, и символа, который появляется на экране при воспроизведении данного числа в символьном виде, называется кодовой таблицей. В начале казалось, что для кодирования символов при помощи чисел с избытком хватит 127 байт. Первое по порядку 31 десятичное число было отдано под служебные символы (перевод строки, перевод каретки, звонок, пустой символ). Следующие по порядку числа (от 32 до 127) кодировали символы алфавита. Этой таблицы символов вполне хватило для ввода символьной информации на английском языке, и она стала стандартом ASCII (American Standard Code for Information Interchange) – американский стандартный код для обмена информацией. Наличие нескольких кодовых таблиц для одного и того же языка является причиной появления на интернет - страницах потоков странных иероглифов вместо обычного текста, также на одной странице могут встретиться фрагменты, написанные на разных языках. Для решения этой проблемы способ кодирования еще раз изменили – один символ стали кодировать, не одним, а двумя байтами данных. Так появился способ кодирования UNICODE. Теперь в одном байте можно было хранить код символа, а в другом указывать, из какой кодовой таблицы этот символ извлекать. Таким образом, текстовая информация в компьютере может быть представлена как однобайтной последовательностью, когда каждый символ кодируется одним байтом в памяти компьютера, так и двухбайтной, требующей вдвое больше памяти для хранения, но зато более универсальной и гибкой.