Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Контрольная работа зо.doc
Скачиваний:
105
Добавлен:
01.04.2015
Размер:
1.43 Mб
Скачать

10 Вариант

ЗАДАНИЕ 1.1. Сколько информации несет сообщение о том, что было угадано число в диапазоне целых чисел от 684 до 811?

ЗАДАНИЕ 1.2. В корзине лежат шары (белые и чёрные). Среди них – 4 белых. Сообщение о том, что достали белый шар, несёт 3 бита информации. Сколько всего шаров было в корзине?

ЗАДАНИЕ 1.3. Дан текст из 600 символов. Известно, что символы берутся из таблицы размером 16 на 32. Определите информационный объем текста в битах.

ЗАДАНИЕ 1.4. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в используемом алфавите, если всё сообщение содержит 1125 байтов?

ЗАДАНИЕ 1.5. После преобразования графического изображения количество цветов увеличилось с 256 до 65536. Во сколько раз увеличился объем занимаемой памяти?

ЗАДАНИЕ 1.6. Переведите числа из одной системы счисления в другую:

а) 100101111,012 → Х10

б) 4757,28 → Х10

в) 324,510 → Х2

ЗАДАНИЕ 1.7. Выполните действия в двоичной системе счисления: X + Y, X – Y, если:

X = 100111102, Y = 10111012

ЗАДАНИЕ 1.8. Выполните действия в двоичной системе счисления: X * Y, X / Y, если:

X = 1101112, Y = 10112

ЗАДАНИЕ 1.9. Запишите прямой, дополнительный и обратный коды числа:

а) +1710; б) -8810;

ЗАДАНИЕ 1.10. Составьте таблицы истинности и постройте логические схемы для следующих логических выражений:

а) F= .

б) F= (X ) Z.

Указания к выполнению заданий (теоретические сведения).

Количество информации

В вычислительной технике в качестве единицы информации условились принять один бит(англ.bitbinary,digit– двоичная цифра).

Битв теории информации – количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую «порцию» памяти, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равнаявосьми битам. Широко используются также ещёболее крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Количеством информацииназывают ее числовую характеристику, отражающую ту степень неопределенности, которая исчезает после получения информации. Для оценки и измерения количества информации в сообщении применяются различные меры – синтаксическая, семантическая и прагматическая. При рассмотрении синтаксической меры информации выделяют два подхода –субъективный (статистический, вероятностный) и объективный (алфавитный).

Статистический подход. Для количественной оценки неопределенности или энтропииНХартли Р. предложил формулу, содержащую логарифм от числа равновероятных возможностейN

I = log2N, (1)

которую можно записать в следующем виде:

2I=N, (2)

где I– количество информации или информативность события (в битах);

N– число равновероятных событий (число возможных выборов).

Минимальной единицей количества информации, именуемой битом, будет выбор из двух возможностей.

Пример 1.При бросании монеты выбор одного результата (например, выпадения орла) несет один бит информации, поскольку количество возможных равновероятных результатовN= 2 (орел или решка). Действительно, подставляяN= 2 в формулу (1), получимI= 1 бит.

Пример 2.Какой объем информации содержит сообщение, уменьшающее неопределенность в 4 раза?

Решение: так как неопределенность знаний уменьшается в 4 раза, следовательно, она была равна 4, т.е. существовало 4 равновероятных события. Сообщение о том, что произошло одно из них, несет 2 бита информации (4 = 22).

Ответ: 2 бита.

При не равновероятной возможности выбора количество информации, зависящей от индивидуальной вероятности i – го выбора, вычисляется по формуле К. Шеннона:

(3)

P – вероятностьi-го выбора (отдельного события) рассчитывается:

, (4)

где n– число нужных событий, N– общее число событий

Если необходимо вычислить количество информации для всех событий с различными вероятностями (среднее значение количества информации), используют формулу:

Легко заметить, что если вероятности P1, ..., PNравны, то каждая из них равна1/N, и формула Шеннона превращается в формулу Хартли.

Пример 3. В корзине лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?

Дано: N, = 8; Nб= 24.

Найти: Iч = ?

Решение:

  1. N = 8 + 24 = 32 – шара всего;

  2. – вероятность доставания черного шара; 3.

Ответ: 2 бита.

Алфавитный подход позволяет определить количество текстовой информации. Количество информации, которое несёт каждый символ вычисляется по формуле

, (5)

где M – мощность алфавита, равная количеству символов в нем.

Текст, содержащий К символов, имеет объем информации, равный:

(6)

где I – информационный вес (в битах) одного символа алфавита.

Пример 4. В 2-символьном алфавите каждый символ несет 1 бит информации (M = 2, , тогда = 1 бит).

Пример 5. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

1/512 Мб=0,001953125 * 1024*1024*8=16384 бит

I=16384/2048=8 бит

M=2I= 28=256 символов