Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика (Ответы).docx
Скачиваний:
13
Добавлен:
02.08.2019
Размер:
266.34 Кб
Скачать

Билет №16

  1. Системы функций алгебры логики. Теорема Поста-Яблонского.

  1. Представление звуковой информации в памяти ЭВМ.

1) Теорема о функциональной полноте или теорема Пост - Яблонского в кратком виде выглядит так:

Для того, чтобы система булевых функций была функционально полной необходимо и достаточно чтобы она содержала хотя бы одну функцию не:

  1. сохраняющую константу ноль

  2. сохраняющую константу единица

  3. линейную функцию

  4. монотонную функцию

  5. самодвойственную функцию.

2) Звук представляет собой распространяющуюся в воздухе, воде или другой среде волну с непрерывно меняющейся интенсивностью и частотой.

Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть преобразован в цифровую дискретную форму с помощью временной дискретизации. Непрерывная звуковая волна разбивается на отдельные маленькие временные участки, для каждого такого участка устанавливается определенная величина интенсивности звука. Такой процесс называется оцифровкой звука.

Частота дискретизации. Для записи аналогового звука и его преобразования в цифровую форму используется микрофон, подключенный к звуковой плате. Качество полученного звука зависит от количества измерений уровня громкости звука в единицу времени, т.е. частоты дискретизации. Чем большее количество измерений производится за 1 секунду, тем выше качество записанного звука.

Частота дискретизации звука – это количество измерений громкости звука за одну секунду.

Одно измерение в секунду соответствует частоте 1Гц, 1000 измерений в секунду – 1 кГц.

Частота дискретизации звука может лежать в диапазоне от 8000 до 48000 измерений громкости звука за одну секунду.

Глубина кодирования звука. В каждый момент времени разный уровень громкости звука. Каждая звуковая карта характеризуется количеством распознаваемых уровней громкости звука.

Глубина кодирования звука – это количество информации, которое необходимо для кодирования уровней громкости цифрового звука.

Если известна глубина кодирования, то количество уровней громкости цифрового звука можно рассчитать. Пусть глубина кодирования звука составляет 16 бит, тогда количество уровней громкости звука равно: N = 216 = 65536.

Очевидно, что 16-битные звуковые карты точнее кодируют и воспроизводят звук, чем 8-битные.

Качество звука в дискретной форме может быть очень плохим (при 8 битах и 5,5 кГц) и очень высоким (при 16 битах и 48 КГц).

Билет №17

  1. Минимизация логических функций в базисе Жегалкина.

  1. Коды Хемминга.

1) Множество булевых функций, заданных в базисе Жегалкина {?,&,1} называется алгеброй Жегалкина.

Основные свойства.

  1. коммутативность x1⊕x2=x2⊕x1

x1&x2=x2&x1

  1. ассоциативность

x1⊕(x2⊕x3)=(x1⊕x2)⊕x3 x1&(x2&x3)=(x1&x2)&x3

  1. дистрибутивность x1&(x2⊕x3)=(x1&x2)⊕(x1&x3)

  2. свойства констант

Через операции алгебры Жегалкина можно выразить все другие булевы функции:

2) Коды Хэмминга — наиболее известные и, вероятно, первые из самоконтролирующихся и самокорректирующихся кодов. Построены они применительно к двоичной системе счисления.

Коды, предложенные Р. Хэммингом, обладают способностью обнаружить и исправить одиночные ошибки.

Предположим, что имеется код, содержащий m информационных разрядов и k контрольных разрядов. Запись на k позиций определяется при проверке на четность каждой из проверяемых k групп информационных символов. Пусть было проведено k проверок. Если результат проверки свидетельствует об отсутствии ошибок, запишем 0, если есть ошибка - 1. Запись полученной последовательности символов образует двоичное число.

Свойство кодов Хэмминга таково, что контрольное число указывает номер позиции, где произошла ошибка. При отсутствии ошибки в коде данная последовательность будет содержать только нули. Полученное число описывает таким образом n=(m+k+1) событий. Следовательно, справедливо неравенство

2k>=(m+k+1)

Примеры кодирования информации по коду Хемминга для семиразрадного кода:

Разряды двоичного числа

Кодируемая десятичная информация

1 k1

2 k2

3 m1

4 k3

5 m2

6 m3

7 m4

0

0

0

0

0

0

0

0

1

1

0

1

0

0

1

1

0

1

0

1

0

1

0

2

1

0

0

0

0

1

1

3

1

0

0

1

1

0

0

4

0

1

0

0

1

0

1

5

1

1

0

0

1

1

0

6

0

0

0

1

1

1

1

7

1

1

1

0

0

0

0

8

0

0

1

1

0

0

1

9

1

0

1

1

0

1

0

10

0

1

1

0

0

1

1

11

0

1

1

1

1

0

0

12

1

0

1

0

1

0

1

13

0

0

1

0

1

1

0

14

1

1

1

1

1

1

1

15

Как видно из таблицы, n=7, m=4, k=3 и контрольнми будут разряды 1, 2, 4.

Введем, например, одиночную ошибку в код числа 5 - 0100101(2). Пусть после такой ошибки код стал 0110101. Подсчитываем суммы по модулю групп цифр и выписываем справа налево: 0011. Получилось ненулевое число, равное номеру позици, в которой возникла ошибка.

По методу Хэмминга могут быть построены коды разной длины. Чем больше длина кода, тем меньше относительная избыточность. Например, для контроля 48-разрядного числа, потребуется только шесть дополнительных (контрольных) разрядов. Коды Хэмминга используют в основном для контроля передачи информации по каналам связи.

Билет №18

  1. Минимизация функций в базисах Шеффера и Пирса.

  1. Внешние устройства ПК.

1) Методы минимизации: Преобразование логических функций с целью упрощения

их аналитического представления называются минимизацией (Подробнее в учебнике стр. 245)

2) Устройства ввода-вывода информации: Клавиатура, Мышь, Сканер, Модем и факс-модем, Монитор, Принтер, Плоттер, CD-ROM, DVD-ROM, WORM-устройства.

Запоминающие устройства: Накопители на дискетах. Накопители на жестких дисках. Аудио. И рассказать про них понемногу.

Билет №19

  1. Минимизация логических функций в импликативном базисе.

  1. Количество информации. Единицы измерения информации.

1) ???

2) Количество информации - в теории информации -

- мера информации, сообщаемой появлением события определенной вероятности; или

- мера оценки информации, содержащейся в сообщении; или

- мера, характеризующая уменьшение неопределенности, содержащейся в одной случайной величине относительно другой.

Единица измерения: Единицы измерения информации служат для измерения объёма информации — величины, исчисляемой логарифмически.[1] Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается.

Байт (англ. byte) — единица хранения и обработки цифровой информации. В современных вычислительных системах байт считается равным восьми битам, в этом случае он может принимать одно из 256 (28) различных значений. Однако в истории компьютеров известны решения с другим размером байта, например 6 бит