- •Вопрос №1 Создание и эволюция эвм. Нулевое поколение.
- •Вопрос №2 Создание и эволюция эвм. Первое поколение (1940-1950-е годы).
- •Вопрос №3 Создание и эволюция эвм. Второе поколение (1950-1960-е годы).
- •Вопрос №4 Создание и эволюция эвм. Третье поколение (1960- сер. 1970 годов).
- •Вопрос №5 Создание и эволюция эвм. Четвёртое поколение (1975-1990).
- •Вопрос №6 Создание и эволюция эвм. Пятое поколение.
- •Вопрос №7 Основные классы современных эвм. Классификация эвм по принципу действия, по назначению.
- •Вопрос №8 Основные классы современных эвм. Классификация эвм по размерам и вычислительной мощности.
- •Вопрос №9 Понятие архитектуры эвм. Структурная схема современного компьютера.
- •Вопрос №10 Классическая архитектура эвм и принципы фон Неймана.
- •Вопрос №11 Дополнительные интегральные микросхемы: контроллер прямого доступа, контроллер прерываний, математический сопроцессор.
- •Контроллер прямого доступа к памяти (dmac)
- •Контроллер прерываний
- •Математический сопроцессор
- •Вопрос №12 Функциональные характеристики эвм
- •Вопрос №13 Внешние устройства: классификация, краткая характеристика.
- •Манипуляторы
- •Принтеры, плоттеры
- •Вопрос № 14. Внешняя память персонального компьютера: оптические диски (cd-rom, cd-r, cd-rw)
- •Вопрос № 15. Внешняя память персонального компьютера: оптические диски (dvd, Blu- Ray)
- •Вопрос № 16. Внешняя память персонального компьютера: мобильные запоминающие устройства
- •2. Скорость записи/чтения
- •3. Надежность хранения данных
- •4. Дизайн
- •5. Функции защиты информации
- •6. Цена
- •Вопрос №17 Устройства ввода информации (клавиатура, сканер, дигитайзер, манипуляторы).
- •Вопрос №18 Устройства вывода информации (монитор, принтер, плоттер).
- •Монитор
- •Принтеры, плоттеры
- •Вопрос №19 Понятие «информация». Меры информации.
- •Вопрос №20 Представление символьной информации в эвм. Стандартные коды.
- •Вопрос №21 Кодирование графической информации
- •Вопрос №22
- •Вопрос №23 Понятие о системах счисления. Системы счисления, применяемые в эвм.
- •Вопрос №24 Системы счисления: алгоритм перевода целых и дробных чисел из 10-ой системы счисления в 2-ую, 8-ую, 16-ую и обратно.
- •1. Понятие о системах счисления.
- •Вопрос №25 Арифметические операции в позиционных системах счисления.
- •Вопрос №26 Алгебраическое представление двоичных чисел (прямой, обратный и дополнительный код числа).
- •Вопрос №27 Представление чисел в форме с фиксированной и плавающей запятой. Арифметические операции над числами с фиксированной и плавающей запятой.
- •Вопрос №28 Арифметические основы построения эвм.
- •1. Представление информации в компьютере
- •2. Системы счисления
- •3. Перевод числа из одной системы счисление в другую
- •4. Арифметические операции в позиционных системах счисления
- •Вопрос №29 Логические основы построения эвм. Аксиомы, тождества и основные законы алгебры логики
- •Логический синтез вычислительных схем
- •Вопрос №30 Законы и соотношения алгебры логики. Формула де Моргана
- •1. Закон одинарных элементов
- •2. Законы отрицания
- •3. Комбинационные законы.
- •4. Правило поглощения (одна переменная поглощает другие)
- •5. Правило склеивания (выполняется только по одной переменной)
- •Закон де моргана
- •Вопрос №31 Логический синтез вычислительных схем.
- •Вопрос №32 Система элементов эвм. Электронные технологии и элементы, применяемые в эвм
- •Система логических элементов
- •Вопрос №33 Триггеры как элементы памяти эвм: основные типы и их реализация на основе логических элементов.
- •Вопрос №34 Регистры эвм: назначение, классификация и схемная реализация.
- •Вопрос №35 Счетчики эвм: назначение, логика работы.
- •Вопрос №36 Узлы как структурная единица эвм, их типы.
- •2. Оперативная память (озу)
- •3. Постянное запоминающее устройство (пзу)
- •4. Внешняя память
- •5. Устройства ввода
- •6.Устройства вывода.
- •7. Информационная шина (магистраль)
- •8. Некоторые подробности
- •В принципе возможна !!!
- •В принципе возможна !
- •Вопрос №37 Назначение сумматора. Последовательные и параллельные сумматоры: принципы их функционирования.
- •Вопрос №38 Шифраторы, дешифраторы: назначение, виды, уго этих узлов.
- •Вопрос №39 Мультиплексоры, демультиплексоры: назначение, виды, уго этих узлов.
- •Вопрос №40 Общие сведения о запоминающих устройствах
- •Классификация зу:
- •Вопрос №41 Многоуровневая организация памяти эвм (мпп, оп, взу, кэш-память)
- •Вопрос №42 Назначение оперативных запоминающих устройств.
- •Вопрос №43 Статические и динамические озу. Виды модулей dram.
- •Вопрос №44 Общая характеристика постоянной памяти. Принцип работы пзу.
- •Вопрос №45 Основные типы пзу
- •Вопрос №46 Назначение и структура микропроцессора. Устройство мп
- •Вопрос №47 Основные блоки микропроцессора
- •Вопрос №48 Выполнение команд в микропроцессоре. Система команд мп, форматы команд, способы адресации.
- •Вопрос №49 Системы risc и cisc.
- •Вопрос №50 Назначение микропрограммного устройства управления.
- •Вопрос №51 Назначение и структура арифметико-логического устройства.
- •Вопрос №52 Классификация алу. Выполнение операций сложения (вычитания) и умножения в алу. Классификация алу:
- •Алгоритмы сложения (вычитания) и умножения в алу
- •Вопрос №53 Обеспечение достоверности информации.
- •Классификация методов контроля достоверности
- •Методы контроля достоверности
- •Вопрос №54 Понятие о кодировании и коде.
- •Вопрос №55 Понятие избыточности кода. Минимальное кодовое расстояние.
- •Вопрос №56 Код с проверкой по четности/нечетности. Коды с постоянным весом. Циклические коды. Код с проверкой по четности/нечетности
- •Коды с постоянным весом
- •Циклические коды
- •Вопрос №57 Корректирующая способность кода.
- •Вопрос №58 Контроль передачи информации с помощью кода Хемминга
- •Вопрос №59 Коды Рида-Соломона. Код Хаффмана. Оптимальное кодирование Шеннона-Фано Коды Рида-Соломона
- •Идея кодов Рида-Соломона
- •Ошибки в символах
- •Преимущество кодирования
- •Архитектура кодирования и декодирования кодов Рида-Соломона
- •Арифметика конечного поля Галуа
- •Алгоритм Хаффмана
- •Адаптивное сжатие
- •Переполнение
- •Масштабирование весов узлов дерева Хаффмана
- •Алгоритм Шеннона — Фано
- •Основные сведения
- •Алгоритм вычисления кодов Шеннона — Фано
- •Вопрос №60 Современное состояние и перспективы развития элементной базы и средств вычислительной техники.
Ошибки в символах
Одна ошибка в символе происходит, когда 1 бит символа оказывается неверным или когда все биты не верны.
Код RS(255,223) может исправить до 16 ошибок в символах. В худшем случае, могут иметь место 16 битовых ошибок в разных символах (байтах). В лучшем случае, корректируются 16 полностью неверных байт, при этом исправляется 16x8=128 битовых ошибок.
Коды Рида-Соломона особенно хорошо подходят для корректировки кластеров ошибок (когда неверными оказываются большие группы бит кодового слова, следующие подряд).
Преимущество кодирования
Преимущество использования кодов Рида-Соломона заключается в том, что вероятность сохранения ошибок в декодированных данных обычно много меньше, чем вероятность ошибок, если коды Рида-Соломона не используются. Это часто называется выигрышем кодирования.
Пример: Пусть имеется цифровая телекоммуникационная система, работающая с BER (Bit Error Ratio) равной 10-9, т.е. не более 1 из 109 бит передается с ошибкой. Такого результата можно достичь путем увеличения мощности передатчика или применением кодов Рида-Соломона (или другого типа коррекции ошибок). Алгоритм Рида-Соломона позволяет системе достичь требуемого уровня BER с более низкой выходной мощностью передатчика.
Архитектура кодирования и декодирования кодов Рида-Соломона
Кодирование и декодирование Рида-Соломона может быть выполнено аппаратно или программно. Программная реализация корректирующих кодов Рида-Соломона очень сложна и требует определенной математической подготовки.
Арифметика конечного поля Галуа
Коды Рида-Соломона базируются на специальном разделе математики – полях Галуа (GF) или конечных полях. Полем называется множество, на котором заданы операции сложения и умножения, причём выполняются групповые аксиомы.
Говоря обычным языком, для любых элементов должны выполняться равенства a+b = b+a и a*b = b*a. И должен существовать такой элемент е, принадлежащий нашему множеству (полю), что для всех элементов множества a выполняется a = a+e, и такой элемент u, что a = a*u. Для обычного сложения e=0, а u=1.
Однако, умножение и сложение, которые определены для полей, могут не иметь ничего общего с обычным сложением или умножением (кроме выполнения вышеупомянутых законов).
Алгоритм Хаффмана
Алгоритм Хаффмана — адаптивный алгоритм оптимального префиксного кодирования алфавита с минимальной избыточностью. Был разработан в 1952 году аспирантом Массачусетского технологического института Дэвидом Хаффманом при написании им курсовой работы. В настоящее время используется во многих программах сжатия данных.
Этот метод кодирования состоит из двух основных этапов:
Построение оптимального кодового дерева.
Построение отображения код-символ на основе построенного дерева.
Кодирование Хаффмана
Один из первых алгоритмов эффективного кодирования информации был предложен Д. А. Хаффманом в 1952 году. Идея алгоритма состоит в следующем: зная вероятности вхождения символов в сообщение, можно описать процедуру построения кодов переменной длины, состоящих из целого количества битов. Символам с большей вероятностью присваиваются более короткие коды. Коды Хаффмана имеют уникальный префикс, что и позволяет однозначно их декодировать, несмотря на их переменную длину.
Классический алгоритм Хаффмана на входе получает таблицу частот встречаемости символов в сообщении. Далее на основании этой таблицы строится дерево кодирования Хаффмана (Н-дерево).
Символы входного алфавита образуют список свободных узлов. Каждый лист имеет вес, который может быть равен либо вероятности, либо количеству вхождений символа в сжимаемое сообщение.
Выбираются два свободных узла дерева с наименьшими весами.
Создается их родитель с весом, равным их суммарному весу.
Родитель добавляется в список свободных узлов, а двое его детей удаляются из этого списка.
Одной дуге, выходящей из родителя, ставится в соответствие бит 1, другой — бит 0.
Шаги, начиная со второго, повторяются до тех пор, пока в списке свободных узлов не останется только один свободный узел. Он и будет считаться корнем дерева.
Допустим, у нас есть следующая таблица частот:
15 |
7 |
6 |
6 |
5 |
А |
Б |
В |
Г |
Д |
Этот процесс можно представить как построение дерева, корень которого — символ с суммой вероятностей объединенных символов, получившийся при объединении символов из последнего шага, его n0 потомков — символы из предыдущего шага и т. д.
Для данной таблицы символов коды Хаффмана будут выглядеть следующим образом.
А |
Б |
В |
Г |
Д |
0 |
100 |
101 |
110 |
111 |
Поскольку ни один из полученных кодов не является префиксом другого, они могут быть однозначно декодированы при чтении их из потока. Кроме того, наиболее частый символ сообщения А закодирован наименьшим количеством битов, а наиболее редкий символ Д — наибольшим.
Классический алгоритм Хаффмана имеет один существенный недостаток. Для восстановления содержимого сжатого сообщения декодер должен знать таблицу частот, которой пользовался кодер. Следовательно, длина сжатого сообщения увеличивается на длину таблицы частот, которая должна посылаться впереди данных, что может свести на нет все усилия по сжатию сообщения. Кроме того, необходимость наличия полной частотной статистики перед началом собственно кодирования требует двух проходов по сообщению: одного для построения модели сообщения (таблицы частот и Н-дерева), другого для собственно кодирования.
