
- •Вопрос №1 Создание и эволюция эвм. Нулевое поколение.
- •Вопрос №2 Создание и эволюция эвм. Первое поколение (1940-1950-е годы).
- •Вопрос №3 Создание и эволюция эвм. Второе поколение (1950-1960-е годы).
- •Вопрос №4 Создание и эволюция эвм. Третье поколение (1960- сер. 1970 годов).
- •Вопрос №5 Создание и эволюция эвм. Четвёртое поколение (1975-1990).
- •Вопрос №6 Создание и эволюция эвм. Пятое поколение.
- •Вопрос №7 Основные классы современных эвм. Классификация эвм по принципу действия, по назначению.
- •Вопрос №8 Основные классы современных эвм. Классификация эвм по размерам и вычислительной мощности.
- •Вопрос №9 Понятие архитектуры эвм. Структурная схема современного компьютера.
- •Вопрос №10 Классическая архитектура эвм и принципы фон Неймана.
- •Вопрос №11 Дополнительные интегральные микросхемы: контроллер прямого доступа, контроллер прерываний, математический сопроцессор.
- •Контроллер прямого доступа к памяти (dmac)
- •Контроллер прерываний
- •Математический сопроцессор
- •Вопрос №12 Функциональные характеристики эвм
- •Вопрос №13 Внешние устройства: классификация, краткая характеристика.
- •Манипуляторы
- •Принтеры, плоттеры
- •Вопрос № 14. Внешняя память персонального компьютера: оптические диски (cd-rom, cd-r, cd-rw)
- •Вопрос № 15. Внешняя память персонального компьютера: оптические диски (dvd, Blu- Ray)
- •Вопрос № 16. Внешняя память персонального компьютера: мобильные запоминающие устройства
- •2. Скорость записи/чтения
- •3. Надежность хранения данных
- •4. Дизайн
- •5. Функции защиты информации
- •6. Цена
- •Вопрос №17 Устройства ввода информации (клавиатура, сканер, дигитайзер, манипуляторы).
- •Вопрос №18 Устройства вывода информации (монитор, принтер, плоттер).
- •Монитор
- •Принтеры, плоттеры
- •Вопрос №19 Понятие «информация». Меры информации.
- •Вопрос №20 Представление символьной информации в эвм. Стандартные коды.
- •Вопрос №21 Кодирование графической информации
- •Вопрос №22
- •Вопрос №23 Понятие о системах счисления. Системы счисления, применяемые в эвм.
- •Вопрос №24 Системы счисления: алгоритм перевода целых и дробных чисел из 10-ой системы счисления в 2-ую, 8-ую, 16-ую и обратно.
- •1. Понятие о системах счисления.
- •Вопрос №25 Арифметические операции в позиционных системах счисления.
- •Вопрос №26 Алгебраическое представление двоичных чисел (прямой, обратный и дополнительный код числа).
- •Вопрос №27 Представление чисел в форме с фиксированной и плавающей запятой. Арифметические операции над числами с фиксированной и плавающей запятой.
- •Вопрос №28 Арифметические основы построения эвм.
- •1. Представление информации в компьютере
- •2. Системы счисления
- •3. Перевод числа из одной системы счисление в другую
- •4. Арифметические операции в позиционных системах счисления
- •Вопрос №29 Логические основы построения эвм. Аксиомы, тождества и основные законы алгебры логики
- •Логический синтез вычислительных схем
- •Вопрос №30 Законы и соотношения алгебры логики. Формула де Моргана
- •1. Закон одинарных элементов
- •2. Законы отрицания
- •3. Комбинационные законы.
- •4. Правило поглощения (одна переменная поглощает другие)
- •5. Правило склеивания (выполняется только по одной переменной)
- •Закон де моргана
- •Вопрос №31 Логический синтез вычислительных схем.
- •Вопрос №32 Система элементов эвм. Электронные технологии и элементы, применяемые в эвм
- •Система логических элементов
- •Вопрос №33 Триггеры как элементы памяти эвм: основные типы и их реализация на основе логических элементов.
- •Вопрос №34 Регистры эвм: назначение, классификация и схемная реализация.
- •Вопрос №35 Счетчики эвм: назначение, логика работы.
- •Вопрос №36 Узлы как структурная единица эвм, их типы.
- •2. Оперативная память (озу)
- •3. Постянное запоминающее устройство (пзу)
- •4. Внешняя память
- •5. Устройства ввода
- •6.Устройства вывода.
- •7. Информационная шина (магистраль)
- •8. Некоторые подробности
- •В принципе возможна !!!
- •В принципе возможна !
- •Вопрос №37 Назначение сумматора. Последовательные и параллельные сумматоры: принципы их функционирования.
- •Вопрос №38 Шифраторы, дешифраторы: назначение, виды, уго этих узлов.
- •Вопрос №39 Мультиплексоры, демультиплексоры: назначение, виды, уго этих узлов.
- •Вопрос №40 Общие сведения о запоминающих устройствах
- •Классификация зу:
- •Вопрос №41 Многоуровневая организация памяти эвм (мпп, оп, взу, кэш-память)
- •Вопрос №42 Назначение оперативных запоминающих устройств.
- •Вопрос №43 Статические и динамические озу. Виды модулей dram.
- •Вопрос №44 Общая характеристика постоянной памяти. Принцип работы пзу.
- •Вопрос №45 Основные типы пзу
- •Вопрос №46 Назначение и структура микропроцессора. Устройство мп
- •Вопрос №47 Основные блоки микропроцессора
- •Вопрос №48 Выполнение команд в микропроцессоре. Система команд мп, форматы команд, способы адресации.
- •Вопрос №49 Системы risc и cisc.
- •Вопрос №50 Назначение микропрограммного устройства управления.
- •Вопрос №51 Назначение и структура арифметико-логического устройства.
- •Вопрос №52 Классификация алу. Выполнение операций сложения (вычитания) и умножения в алу. Классификация алу:
- •Алгоритмы сложения (вычитания) и умножения в алу
- •Вопрос №53 Обеспечение достоверности информации.
- •Классификация методов контроля достоверности
- •Методы контроля достоверности
- •Вопрос №54 Понятие о кодировании и коде.
- •Вопрос №55 Понятие избыточности кода. Минимальное кодовое расстояние.
- •Вопрос №56 Код с проверкой по четности/нечетности. Коды с постоянным весом. Циклические коды. Код с проверкой по четности/нечетности
- •Коды с постоянным весом
- •Циклические коды
- •Вопрос №57 Корректирующая способность кода.
- •Вопрос №58 Контроль передачи информации с помощью кода Хемминга
- •Вопрос №59 Коды Рида-Соломона. Код Хаффмана. Оптимальное кодирование Шеннона-Фано Коды Рида-Соломона
- •Идея кодов Рида-Соломона
- •Ошибки в символах
- •Преимущество кодирования
- •Архитектура кодирования и декодирования кодов Рида-Соломона
- •Арифметика конечного поля Галуа
- •Алгоритм Хаффмана
- •Адаптивное сжатие
- •Переполнение
- •Масштабирование весов узлов дерева Хаффмана
- •Алгоритм Шеннона — Фано
- •Основные сведения
- •Алгоритм вычисления кодов Шеннона — Фано
- •Вопрос №60 Современное состояние и перспективы развития элементной базы и средств вычислительной техники.
Масштабирование весов узлов дерева Хаффмана
Принимая во внимание сказанное выше, алгоритм обновления дерева Хаффмана должен быть изменен следующим образом: при увеличении веса нужно проверять его на достижение допустимого максимума. Если мы достигли максимума, то необходимо «масштабировать» вес, обычно разделив вес листьев на целое число, например, 2, а потом пересчитав вес всех остальных узлов.
Однако при делении веса пополам возникает проблема, связанная с тем, что после выполнения этой операции дерево может изменить свою форму. Объясняется это тем, что мы делим целые числа и при делении отбрасываем дробную часть.
Правильно организованное дерево Хаффмана после масштабирования может иметь форму, значительно отличающуюся от исходной. Это происходит потому, что масштабирование приводит к потере точности нашей статистики. Но со сбором новой статистики последствия этих «ошибок» практически сходят на нет. Масштабирование веса — довольно дорогостоящая операция, так как она приводит к необходимости заново строить все дерево кодирования. Но, так как необходимость в ней возникает относительно редко, то с этим можно смириться.
Выигрыш от масштабирования
Масштабирование веса узлов дерева через определенные интервалы дает неожиданный результат. Несмотря на то, что при масштабировании происходит потеря точности статистики, тесты показывают, что оно приводит к лучшим показателям сжатия, чем, если бы масштабирование откладывалось. Это можно объяснить тем, что текущие символы сжимаемого потока больше «похожи» на своих близких предшественников, чем на тех, которые встречались намного раньше. Масштабирование приводит к уменьшению влияния «давних» символов на статистику и к увеличению влияния на неё «недавних» символов. Это очень сложно измерить количественно, но, в принципе, масштабирование оказывает положительное влияние на степень сжатия информации. Эксперименты с масштабированием в различных точках процесса сжатия показывают, что степень сжатия сильно зависит от момента масштабирования веса, но не существует правила выбора оптимального момента масштабирования для программы, ориентированной на сжатие любых типов информации.
Алгоритм Шеннона — Фано
Алгоритм Шеннона — Фано — один из первых алгоритмов сжатия, который впервые сформулировали американские учёные Шеннон и Фано (англ. Fano). Данный метод сжатия имеет большое сходство с алгоритмом Хаффмана, который появился на несколько лет позже. Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом большей длины. Коды Шеннона — Фано префиксные, то есть, никакое кодовое слово не является префиксом любого другого. Это свойство позволяет однозначно декодировать любую последовательность кодовых слов.
Основные сведения
Кодирование Шеннона — Фано (англ. Shannon-Fano coding) — алгоритм префиксного неоднородного кодирования. Относится к вероятностным методам сжатия (точнее, методам контекстного моделирования нулевого порядка). Подобно алгоритму Хаффмана, алгоритм Шеннона — Фано использует избыточность сообщения, заключённую в неоднородном распределении частот символов его (первичного) алфавита, то есть заменяет коды более частых символов короткими двоичными последовательностями, а коды более редких символов — более длинными двоичными последовательностями.
Алгоритм был независимо друг от друга разработан Шенноном (публикация «Математическая теория связи», 1948 год) и, позже, Фано (опубликовано как технический отчёт).
Основные этапы
Символы первичного алфавита m1 выписывают в порядке убывания вероятностей.
Символы полученного алфавита делят на две части, суммарные вероятности символов которых максимально близки друг другу.
В префиксном коде для первой части алфавита присваивается двоичная цифра «0», второй части — «1».
Полученные части рекурсивно делятся и их частям назначаются соответствующие двоичные цифры в префиксном коде.
Когда размер подалфавита становится равен нулю или единице, то дальнейшего удлинения префиксного кода для соответствующих ему символов первичного алфавита не происходит, таким образом, алгоритм присваивает различным символам префиксные коды разной длины. На шаге деления алфавита существует неоднозначность, так как разность суммарных вероятностей p0 − p1 может быть одинакова для двух вариантов разделения (учитывая, что все символы первичного алфавита имеют вероятность, большую нуля).