- •2.Косвенный переход
- •Дескрипторы
- •Основные характеристики тестов
- •Надёжность тестирования –
- •Однородное ранжирование
- •Ранжирование по методу Хаффмана
- •Формы представления чисел
- •Представление чисел с учетом знака
- •4.1. Сложение с плавающей точкой
- •4.2. Умножение мантисс чисел с плавающей точкой
- •Сложение чисел
- •Система команд
- •Интегральный таймер
- •Программируемый адаптер последовательного интерфейса
- •Схемы управления и защиты памяти
- •Разрядность обрабатываемых данных - 8; 16; 32
- •Разрядность обрабатываемых данных - 8; 16; 32
- •80486Dx – 32 разрядный процессор 80486 с встроенным сопроцессором
- •80486Sx -- 32 разрядный процессор 80486 без сопроцессора
- •80486Dx2 – частота cpu увеличена в 2 раза по сравнению с шиной.
- •80486Dx4 -- частота cpu увеличена в 2,5 (3) раза по сравнению с шиной.
- •Для увеличения объёма convention memory осуществляют перемещение dos, резидентных программ и драйверов в расширенную память.
- •Существуют две системы нумерации секторов на диске:
- •Pause [сообщение] -- приостановка выполнения bat-файла и выдача сообщения
- •73. Управление дисками и каталогами в ms-dos.
- •Триггеры с управлением по фронту
- •Приведена схема мультиплексора 4 в 1
- •После заполнения таблицы можно перейти к синтезу комбинационной схемы r- го вычислителя I – го разряда регистра.
- •2.1.2. Комбинаторная мера.
- •2.1.3. Аддитивная мера Хартли.
- •2.2.3. Условная энтропия.
- •2.2.4. Энтропия и информация.
- •3.2. Выбор частоты отсчётов при дискретизации.
- •3.3. Квантование по уровню.
- •Теорема 1
- •Теорема 2
- •4.4. Оптимальное кодирование.
- •Например: Дан восьмибуквенный первичный алфавит, известны безусловные вероятности для символов первичного алфавита.
- •4.6.2. Циклические коды.
- •1. Семантический разрыв между архитектурой эвм и уровнем решаемых задач
- •1.1. Физическая и виртуальная эвм
- •1.2. Семантический разрыв между физической и виртуальной эвм
- •1.3. Уменьшение семантического разрыва
- •1.4. Векторная обработка данных
- •2. Основы горизонтальной и вертикальной обработки информации
- •2.1. Характеристика горизонтальной и вертикальной технологий
- •2.2. Вертикальные операции и устройства
- •2.2.1. Операция вертикального сложения.
- •2.2.2. Операция деления количества единиц.
- •2.2.3. Операция упорядочения единиц.
- •2.2.4. Примеры выполнения вертикальных операций.
- •3. Использование матричного параллелизма в архитектуре эвм
- •3.1. Матричный параллелизм на системном уровне
- •3.1.1. Однородные матричные процессоры.
- •3.1.2. Периферийные матричные процессоры.
- •3.2. Матричный параллелизм на схемном уровне
- •3.2.1. Параллельные сдвигатели.
- •3.2.2. Параллельные сумматоры.
- •3.2.3. Матричные умножители
- •3.2.4. Матричные делители.
- •№114 Матричные системы
- •№117 Многомашинные системы
- •№121 Стандарт скоростной оптической магистрали fddi.
- •152. Принцип управления по хранимой микропрограмме. Операционно-адресная структура микрокоманды.
- •Основная задача свв – организация обменом информации между оп эвм и пу.
- •К основным функциям свв относят следующие:
- •166. Формирование речевых сообщений по правилам и по образцам. Способы сжатия информации в устройствах ввода-вывода речевых сообщений.
3.2. Выбор частоты отсчётов при дискретизации.
Суть дискретизации - преобразование непрерывной функции x(t) в дискретную x(ti). Такое преобразование - однозначно, а обратное преобразование - неоднозначно. Отсюда возникает понятие погрешности преобразования.
Функцию, полученную в результате восстановления (интерполяции) будем называть воспроизводящей.
При дискретизации сигналов приходится решать вопрос о том, как часто необходимо производить отсчёты функции, т.е. какой должен быть шаг дискретизации t=ti-ti-1. При увеличении t будет уменьшаться точность воспроизведения, но при этом будет уменьшаться количество отсчётов (шагов) и обратно. Это означает, что существует некий оптимум разбиения, определяемый теоремой Котельникова.
Для любой функции можно выполнить разложение в ряд Фурье, в результате чего функция предстаёт в виде суммы гармоник
С увеличением обычно уменьшается удельный вес данной составляющей в суммарном сигнале. Поэтому всегда можно выбрать такую max=2fmax, что для всех гармоник с >max их вкладом в суммарный сигнал можно пренебречь. Набор гармоник, входящих в разложение сигнала, называется спектром сигнала. Если спектр ограничен fmax, то имеет место теорема Котельникова.
Функция с ограниченным спектром полностью определяется дискретным множеством своих значений (отсчётов), взятых с частотой
F0=2fmax. Иначе t=1/2fmax
Реальные сигналы имеют конечную длительность и спектр их неограничен. Однако для реальных условий не требуется идеально точного восстановления. На практике частоту отсчётов определяют по формуле: F0=Kзапаса*2fmax где Кзапаса, - коэффициент запаса (от 1,5 до 6)
3.3. Квантование по уровню.
В результате квантования по уровню непрерывное множество значений сигналов X(t) в диапазоне Xmin Xmax, преобразуется в дискретное множество значений Хк. При этом квантование может быть равномерным и неравномерным.
Существуют два способа отнесения значения X(t) к соответствующему уровню:
1) X(ti) отождествляется с ближайшим уровнем;
2) X(tj) отождествляется с меньшим( большим) уровнем.
№ 103. Основная теорема о кодировании канала без шума. Оптимальное кодирование.
4.3. Основные теоремы кодирования канала без шума.
Канал без шума - система передачи информации. в которой аппаратура не вносит никаких искажений в передаваемую информацию. Для однозначного декодирования, а также для передачи больших объёмов при меньших временных и материальных затратах коды должны удовлетворять следующим требованиям:
Разные символы первичного алфавита должны иметь различные кодовые комбинации.
Код должен быть построен так, чтобы можно было точно отделить начало и конец букв первичного алфавита.
Код должен быть максимально кратким, т.е. минимум символов вторичного алфавита для передачи сообщения.
Для обеспечения третьего требования необходимо исследовать минимальную среднюю длину кодового слова.
Чтобы передать N - неповторяющихся сообщений при помощи m- символов, их нужно комбинировать по n-символов в каждом сообщении.
H=logN=nlogm->n=logN/logm=H1/H2
где n - средняя длина кодовых комбинаций;
Н1 - энтропия первичного алфавита;
Н2 - энтропия вторичного алфавита.
Среднюю длину кодовых комбинаций можно уменьшить двумя способами:
уменьшить энтропию первичного алфавита (но это, как правило, невозможно);
увеличить энтропию вторичного алфавита.
Пусть lср- средняя длина кодовой комбинации для данного кода.
Где P(ai) – вероятность символа в первичном алфавите.
l(ai) – длина соответсвующая кодовой комбинации во вторичном алфавите.