- •2.Косвенный переход
- •Дескрипторы
- •Основные характеристики тестов
- •Надёжность тестирования –
- •Однородное ранжирование
- •Ранжирование по методу Хаффмана
- •Формы представления чисел
- •Представление чисел с учетом знака
- •4.1. Сложение с плавающей точкой
- •4.2. Умножение мантисс чисел с плавающей точкой
- •Сложение чисел
- •Система команд
- •Интегральный таймер
- •Программируемый адаптер последовательного интерфейса
- •Схемы управления и защиты памяти
- •Разрядность обрабатываемых данных - 8; 16; 32
- •Разрядность обрабатываемых данных - 8; 16; 32
- •80486Dx – 32 разрядный процессор 80486 с встроенным сопроцессором
- •80486Sx -- 32 разрядный процессор 80486 без сопроцессора
- •80486Dx2 – частота cpu увеличена в 2 раза по сравнению с шиной.
- •80486Dx4 -- частота cpu увеличена в 2,5 (3) раза по сравнению с шиной.
- •Для увеличения объёма convention memory осуществляют перемещение dos, резидентных программ и драйверов в расширенную память.
- •Существуют две системы нумерации секторов на диске:
- •Pause [сообщение] -- приостановка выполнения bat-файла и выдача сообщения
- •73. Управление дисками и каталогами в ms-dos.
- •Триггеры с управлением по фронту
- •Приведена схема мультиплексора 4 в 1
- •После заполнения таблицы можно перейти к синтезу комбинационной схемы r- го вычислителя I – го разряда регистра.
- •2.1.2. Комбинаторная мера.
- •2.1.3. Аддитивная мера Хартли.
- •2.2.3. Условная энтропия.
- •2.2.4. Энтропия и информация.
- •3.2. Выбор частоты отсчётов при дискретизации.
- •3.3. Квантование по уровню.
- •Теорема 1
- •Теорема 2
- •4.4. Оптимальное кодирование.
- •Например: Дан восьмибуквенный первичный алфавит, известны безусловные вероятности для символов первичного алфавита.
- •4.6.2. Циклические коды.
- •1. Семантический разрыв между архитектурой эвм и уровнем решаемых задач
- •1.1. Физическая и виртуальная эвм
- •1.2. Семантический разрыв между физической и виртуальной эвм
- •1.3. Уменьшение семантического разрыва
- •1.4. Векторная обработка данных
- •2. Основы горизонтальной и вертикальной обработки информации
- •2.1. Характеристика горизонтальной и вертикальной технологий
- •2.2. Вертикальные операции и устройства
- •2.2.1. Операция вертикального сложения.
- •2.2.2. Операция деления количества единиц.
- •2.2.3. Операция упорядочения единиц.
- •2.2.4. Примеры выполнения вертикальных операций.
- •3. Использование матричного параллелизма в архитектуре эвм
- •3.1. Матричный параллелизм на системном уровне
- •3.1.1. Однородные матричные процессоры.
- •3.1.2. Периферийные матричные процессоры.
- •3.2. Матричный параллелизм на схемном уровне
- •3.2.1. Параллельные сдвигатели.
- •3.2.2. Параллельные сумматоры.
- •3.2.3. Матричные умножители
- •3.2.4. Матричные делители.
- •№114 Матричные системы
- •№117 Многомашинные системы
- •№121 Стандарт скоростной оптической магистрали fddi.
- •152. Принцип управления по хранимой микропрограмме. Операционно-адресная структура микрокоманды.
- •Основная задача свв – организация обменом информации между оп эвм и пу.
- •К основным функциям свв относят следующие:
- •166. Формирование речевых сообщений по правилам и по образцам. Способы сжатия информации в устройствах ввода-вывода речевых сообщений.
2.2.4. Энтропия и информация.
Любое принятое сообщение должно уменьшить неопределённость приёмника относительно источника.
Количество информации - это разность между априорной и апостериорной энтропиями: I=Hапр-Hапост
Если в результате опыта полностью снимается неопределённость системы (Hапост=0), то количество информации, приносимое данным опытом, численно равно априорной энтропии системы. Например, в двоичных информационных системах Напост=0. Для произвольного канала связи:
I=H()-H ()
где H() - неопределённость источника; H () - неуверенность приёмника, т.е. если принят Вj то какова вероятность, что был отправлен Аi.
Свойства информации.
1°. Информация обладает симметричностью: I()=I()=H()-H()=H()-H()
2°. Максимальное количество информации, равное Н() получается при H ()=0, т.е. полностью определяет и канал без помех.
Минимальное количество информации, равное 0, получается при H()=H (), т.е. Н() и Н() независимы между собой.
3°. Если имеется система связанных между собой событий a,b,c тоH(а) =I(a,a)I(b,a)I(c,a)…I(z,a)
1) При отсутствии помех энтропия приёмника равна энтропии источника. При этом условная энтропия равна нулю, а энтропия объединения равна энтропии источника.
2) Количество информации может определяться как со стороны источника, так и со стороны приёмника. Являясь отражением одного объекта другим и мерой соответствия состояний объектов, информация обладает свойством симметрии.
№ 103. Квантирование информации. Теорема Котельникова.
3. КВАНТОВАНИЕ ИНФОРМАЦИИ
Носителем информации всегда является сигнал.
3.1. Виды сигналов.
1) непрерывный сигнал - непрерывная функция непрерывного аргумента;
2) непрерывно-дискретный сигнал - непрерывная функция дискретного аргумента.
3) непрерывно-дискретный сигнал – дискретная функция непрерывного аргумента.
4) дискретный сигнал - дискретная функция дискретного аргумента.
Х |
|
|
|
|
|
|
у, |
|
|
|
|
|
(4) |
|
|
|
|
|
|
|
Xi |
|
|
|
|
|
|
|
|
|
|
|
|
t ^ |
|
t |
1 t |
2 t3 t |
t4 t |
n |
|
Переход (1)->(2) - квантование по времени или дискретизация. Переход (1)->(3) или (2)->(3) -квантование по уровню. Совместное применение этих двух преобразований - дискретизации и квантования -позволяет совершить переход (1)->(4).
Дискретные сигналы больше распространены из-за:
меньшего искажения в каналах связи;
лёгкого обнаружения и корректировки искажений;
лёгкой обработки и отображения в ЭВМ.