- •1.1 Классы устройств вм и систем
- •1.2 Операционные устройства (оу)
- •1.3 Операционный и управляющий автоматы.
- •1.4 Структурная организация оа
- •1.2 Функциональная организация вм и системы (Архитектура системы)
- •1.2.1 Устройство управления (уу). Принцип программного управления
- •1.2.2 Защита информации
- •1.2.3 Страничная адресация
- •1.2.3 Защита информации при страничной адресации
- •1.3 Структуры вычислительных и информационных систем
- •1.3.1 Перспективы совершенствования архитектуры вм и вс
- •Контрольные вопросы
- •2.1 Логические основы вм и информационных систем
- •2.1.1 Комбинационные схемы и цифровые автоматы
- •2.1.2 Функционально полный набор логических элементов
- •2.2 Минимизация переключательных функций
- •2.3 Методы получения сокращенной днф из сднф
- •2.3.1 Метод Квайна-Мак-Класки (алгебраический метод)
- •Метод Квайна (метод импликантных матриц)
- •2.3.3 Метод Квайна – Мак-Класки (с использованием числового представления функций алгебры логики)
- •2.3.4 Минимизация переключательных функций с помощью диаграмм Карно-Вейча
- •2.3.5 Синтез комбинационных и накапливающих схем в базисах и, или, не; и-не; или-не
- •2.3.6 Метод синтеза дискретных схем на базе программируемых логических матриц (плм ) с помощью эволюционных вычислений
- •Контрольные вопросы
- •3.1. Синхронные и асинхронные триггерные схемы на потенциальных элементах
- •Триггер d-типа, dv-типа
- •Триггеры т-типа
- •Схемные варианты триггеров
- •Помехозащищенные триггеры
- •Применение триггерных схем
- •Подавление дребезга контактов
- •Логические состояния и «иголки» («мерцания»)
- •3.2 Контрольные вопросы
- •3.3 Счетчики
- •3.4 Счетчики со сквозным переносом
- •3.5 Синтез счетчиков с модулем счета к≠2n.
- •Вычисление логических условий
- •3.6.1 Схемы сравнения слов с константами
- •3.6.2 Схемы сравнения на равенство
- •Схемы сравнения на больше-меньше
- •Контрольные вопросы
- •4.1 Абстрактная модель цифрового автомата (ца).
- •4.2 Способы задания автоматов. Автоматы Мили и Мура.
- •4.3 Минимизация абстрактных автоматов (аа)
- •4.4 Структурный автомат (са). Канонический метод структурного синтеза автоматов.
- •4.5 Пример канонического метода структурного синтеза автоматов на т-триггерах
- •4.6 Функционирование автоматов во времени
- •4.7 Синтез автоматов Мили и Мура по граф-схеме алгоритма (гса)
- •4.8 Синтез автомата Мура на d-триггерах
- •5.1 Классификация элементов эвм
- •5.2 Характеристики логических элементов
- •Статические параметры логических элементов
- •Динамические параметры логических элементов
- •Диодно-транзисторная логика
- •Транзисторно-транзисторные логические элементы.
- •5.4.1 Транзисторно-транзисторные логические элементы с простым инвертором
- •5.4.2 Транзисторно-транзисторные логические элементы со сложным инвертором
- •5.4.3 Транзисторно-транзисторные логические элементы с диодами Шотки
- •Транзисторные логические элементы, связанные эмиттерами (эсл-элементы, элементы с эмиттерными связями).
- •5.5.1 Электрические схемы и принцип работы логических элементов эсл
- •5.5.2 Основные характеристики и параметры элементов эсл
- •Инжекционная интегральная схемотехника
- •Логические элементы на полевых транзисторах
- •5.7.1 Статические характеристики мдп-транзисторов с индуцированным
- •Инвертор с линейной нагрузкой
- •5.7.4 Инвертор на мдп-транзисторах с нелинейной нагрузкой
- •Инверторы с квазилинейной и токостабилизирующей нагрузками
- •5.7.5 Инверторы на кмдп–транзисторах
- •5.7.6 Логические элементы на полевых мдп-транзисторах с одним типом проводимости
- •5.7.7 Логические элементы на комплементарных кмдп-транзисторах.
- •Физические основы использования элементов информационных систем в оптическом диапазоне
- •Полупроводниковые источники излучения
- •5.8.2 Полупроводниковые приемники излучения
- •5.8.3 Фоторезисторы
- •5.8.4 Фотодиоды
- •5.8.5 Фототранзисторы
- •Оптроны и оптоэлектронные микросхемы.
- •Оптоэлектронные микросхемы
- •6.1 Назначение, основные виды запоминающих устройств (зу)
- •6.2 Структура памяти универсальной эвм
- •6.3 Иерархическая структура зу
- •6.3.1 Оперативная память
- •6.3.2 Регистровая кэш-память
- •6.4 Запоминающие утройства на интегральных микросхемах (имс)
- •Классификация интегральных микросхем памяти
- •6.4.2 Зу на интегральных микросхемах
- •6.4.3 Статическое зу на биполярных транзисторах
- •6.4.4 Запоминающие элементы на моп-структурах
- •6.5 Организация оперативной памяти (оп)
- •6.5.1 Многоблочная оп
- •6.5.2 Оп с многоканальным доступом
- •6.5.3 Оп с расслоением сообщений
- •6.5.4 Включение модулей пзу в адресное пространство оп
- •6.5.5 Переключаемые банки памяти
- •6.6 Буферные (сверхоперативные) зу, кэш-память.
- •6.7 Бзу с прямой адресацией
- •6.8 Зу с стековой адресацией
- •6.9 Зу с магазинной организацией
- •6.10 Буферные зу с ассоциативной адресацией
- •6.11 Постоянные запоминающие устройства (пзу)
- •6.11.1 Пзу с масочным программированием (пзу)
- •6.11.2 Программируемые пзу (ппзу)
- •6.11.3 Программируемые логические матрицы (плм)
- •6.11.4 Логическое проектирование с использованием плм
- •7.1 Устройства и системы цифро-аналогового и аналого-цифрового преобразования сигналов
- •Дискретизация сигналов. Теорема в.А. Котельникова.
- •Узлы цифро-аналоговых средств сопряжения
- •Основные характеристики цап и ацп
- •7.4.1 Схема выборки-хранения
- •7.4.2 Цап с двоично-взвешенными сопротивлениями
- •7.4.3 Цап на основе резистивной матрицы r-2r
- •Аналого-цифровые преобразователи (ацп) последовательного преобразования. Ацп поразрядного уравновешивания. Ацп двойного интегрирования
- •Ацп последовательного преобразования
- •7.5.2 Ацп двойного интегрирования
- •7.5.3 Ацп поразрядного уравновешивания
- •Ацп параллельного преобразования
- •8 Датчики электронных информационных систем безопасности. Организация шин
- •8.2.1. Термометры на рn-переходах
- •Резистивные термометры
- •Принципы работы тензодатчика
- •Полупроводниковые тензодатчики
- •Мостовые схемы
- •Компрессионные акселерометры
- •Сдвиговые акселерометры
- •Калибровка
- •Вибростенды
- •8.9. Преобразователи давления
- •Применения
- •8.10. Датчики смещения
- •8.11. Датчики потока
- •Тепловые измерители потока
- •Механические измерители потока
- •Гидродинамические (аэродинамические) измерители потока
- •Электромагнитные измерители потока
- •Ультразвуковые датчики потока
- •Шина процессор - память
- •Шина ввода/вывода
- •Системная шина
7.1 Устройства и системы цифро-аналогового и аналого-цифрового преобразования сигналов
Информация в вычислительную систему поступает в виде сигналов. Различные датчики преобразуют информацию о различных процессах в электрические сигналы. Для системы наиболее предпочтительной является представление сигнала в форме цифрового кода. Это можно объяснить рядом достоинств цифровой обработки сигналов:
высокая помехоустойчивость – способность цифрового устройства выполнять свои функции в условиях воздействия внешних и внутренних мешающих колебаний (помех) . Это связано с тем, что сигнал в цифровой форме представлен двумя уровнями напряжения, имеющими достаточно большую разность;
простота обработки, хранения, передачи сигнала в цифровой форме гораздо проще, чем в аналоговой.
Главным недостатком работы с цифровыми сигналами является снижение быстродействие, но взамен его мы получаем увеличение точности обработки.
Цифровая обработка сигналов применяется в таких различных областях, как биомедицина, акустика, звуковая локация, радиолокация, сейсмология, связь, системы передачи данных, ядерная техника и многих других. Например, при анализе электроэнцефалограмм, электрокардиограмм, а также передаче и распознавании речи требуется выделять некоторые характерные параметры сигнала. Иногда же возникает необходимость отделения помехи типа шума от сигнала или приведения сигнала к виду, который наиболее удобен для пользователя. В качестве другого примера обработки сигналов можно привести случай, когда сигнал, передаваемый по каналу связи, подвергается различным искажениям и приемник компенсирует их.
Таким образом, возникает ощутимая потребность в наличии устройств, преобразующих сигнал из аналогового представления в цифровое и обратно, а также в понимании этих процессов.
Дискретизация сигналов. Теорема в.А. Котельникова.
Исходный физический сигнал является непрерывной функцией времени. Такие сигналы, определенные во все моменты времени, называют аналоговыми (analog). Последовательность чисел, представляющая сигнал при цифровой обработке, является дискретным рядом (discrete series) и не может полностью соответствовать аналоговому сигналу. Числа, составляющие последовательность, являются значениями сигнала в отдельные (дискретные) моменты времени и называются отсчетами сигнала (samples). Как правило, отсчеты берутся через равные промежутки времени Т, называемые периодом дискретизации (или интервалам, шагом дискретизации — sample time). Величина, обратная периоду дискретизации, называется частотой дискретизации (sampling frequency): fД=1/Т. Соответствующая ей круговая частота определяется следующим образом: ωД=2π/Т.
Процесс преобразования аналогового сигнала в последовательность от счетов называется дискретизацией (sampling), а результат такого преобразования — дискретным сигналом.
При обработке сигнала в вычислительных устройствах его отсчеты представляются в виде двоичных чисел, имеющих ограниченное число разрядов. Вследствие этого отсчеты могут принимать лишь конечное множество значений и, следовательно, при представлении сигнала неизбежно происходит его округление. Процесс преобразования отсчетов сигнала в числа называется квантованием по уровню (quantization), а возникающие при этом ошибки округления — ошибками (или шумами) квантования (quantization error, quantization noise). Сигнал, дискретный во времени, но не квантованный по уровню, называется дискретным (discrete-time) сигналом. Сигнал, дискретный во времени и квантованный по уровню, называют цифровым (digital) сигналом. Сигналы, квантованные по уровню, но непрерывные во времени, на практике встречаются редко. Разницу между аналоговыми, дискретными и цифровыми сигналами иллюстрирует рис. 7.1.
Рисунок 7.1. Аналоговый, дискретный и цифровой сигналы.
Процесс преобразования аналогового сигнала в цифровой предполагает последовательное выполнение следующих операций:
выборка значений исходной аналоговой величины в некоторые наперед заданные дискретные моменты времени, т. е. дискретизация сигнала по времени;
квантование (округление до некоторых известных величин) полученной в дискретные моменты времени последовательности значений исходной аналоговой величины по уровню;
кодирование — замена найденных квантованных значений некоторыми числовыми кодами.
Пусть задана некоторая аналоговая зависимость U(t). Для получения ее дискретного эквивалента U(nТД) = {U(0), U(ТД), U(2ТД), ... } необходимо провести выборку ее значений в дискретные моменты времени nТД, , где n = 0, 1, 2... целое число. Постоянная величина ТД — носит название периода выборки или периода дискретизации, а сам процесс замены исходной аналоговой функции u(t) некоторой дискретной функцией U(nТД) называется дискретизацией сигнала во времени. Следует отметить, что полученная дискретная функция U(nТД) относительно самого сигнала U(t) носит по-прежнему аналоговый характер, так как может принимать бесконечное число различных значений.
Период дискретизации должен быть таким, чтобы было возможно восстановление непрерывной функции по ее отсчетам с допустимой точностью.
При выборе периода дискретизации можно воспользоваться теоремой В.А.Котельникова, согласно которой всякий непрерывный сигнал, имеющий ограниченный частотный спектр, полностью определяется своими дискретными значениями в моменты отсчета, отстоящие друг от друга на интервалы времени:
Тд = 1/2Fmax ,
где Fmax – максимальная частота в частотном спектре сигнала.
Дискретизация по времени не связана с потерей информации, если частота дискретизации fД=1/ТД в 2 раза выше максимальной частоты сигнала Fmax. Однако почти все сигналы, используемые на практике, имеют неограниченный по частоте спектр, поэтому теорема Котельникова учитывает лишь 90% спектра сигнала. Для неограниченного по частоте спектра частоту дискретизации увеличивают в 2-3 раза:
fД = (2÷3)*2 Fmax = (4÷6) Fmax
Для устранения недостатка теоремы Котельникова применяют критерий Железнова (выполняется для случайных сигналов, имеющих конечную длительность Т и неограниченный частотный спектр), в соответствии с которым рекомендуется принимать период дискретизации ТД, равный максимальному интервалу корреляции сигнала τ0, т.е.
ТД = τ0
Параметр τ0 характеризует такой промежуток времени, в пределах которого отдельные значения случайного процесса можно считать статистически зависимыми (коррелированными). Таким образом, исходный непрерывный сигнал заменяется совокупностью W = Т/τ0 некоррелированных отсчетов (выборок), следующих с частотой
fД = 1/ ТД = 1/τ0 .
Кроме временной дискретизации необходимо производить еще квантование выборочных значений сигнала. Поскольку математической моделью непрерывного сигнала является случайный процесс U(t), мгновенные значения сигнала Uk = U(tk) представляют собой случайную величину. Диапазон ее изменения, называемый непрерывной шкалой мгновенных значений сигнала, ограничен значениями Umin и Umax , что отражает условие физической реализуемости сигнала. Непрерывную шкалу мгновенных значений Umax – Umin сигнала разбивают на m уровней. Отличительной особенностью дискретизации по уровню является замена непрерывной шкалы уровней сигнала U(t) дискретной шкалой Ūк{ к = 1,2, ...,М), в которой различные значения сигнала отличаются между собой на некоторое фиксированное (или выбираемое в процессе квантования ) значение ΔU, называемое шагом квантования. Таким образом, квантование представляет собой округление мгновенных значений преобразуемого сигнала. При равномерном квантовании (ΔU = const ) число разрешенных дискретных уровней составляет
Чем больше шаг квантования, тем больше получается ошибка – шум квантования:
ξ(U) = Uк - Ūк .
Если в результате квантования любое из мгновенных значений сигнала U(t) оказалось в интервале
(Ūк – ΔU/2 ; Ūк + ΔU/2),
то оно округляется до Ū, а возникающая при этом ошибка
| ξ(U)|max = ΔU/2 .
Рисунок 7.2. Выбор шага квантования сигнала
/На практике ΔU выбирают следующим методом. Полагают ошибку квантования ξ(U) случайной величиной, подчиненной равномерному закону распределения. Плотность вероятности f(ξ) для случайной величины ξ принимает значение внутри интервала (– ΔU/2 ; + ΔU/2 ) и равна нулю вне этого интервала.
Дисперсия D[ξ] ошибки квантования ξ определяется как
Для выполнения последней операции необходимо выбрать некоторый код К = {K1, К2, ...}, способный отображать не менее (N+1)-го значения, и каждому дискретному значению Ūк поставить в соответствие некоторый код Ki. В простейшем случае в качестве кода может быть использована последовательность чисел, соответствующих порядковым номерам уровней квантования. При таком выборе кода функция U(t) может быть заменена последовательностью десятичных чисел: Кn = {0, 1, 3, 4, 4, 5, 4, 4, 3, 2, 2}, или в двоичной форме Кn = {000, 001, 011, 100, 100, 101, 100, 100, 011, 010, 010}.
Р.Хартли предложил в качестве меры количества информации использовать логарифм числа возможных сообщений
I = W loga m ,
Согласно этому логарифму, количество информации в дискретном сигнале зависит от числа отсчётов W= Т/τ0 и от числа уровней квантования m.
Часто принимают а = 2, при этом значение I измеряется в битах.
Количество информации, приходящееся на один отсчет сигнала, называют удельной информативностью сигнала, или энтропией сигнала
H = I/W .
Энтропия является мерой неопределенности исследуемого процесса.
