
- •1. Структура и принцип действия микропроцессора классической архитектуры
- •2. Выполнение процессором командного цикла.
- •3. Командный и машинный циклы.
- •4. Внутренние регистры микроконтроллера msp430. Регистры общего назначения и регистры специальных функций
- •5. Микросхемы памяти, их основные характеристики и классификация
- •6. Функциональная схема устройства оперативной памяти
- •7. Постоянные запоминающие устройства, их типы и области применения
- •8. Применение пзу в качестве программируемого логического устройства.
- •9. Применение пзу в качестве функционального преобразователя (фп).
- •10. Структура команд. Способы адресации.
- •11. Применение косвенной адресации
- •12. Команды процессора и эмулируемые команды
- •13. Организация подпрограмм и использование стековой области памяти.
- •14. Программная реализация интервалов времени
- •15. Аппаратный умножитель и его применение
- •16. Виды операции умножения
- •17. Применение умножения с накоплением при расчете сигналов управления
- •18. Аппаратные и программные средства интрфейса.
- •19. Принципы обмена информацией.
- •20. Параллельный и последовательный интерфейс.
- •21. Принцип действия программируемого таймера.
- •23.Организация прямого доступа к памяти.
- •24. Аппаратная реализация интервалов времени
- •25. Цифро-аналоговое преобразование.
- •26. Аналого-цифровое преобразование.
- •27. Микроконтроллер как динамическое звено.
- •28. Влияние времени выполнения программы мк запас устойчивости замкнутой системы.
- •29. Выбор числа разрядов слова данных по требуемой точности системы управления.
- •30. Рекурсивные и нерекурсивные цифровые фильтры, их передаточные функции и структурные схемы.
- •31. Цифровое дифференцирование и интегрирование.
- •34. Параллельная обработка информации. Классификация вычислительных систем с параллельной обработкой информации.
- •35. Процессоры с сокращенным набором команд (risc) и с полным набором команд (cisc).
- •36. Гарвардская и разнесенная архитектуры микропроцессоров
- •37. Процессоры с длинным командным словом
- •38. Синтез процессорной матрицы.
- •39. Применение процессорной матрицы для цифровой фильтрации сигнала.
- •40. Общая характеристика системы команд мсs8 х с51.
- •41. Функциональная схема микроконтроллера мсs8 х с51 и назначение входящих в него устройств.
- •42. Функциональная схема микроконтроллера мсs8 х с196 и назначение входящих в него устройств.
- •43. Регистры мсs 196 и способы адресации. Система команд мсs 196.
- •44. Архитектура микроконтроллеров adsp-bf и общая характеристика системы команд.
- •45. Структура ядра adsp-bf и его регистры.
- •46. Архитектура микроконтроллеров tms 320
- •47. Алгоритм расчета сигнала управления в замкнутой сис-ме
- •48. Преобразование унитарного кода импульсн.Датчика в двоичный код положения
- •49. Преобразование унитарного кода импульсного датчика в двоичный код скорости.
- •51. Использование нечеткой логики для синтеза управления. Лингвист. Переменные.
- •5 2. Алгоритм нечеткого управления
- •53. Структура и принцип действия искусственного нейрона. Соединение в сеть.
- •54. Методы обучения искусственной нейронной сети.
- •55. Применение искусственной нейронной сети в качестве устройства управления.
- •56. Применения генетических алгоритмов для оптимизации управления эп
- •57. Функциональная схема msp 430, способы адресации, система команд, назначение входящих в него устройств
- •58. Архитектура risc-ядра arm7 16/32 разрядных микроконтроллеров
- •59. Последовательный интерфейс spi микроконтроллеров.
- •62. Применение шим для цап.
- •63. Способы повышения эффективности использования конвейеров
- •64. Принцип действия сигма-дельта ацп
- •65. Микроконтроллер, его ф-ная схема и применение в системах управления эп
- •66. Режим энергопотребления мк
- •67. Режимы работы таймеров.
- •68. Как таймер формирует шим
- •69. Режим захвата и сравнения.
34. Параллельная обработка информации. Классификация вычислительных систем с параллельной обработкой информации.
Общий метод увеличения производительности – организация параллельной обработки информации, т. е. одновременное решение задач или совмещение во времени этапов решения одной задачи.
Способы организации. Во всем многообразии способов организации параллельной обработки можно выделить три основных направления:
• совмещение во времени различных этапов разных задач;
• одновременное решение различных задач или частей одной задачи;
• конвейерная обработка информации.
Первый путь – совмещение во времени этапов решения разных задач – это мультипрограммная обработка информации. Мультипрограммная обработка возможна даже в однопроцессорной ЭВМ и широко используется в современных СОД. Второй путь – одновременное решение различных задач или частей одной задачи – возможен только при наличии нескольких обрабатывающих устройств. При этом используются те или иные особенности задач или потоков задач, что позволяет осуществить тот или иной параллелизм. Идея конвейерной обработки заключается в выделении отдельных этапов выполнения общей операции, причем каждый этап, выполнив свою работу, передавал бы результат следующему, одновременно принимая новую порцию входных данных. Получаем очевидный выигрыш в скорости обработки за счет совмещения прежде разнесенных во времени операций.
Классификация систем параллельной обработки данных
Параллельные ЭВМ часто подразделяются по классификации Флинна на
машины типа SIMD (Single Instruction Multiple Data - с одним потоком команд
при множественном потоке данных) и MIMD (Multiple Instruction Multiple Data
- с множественным потоком команд при множественном потоке данных).
Можно выделить четыре основных типа архитектуры систем параллельной
обработки:
1) Конвейерная и векторная обработка.
Основу конвейерной обработки составляет раздельное выполнение
некоторой операции в несколько этапов (за несколько ступеней) с передачей
данных одного этапа следующему. Производительность при этом возрастает
благодаря тому, что одновременно на различных ступенях конвейера
выполняются несколько операций. Конвейеризация эффективна только тогда,
когда загрузка конвейера близка к полной, а скорость подачи новых операндов
соответствует максимальной производительности конвейера. Если происходит
задержка, то параллельно будет выполняться меньше операций и суммарная
производительность снизится. Векторные операции обеспечивают идеальную
возможность полной загрузки вычислительного конвейера.
При выполнении векторной команды одна и та же операция применяется ко
всем элементам вектора (или чаще всего к соответствующим элементам пары
векторов).
2) Машины типа SIMD.
SIMD компьютер имеет N идентичных процессоров, N потоков данных и один
поток команд. Каждый процессор обладает собственной локальной памятью.
Процессоры интерпретируют адреса данных либо как локальные адреса
собственной памяти, либо как глобальные адреса, возможно, модифицированные
добавлением локального базового адреса. Процессоры получают команды от
одного центрального контроллера команд и работают синхронно, то есть на
каждом шаге все процессоры выполняют одну и ту же команду над данными из
собственной локальной памяти.
Машины типа SIMD состоят из большого числа идентичных процессорных
элементов, имеющих собственную память. Все процессорные элементы в такой
машине выполняют одну и ту же программу.
3) Машины типа MIMD.
MIMD компьютер имеет N процессоров, независимо исполняющих N потоков
команд и обрабатывающих N потоков данных. Каждый процессор функциони рует под управлением собственного потока команд, то есть MIMD компьютер
может параллельно выполнять совершенно разные программы.
4) Многопроцессорные машины с SIMD-процессорами.
Многие современные супер-ЭВМ представляют собой многопроцессорные
системы, в которых в качестве процессоров используются векторные процессоры
или процессоры типа SIMD. Такие машины относятся к машинам класса MSIMD.
Одной из отличительных особенностей многопроцессорной вычислительной
системы является сеть обмена, с помощью которой процессоры соединяются друг
с другом или с памятью.
Существуют две основные модели межпроцессорного обмена:
одна основана на передаче сообщений, другая - на использовании общей
памяти. В многопроцессорной системе с общей памятью один процессор
осуществляет запись в конкретную ячейку, а другой процессор производит
считывание из этой ячейки памяти.