
- •Организация эвм и систем
- •Глава 6 Организация памяти
- •Глава 1. Структура современного компьютера
- •1.1 Основные понятия
- •1.2 Принцип действия компьютера
- •Цикл работы компьютера
- •1.3 Программное обеспечение компьютера
- •1.4 Надежность, производительность и показатели быстродействия
- •Производительность компьютера
- •Технико-эксплуатационные характеристики
- •1.5 Вычислительные системы и сети
- •Вопросы для самопроверки
- •Глава 2 представление информации в компьютере
- •5.2 Система команд. Форматы команд и способы адресации
- •5.3 Система прерываний и приостановок, состояние процессора
- •Характеристики системы прерываний
- •Организация перехода к прерывающей программе
- •5.4 Режимы работы процессора: однопрограммный, пакетный, разделения времени, реального времени
- •5.5 CisCиRisCкомпьютеры
- •Процессоры персональных компьютеров
- •5.6 Устройства управления
- •Устройства управления с хранимой в памяти логикой
- •5.7 Методы и средства повышения производительности процессоров персональных компьютеров
- •Суперскалярная обработка
- •Переименование регистров
- •Динамическое прогнозирование условных переходов
- •Контроллер памяти Контроллер pci
- •Вопросы для самопроверки
- •Глава 6. Организация памяти
- •6.1 Адресное пространство
- •6.2 Виды памяти
- •6.3 Оперативная память
- •Статическая и динамическая память
- •6.5 Внешняя память
- •6.6 Организация виртуальной памяти
- •Страничное, сегментное и странично-сегментное распределение
- •Свопинг
- •6.7 Защита памяти
- •Вопросы для самопроверки
- •Глава 7. Интерфейсы
- •7.1 Понятие интерфейса и его характеристики
- •7.1 Состав линий системной шины
- •Передача данных по проводным линиям связи По линиям связи современных интерфейсов преимущественно передаются низкочастотные дискретные одно - и биполярные сигналы (рисунок 7.Х).
- •Адрес верный
- •7.2 Подключение устройств
- •7.4 Интерфейсы внешней памяти
- •7.5 Малые интерфейсы (usb,ide,rs-232c,scsi)
- •Вопросы для самопроверки
- •Глава 8. Периферийные устройства компьютеров
- •8.1 Организация систем ввода-вывода. Каналы, контроллеры
- •Основные функции свв
- •Программный ввод-вывод
- •Прямой доступ в память
- •8.2 Клавиатура и мышь
- •8.3 Дисплеи
- •8.4 Принтеры
- •8.5 Накопители на магнитных дисках
- •Структура накопителя на жестких дисках
- •Структура и особенности накопителя на гмд
- •8.6 Накопители на компакт-дисках (cd-rom, cd-r, cd-rw, dvd)
- •8.7 Другие виды периферийных устройств
- •Вопросы для самопроверки
- •Какие особенности пу делают возможным организацию параллельной обработки и ввода-вывода?
- •Закон Амдала
- •Совместно используемая и распределенная память
- •Когерентность кэш-памяти
- •Наибольшее распространение получили следующие аппаратные механизмы, реализующие протокол когерентности кэш-памяти: это протоколы наблюдения и на основе справочника.
- •9.2 Конвейерные системы
- •Векторные регистры
- •9.3 Симметричные системы
- •9.4 Вычислительные системы со сверхдлинным командным словом
- •9.5 Другие виды мультипроцессорных систем
- •Машины с массовым параллелизмом
- •Нейрокомпьютеры
- •9.6 Проблемно-ориентированные системы
- •Вопросы для самопроверки
- •Глава 10. Организация вычислительного процесса
- •12.2 Системы автоматического контроля и диагностики
- •Контроль передач информации
- •Контроль арифметических операций
- •12.3 Защита памяти. Raid-массивы
- •12.4 Построение «безотказных» систем питания Вопросы для самопроверки
- •Список литературы
9.3 Симметричные системы
Среди MIMD-архитектур наибольший интерес сегодня представляют две. Рассмотрим эти два типа MIMD-архитектур несколько подробнее. Такие архитектуры называют симметричными (Symmetric MultiProcessor – SMP) и асимметричными (Asymmetric MultiProcessor – AMP).
Естественно, что в MIMD-архитектурах несколько процессоров могут одновременно обращаться к программному «ядру», что приводит к потенциальным задержкам и блокировкам. Одним из методов, позволяющим избежать блокировок, служит простой механизм: при обращении процесса к системной памяти осуществляется проверка «замка». Если замок «заперт», то процесс ожидает его «отпирания». Этот метод обычно и называют асимметричным мультипроцессированием. Его преимущество заключается в простоте, а недостаток – в том, что процессорам часто приходится ждать, пока ядро не будет освобождено захватившем его процессором. Поскольку лишь один процессор может выполнять системную программу, то эти замки устанавливают в начале каждого обращения к системной памяти и «снимают» их после его завершения. Вероятность ожидания возрастает с увеличением числа процессоров и, следовательно, рост производительности за счет увеличения числа процессоров при асимметричной организации ограничен.
При симметричной организации все процессоры равноправны, связаны единой шиной и имеют доступ к общей памяти; по шине они также получают доступ к общим устройствам ввода-вывода. Все программы и данные хранятся в виде одной копии в единой памяти, к которой имеют доступ все процессоры и все контроллеры ввода-вывода. Эта единая память позволяет программному обеспечению считать, что обработка производится как бы в одном процессоре, что значительно упрощает программирование. Правда, наличие единой памяти снижает быстродействие, но память строят в виде нескольких «банков»: когда в одном банке происходит обновление информации, другой свободен для доступа. Кроме того, все процессоры снабжают кэш-памятью достаточно большого объема, служащей для устранения потерь времени из-за конфликтов при обращении к общей памяти и довольно медленной работы шины. На рисунке 9.х приведена структура машины, имеющей симметричную организацию.
Наличие у каждого процессора своей кэш-памяти уменьшает потребность в обращениях к ОП, т.е. ускоряет обработку, но приводит к проблеме, получившей название когерентности кэш-памяти и рассмотренной выше.
ЦП
Кэш-памяти
Шина
ОП Подсистема
Ввода-вывода
Рисунок 9.х. Структура «симметричной» вычислительной системы
Эффективность SMP-системы. Каждый из процессоров симметричной ВС выполняет задачи, возлагаемые на него операционной системой; поэтому эффективность SMP-системы зависит от способности ОС распределять задачи по процессорам. Для более эффективной работы ВС многие операционные системы (в частности, Windows NT) содержат средства разделения задачи на «цепочки», или нити (thread), которые могут выполняться на разных процессорах. Это повышает не только производительность системы, но и ее надежность: выход из строя любого процессора может фиксироваться операционной системой, а его нагрузка автоматически распределяться по оставшимся исправными процессорам. Помимо высокой надежности симметричные системы обладают возможностью наращивать до определенных пределов свои вычислительные ресурсы, т.е. конфигурацию такой системы можно произвольным образом расширять. Говорят, что SMP-система обладает свойством масштабируемости. Таким образом, SMP-система позволяет решить несколько задач: обеспечивает высокую производительность и надежность, обладает широкими возможностями наращивания вычислительных ресурсов и позволяет реализовать открытость информационной системы. Последнее свойство – открытость системы – обеспечивается стандартными средствами взаимодействия различных компонентов и частей ВС.
В качестве примера симметричной ВС можно привести выпускаемые в настоящее время промышленные двухпроцессорные рабочие станции на базе процессора Pentium IY Xeon. Каждый процессор в этих станциях снабжен собственной кэш-памятью объемом не менее 512 Кбайт (обычно 1Мбайт или больше). Помимо ЦП в этих станциях установлены графические платы, усовершенствованные графические порты и другие схемы, обеспечивающие преимущества при работе с трехмерной графикой, видеоклипами и другими сложными мультимедиа программами.