- •Теоретичні Аспекти на Межі Продуктивності і Толерантність Дефекту в Паралельному Обчисленні
- •1 Вступ
- •1.1 Дослідницькі Питання
- •1.2 Дослідницька Методологія
- •1.3 Дослідницьке Сприяння
- •2 Багатопроцесорне Планування (Частина I)
- •2.1 Класифікація планування проблем
- •2.2 Межі і Складність на Багатопроцесорному Плануванні
- •3 Баланс Навантаження і толерантність дефекту (Частина 2)
- •3.1 Модель Дефекту
- •3.2 Надійність проти Доступності
- •4 Підсумок Статей
- •4.1 Частина 1
- •4,2 Частина 2
- •5 Робота в майбутньому.
- •1 Вступ
- •2 Попередні результати
- •3 Визначення і основні результати
- •3.1 Позначення
- •3.2 Визначення
- •3.3 Основні результати і план статті
- •4 Перетворення програми р в нову програму що містить вузьку і широку частину.
- •4.1 Програма р’ як м-ідентична копія програми р
- •4.2 Продовження процесів
- •4.3 Від чотирьох копій в три нові програми
- •4.4 Перетворення програмP в програму з «товстою» і «тонкою» частинами
- •5 Товста частина
- •5.1 Перетворення p в q
- •5.2 Перетворення q в q'
- •5.3 Властивості розміщення товстої частини
- •5.4 Обчислення товстої частини
- •6 Тонка частина
- •7 Об'єднання товстих і тонких частин
- •7.1 Знахідка оптимального розміщення, що користується класами розміщення
- •7.2 Гілково-граничний алгоритм
- •8 Твердження
- •9 Обговорення
- •10 Висновки
- •Стаття 2 Стаття 2 «Максимальна Вигода Збільшення Числа пріоритетних Переривань у Багатопроцесорному Плануванні»
- •Введення до роботи
- •2. Формування проблем, позначення і основні результати.
- •2.1. Формулювання завдання
- •2.2. Позначення і терміни
- •(Білі прямокутники показують неперервні роботи)
- •2.3. Основний результат
- •3. Докази
- •3.1. Методи доведення
- •3.2. Перевищення програми p'
- •4. Висновки
- •5. Обговорення
- •6. Список літератури
- •Стаття III Використання лінійок Голомбо для оптимальних відновлюючих системах в розподілених обчисленнях толерантних до помилок
- •1 Вступ
- •2 Формулювання задачі
- •3 Загальна нижчня межа b
- •4. Ощадні Схеми Відновлення
- •5 Лінійка Голомбо
- •6. Висновок
- •7. Список літератури
- •8. Додаток: Оптимальні Послідовності
- •1 Вступ
- •1. Формулювання задачі
- •Попередня робота
- •Ощадливі Схеми Відновлення і Схеми Відновлення Голомбо
- •Модульна Схема Відновлення
- •Схеми Голомбо проти схеми модуля
- •8. Висновки
- •8. Список літератури
- •1 Вступ
- •2. Проблемне формулювання
- •3. Попереднє дослідження
- •4. Схеми відновлення
- •4.1. Нижчий mv межі
- •4.2. Послідовність s
- •4.3. Приклад послідовності
- •4.4. Регулярна схема відновлення
- •4.5. Приклад схеми відновлення, заснованої на послідовності
- •5. Схеми відновлення чотирикутника з непаралельними сторонами проти схеми відновлення Голомбо
- •6. Обговорення і укладення
- •7. Список літератури
- •8. Додаток
- •1 Вступ
- •2. Проблемна область
- •3. Попереднє дослідження
- •4. Проблемне формулювання
- •4.1. Найгірша кількість справ, що розглядаються у визначений період
- •4.2. Послідовне балансування навантаження
- •4.3. Оптимальні схеми відновлення
- •5. Головні результати
- •5.1. Комп'ютерні ланцюги
- •5.2. Приклад послідовності
- •5.3. Нормальні послідовності
- •5.4. Приклади: Голомбо, Ощадливий і послідовності модуля
- •5.5. Наваньаження компенсації ланцюгами
- •6. Напруженість mv
- •6.1. Алгоритм
- •7. Обговорення і укладення
- •8. Список літератури
5.4 Обчислення товстої частини
Найочевидніший шлях вичислити товсту частину – генерувати (n q) x n матрицю що містить усі можливі перестановки q ті і нулі, і явно обчислити час завершення для цього матричного використовуючого розміщення, що описано в попередній секції. Ми можемо користуватися інформацією що повні програми – погано працюючі, щоб виразитися це обчислення в деякому відношенні яке є по суті більшим чинником (подивіться наступне вирівнювання).
Вирівнювання
1. Розглянемо
паралельні P
програми з n
процесами,
k
комп'ютери
в розподіленій системі,
q
процесори
в SMP, і розміщенні А, де aj
процеси розподілено для
j
комп'ютери.
Отже, розміщення дає послідовність
розміщення (a1,
…,
ak),
де
.
Тоді:
Тут сума
прийнята усі послідовності не заперечення,
що зменшуються цілі числа таке, що
.
6 Тонка частина
Результат цієї секції - формула для функціїr(A, n, k, t), де А- розміщення
з процесів до процесорів. Ця функція - один з двох ключових компонентів ми
треба
для того, щоб отримати нашу кінцеву
мету: H(n,
k,
q,
t,
z)
. в Розділі 4 ми знаємо, що тонка частина
програми, для якої коефіцієнт
максимізував
складається з послідовності синхронізацій,
тобто програма R . Із розділу 5 ми знаємо,
що тотожність розподіла процесів для
певного процесора не впливає на тривалість
виконання товстої частини. Для товстої
частини ми маємо оптимальне розміщення,
якщо ми уміємо поширювати процеси
порівну серед процесорів. У тонкій
частині ми захотіли б розподілити
процеси, які часто прив'язуються до того
ж процесора. Ці цілі є, оскільки ми
повинні подивитися, до великої несумісної
протяжності.
Нехай
буде
послідовністю синхронізації довжини
для
програми з k
процесами.
Значення j
в
цій послідовності вказує число
синхронізацій між парою процесів.
Оптимальний шлях обов'язкових процесів
до процесорів під ці умови максимізував
число синхронізацій в межах того ж
процесора. Також треба знайти випадки
найгіршої синхронізації.
У рис. 14 оригінальна комунікація вектора для Р3 є, (6-2) означаючи, що це там - шість синхронізація між Р3 і Р2 і двох синхронізацій між Р3 і Р2. В копії, яку ми маємо переставлено частоти комунікації Р2 і Р3 і ми отже маємо шість синхронізацій між Р2і Р3і двох синхронізацій між Р2 і Р3.
Рис 14. Копіювання де ми маємо замінену комунікацію частоти Р2 і Р3
Якщо ми конкатенуємо оригінал (який ми називаємо Р ) і копію (яку ми називаємо Q) ми отримуємо нову програму P′ таку, якTs(P′, A, k, t)≤ Ts(P, A, k, t)+ Ts(Q,A,k,t) для будь-якого розміщення А (що використовують відсутність процесу на процесор і відсутність затримок синхронізації). узагальнюючи цей аргумент ми отримаємо вид перестановки, оскільки ми мали для товстої частини (рис. 12). Ці перетворення показують, що найгірше для тонкої частини відбувається, коли усі сигнали синхронізації посилаються від усього часи n процесів - кожного разу до іншого обробника. Усі можливі сигнали синхронізації для n процесів дорівнюють і усім можливим сигналам синхронізації для процесів розподілили для процесору i дорівнює ai(ai – 1)., Тому що деякі процеси виконуються на тому ж процесорі
вартість
комунікації для них дорівнює нулю. Це
означає, що число синхронізації сигналів
в програмі (відносно вартості комунікації)
рівне
Тому,
оптимальний час для тонкої частини з
вартістю комунікації
t,
і розміщенням А є:
