Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_ekzamen_Chernysheva.docx
Скачиваний:
7
Добавлен:
01.05.2025
Размер:
648.58 Кб
Скачать
  1. Директивы flush, ordered, threadprivate.

Директива flush

Поскольку в современных параллельных вычислительных системах может использоваться сложная структура и иерархия памяти, пользователь должен иметь гарантии того, что в необходимые ему моменты времени каждая нить будет видеть единый согласованный образ памяти. Для этих целей и предназначена директива flush.

#pragma omp flush [<список>]

Указывается в параллельной секции. Поток, обратившийся к директиве переписывает в основную память из своего кэша все переменные, либо переменные, указанные в списке.

Все переменные, которые требуют синхронизации, должны быть перечислены в списке директивы. Если в этом списке присутствует указатель, то осуществляется сброс самого указателя, а не числового значения объекта, на который он указывает.

Директива flush без списка синхронизирует все разделяемые переменные (такой способ синхронизации будет иметь значительные накладные расходы по сравнению с директивой flush со списком).

Директиву flush нельзя использовать, если присутствует оператор nowait (т.е. выполнение без синхронизации).

Аналогично barrier, директива flush не является оператором (в формальном синтаксисе), поэтому в некоторых конструкциях он должен оформляться как блок, т.е. {…}.

Директива ordered

Директива ordered должна находиться внутри конструкций for или parallel for. Программный блок, непосредственно следующий за директивой ordered, выполняется в порядке, в котором итерации цикла выполнялись бы в последовательном режиме.

Синтаксис директивы ordered:

#pragma omp ordered

{…}

 В параллельном цикле должна быть задана опция ordered. Нить, выполняющая первую итерацию цикла, выполняет операции данного блока. Нить, выполняющая любую следующую итерацию, должна сначала дождаться выполнения всех операций блока всеми нитями, выполняющими предыдущие итерации. Может использоваться, например, для упорядочения вывода от параллельных нитей.

Директива threadprivate

#pragma omp threadprivate (<список переменных>)

Указание класса переменной в последовательной секции.

Указывается в последовательной секции после описания переменных.

При входе в параллельную секцию переменные, указанные в списке становятся локальными.

Директива не влияет на работу с переменными в последовательной секции.

При открытии параллельной секции обязательно должен быть указан параметр copyin с этим же списком переменных

  1. Функции OpenMp.

    • Int omp_get_num_threads();

    • Определение общего числа потоков в параллельной секции.

    • Void omp_set_num_threads(int threads);

    • Установка числа потоков в параллельной секции.

    • Int omp_get_thread_num();

    • Получение номера потока.

    • Double omp_get_wtime();

    • Определение времени (в секундах).

Тема 4. Нейрокомпьютерные системы

  1. Обучение простейшего персептрона распознаванию двух образов.

Пусть дан персептрон.

Дана матрица рецепторных клеток nxn, на которую подается образ в виде 0 и 1.

Пусть пепсептрон распознает два образа Х и 0, в общем случае эти образы могут быть представлены по-разному.

Там, где стоит 1, там есть образ, все остальные клетки заполнены 0.

Дан массив ассоциативных клеток nxn. Матрица рецепторных клеток связана с матрицей ассоциативных клеток. Каждая рецепторная клетка связана случайным образом с ассоциативными клетками. Количество связей равно m, где m много больше n (m>>n).

Дана одна эффекторная клетка с которой связаны все ассоциативные клетки через некоторый вес.

На рецепторную клетку подается образ, который отображается на ассоциативной клетке и предается на эффекторную клетку через веса и эффекторная клетка отвечает 1, если X и 0, если подан 0. Если ответ не верен, то сеть будем обучать, изменяя веса ассоциативных клеток.

Допустим, есть следующая модель персептрона:

Алгоритм обучения персептрона следующий:

  1. Присвоить синаптическим весам некоторые начальные значения. Например, нулю.

  1. Подать входной образ и вычислить . Если правильный, то переходят к шагу 4. Иначе к шагу 3.

  2. Корректируем значения синаптических весов.

  3. Повторить шаги 2-4 данного алгоритма обучения персептрона пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога.

Т.о. образом логика обучения персептрона следующая: если сигнал персептрона при некотором образе верен, то ничего корректировать не надо, если нет – производится корректировка весов.

Корректировка весов

Вычисляем дельту, т.е. разницу между требуемым и реальным выходом:

Корректируем вес: Wn +=

    • (греческая буква «эта») – коэффициент скорости обучения, позволяет управлять средней величиной изменения весов;

    • Xn – величина входа соответствующая Wn синаптическому весу.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]