Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие по математике для магистров.doc
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
9.51 Mб
Скачать

23.3 Прямые методы. Метод стохастической аппроксимации

Этот метод предложили Н. Роббинс и С. Монро и развили Э. Кифер и Дж. Вольфовитц для решения экстремальных стохастических задач без ограничений.

Пусть требуется найти минимум функции регрессии

 ,                   (23.3.16)

где

 .

Основная идея этого метода состоит в том, что при минимизации  в качестве направления спуска выбирается антиградиент функции  вместо неизвестного антиградиента –  функции , которую точно измерить (определить) невозможно.

В методе стохастической аппроксимации рассматриваются итеративные процедуры поиска, определяемые соотношениями

               (23.3.17)

Если при каждом  градиент  аналитически вычислить трудно, то рассматривается разностный вариант метода, в котором градиент определяется численно:

 ,         (23.3.18)

где  – орт -й оси;  – результаты независимых наблюдений за состоянием природы ;  – длина шага;  – смещение.

Сходимость метода стохастической аппроксимации обычно исследуют в предположении, которое  имеет непрерывные и ограниченные вторые производные. Можно показать, что при этих предположениях

 ,   (23.3.19)

где  – некоторый вектор такой, что .

Итак, метод стохастической аппроксимации является частным случаем метода СКГ, где

 .     (23.3.20)

Приведем некоторые обобщения процедуры (23.3.17). Предположим, что размерность пространства  велика, и на численное определение направления спуска  согласно (8.3.20) расходуется очень много времени, а кроме того имеются ограничения . Тогда можно использовать случайные направления  с независимыми и равномерно распределенными компонентами  на интервале [-1, 1] и рассмотреть следующий процесс поиска:

 , (23.3.21)

где  – серия независимых наблюдений вектора в -й итерации ;  – смещение по оси. Величины  и  считаются всюду измеримыми по Борелю. В даном случае, если  дважды дифференцируема, имеет ограниченные вторые производные при , то

 , (23.3.22)

где  – некоторый случайный вектор, причем .

Поскольку вторые производные функции  ограничены, то , а величины , ,  следует выбирать так, чтобы

а) ,                                                  б) ,

в) ,                                             г) .

Если , то условия сходимости имеют вид

а) , , б) , в) .      (23.3.23)

Типичным примером последовательности, удовлетворяющей условию (23.3.23), является гармонический ряд

 .

23.4 Прямые методы. Методы случайного поиска. Статистические методы поиска нелинейного программирования

С помощью метода СКГ можно решать задачи не только стохастического, а и нелинейного программирования, в которых по каким-то обстоятельствам вычислить значения  трудно (или невозможно). В случае, если неизвестен аналитический вид функции , то вычислить непрерывные производные  невозможно и тогда используют разностный аналог градиента

 ,         (23.3.24)

где  – орт -й оси;  – смещение вдоль -й оси. Если  – достаточно велико , то вычисление численного значения градиента требует больших затрат. В этом случае отказываются от использования направления градиента и используют любое допустимое направление  такое, что угол между  и  меньше 90°. В частности, оказывается целесообразным использовать методы случайного поиска, которые представляют собой частный случай метода СКГ.

Рассмотрим случайный вектор  с независимыми и равномерно распределенными на интервале [–1, 1] компонентами и положим

 ,                  (23.3.25)

где  – серия независимых наблюдений вектора в -й итерации ; . Случайные величины ,  считаются всюду измеримыми по Борелю. Нетрудно показать, что

 ,                 (23.3.26)

где  – некоторый случайный вектор, причем . Итак для минимизации  можно применить метод СКГ вида в котором вектор  вычисляется в соответствии с (8.3.25). Поскольку вторые производные функции  считаются ограниченными, то  и величины , ,  следует выбирать так, чтобы выполнялись условия

 , ,

 , .

В этом случае последовательность  будет сходиться к точке минимума .