Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Учебное пособие по математике для магистров.doc
Скачиваний:
2
Добавлен:
01.07.2025
Размер:
9.51 Mб
Скачать

21.10 Метод секущих.

Метод секущих решения уравнения заключается в приближенной замене функции F в этом уравнении не касательной y = F(xn) + F ′(xn)(xxn), а секущей гиперплоскостью. Например, в одномерном случае — прямой y = F(xn) + (F(xn) – F(xn–1))(xxn) /(xnxn–1) (см. рис. 21.8). Эта замена приводит (в скалярном случае!) к следующему методу решения задачи:

xn+1 = xn 

xnxn–1

f ′(xn) – f ′(xn–1)

f ′(xn), 

который и называется методом секущих. Известно, что для достаточно гладких выпуклых функций порядок сходимости этого метода равен τ, где τ = (√5 + 1)/2 ≈ 1.618 — известная константа (называемая золотым сечением).

Рис. 21.8.

В многомерном случае поступают следующим образом. Пусть xn, xn–1, ..., xnm — уже вычисленные m + 1 итерации. Для каждой компоненты fj′ функции f ′ (j = 1, ..., m) построим в Rm+1 гиперплоскость Sj, проходящую через m + 1 точку (xi, fj′(xi)) (i = nm, ..., n) графика этой компоненты. Пусть P - "горизонтальная" проходящая через нуль гиперплоскость в Rm+1: P = {(x, y) ∈ Rm×R; y = 0}. В качестве xn+1 возьмем точку пересечения гиперплоскостей P и Sj:

xn+1P

(

mj = 1

Sj

)

(в общем положении эта точка единственна).

Несложные рассуждения показывают, что xn+1 можно вычислять так. Пусть α0, ..., αn — решение системы

mi = 0

αif ′(xni) = 0,   

mi = 0

αi = 1. 

Тогда

xn+1 = 

mi = 0

αixni. 

Затем описанные действия повторяются для точек xn+1, xn, ..., xnm+1.

Отметим, что поскольку на каждом шаге в системе меняется лишь один столбец, то ее решение на каждом шаге можно обновлять с помощью специальной процедуры, не требующей большого объема вычислений.

Отметим, что метод секущих, в отличие от ранее рассматривавшихся методов, не является одношаговым в том смысле, что для вычисления следующей итерации ему не достаточно информации, полученной на предыдущем шаге — нужна информация, полученная на m + 1 предыдущих шагах. Такие методы называются многошаговыми. В следующем параграфе мы рассмотрим ряд таких методов. Методы же Ньютона и градиентный являются одношаговыми: для вычисления xn+1 требуется знать поведение функции и ее производных только в точке xn.

21.11 Квазиньютоновские методы. Методы переменной метрики.

Введем в пространстве Rm новое скалярное произведение 〈·,·〉 формулой 〈x, y〉 = (Sx, y), где S — самосопряженный положительно определенный оператор на Rm. Оно естественно порождает новую норму |||x||| = 〈x, y1/2 и метрику на Rm. Операция взятия градиента дифференцируемой функции, как легко видеть, не инвариантна относительно скалярного произведения (метрики): градиент 〈f 〉′ функции f относительно нового скалярного произведения связан со старым градиентом f ′ соотношением

f 〉′(x) = S–1f ′(x).

Соответственно градиентный метод в новой метрике имеет вид

xn+1 = xn – αS–1f ′(xn).

Естественно желание подбирать оператор S с целью ускорения сходимости. Например, если f квадратична: f(x) = (Ax, x)/2 + (b, x) + c, то метод имеет вид

xn+1 = xn – αS–1(Axn + b) = xn –α(S–1Axn + S–1

и является градиентным методом в старой метрике для функции f1 = (S–1Ax, x)/2 + (S–1b, x) + c. При оптимальном выборе шага α его скорость сходимости линейна со знаменателем q = (Λ – λ)/(Λ + λ), где Λ и λ — максимальное и минимальное собственные значения оператора S–1A. Поэтому желательно сделать их разброс минимальным.

В методе оператор S можно менять на каждом шаге с той же целью ускорения сходимости. Такие методы называют иногда методами переменных направлений или переменной метрики.

В общем случае неквадратичной функции f в оптимальным выбором в качестве S будет выбор Sn = f ′′(xn). Тогда превращается просто в метод Ньютона со всеми присущими ему недостатками и достоинствами. С целью уменьшения объема вычислительной работы часто поступают следующим образом. Метод записывают в виде

xn+1 = xnGnf ′(xn),

а операторы Gn пытаются вычислять так, чтобы максимально использовать уже полученную информацию при минимальном объеме вычислений и, главное, стремясь, чтобы

Gn – [f ′′(xn)]–1 → Θ при n → ∞.

Методы, получающиеся таким способом часто называют квазиньютоновскими.

Задача.  Докажите, что если fC2, x* - невырожденная точка минимума функции f, а последовательность операторов Gn удовлетворяет условию, то метод локально сверхлинейно сходится.

Построение операторов Gn, как правило, укладывается в следующую общую схему. Для того, чтобы ее оправдать, заметим, что для квадратичной функции f и итераций xn, определяемых формулой

xn+1 = xn – αnGnf ′(xn),

имеет место соотношение

αnsn = A–1φn, т. е. αnsn = [f ′′(xn)]–1φn,

где sn = –Gnf ′(xn), φn = f ′(xn+1) – f ′(xn).

Поэтому представляется естественным, чтобы операторы Gn+1, которые должны аппроксимировать [f ′′(xn)]–1, должны удовлетворять аналогу условия, а именно, т. н. квазиньютоновскому условию:

αnsn = Gn+1φn.

При этом стремятся также к тому, чтобы Gn+1 получалось из Gn в результате коррекций, не требующих большого объема вычислений.

Примером метода, построенного на этом пути, может служить один из наиболее эффективных среди квазиньютоновских методов метод Бройдена — Флетчера — Шенно, задаваемый формулой, в которой

Gn+1 = Gn + [γnsn(sn)* – snn)*GnGnφn(sn)*]/(sn, φn),

где

γn = αn + (Gnφn, φn)/(sn, φn),

а "*" означает операцию транспонирования, в частности, (sn)* — вектор-строка. Шаг αn в этом методе часто выбирают как в методе наискорейшего спуска в направлении sn:

αn = argminα[0, ∞) f(xn + αsn).

Для квадратичных функций метод Бройдена — Флетчера — Шенно конечен (выходит на точное решение не более, чем за m шагов). Для неквадратичных же функций он при достаточно общих условиях локально сверхлинейно сходится.

Число различных вариантов и модификаций квазиньютоновских методов весьма велико.