Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Koch_Mathematik fur das Ingenieurstudium.pdf
Скачиваний:
106
Добавлен:
21.02.2016
Размер:
17.74 Mб
Скачать

10.6 Numerische Verfahren

417

Definition 10.23 (Ableitung vektorwertiger Funktionen, Jacobi-Matrix)

Unter der Ableitung einer vektorwertigen Funktion f versteht man die von x und y abhängige Matrix

J

 

x, y

 

f1

 

x, y

 

f1,x

x, y

f1,y

x, y

 

.

(

) = Œ

f2

(x, y)

‘ = Œ

f2,x

(x, y)

f2,y

(x, y)

 

 

(

)

 

( )

 

( )

 

Sie enthält alle partiellen Ableitungen der Komponenten f1 und f2 von f. Diese Matrix nennt man auch Jacobi-Matrix.

10.6 Numerische Verfahren

Die numerischen Verfahren für Funktionen mit mehreren Variaben sind sehr vielfältig, ihre Bedeutung für Anwendungen ist immens. Moderne Systeme hängen in aller Regel von mehr als einem Parameter oder einem Systemzustand ab. Schon ist man mittendrin im Anwendungsbereich von Funktionen mit mehreren Variaben.

10.6.1 Mehrdimensionales Newton-Verfahren

Das Newton-Verfahren hat große Bedeutung bei der numerischen Lösung von nichtlinearen Gleichungen. So liegt es nahe, dass auch für mehrdimensionale Probleme eine Variante entwickelt worden ist. Wir betrachten die Funktion

f(x, y) = Πf1(x, y) , f2(x, y)

von der wir eine Nullstelle suchen. Wie im Eindimensionalen benötigt man einen Startwert (x˜0, y˜0) für die Nullstelle. Die Rolle der Tangente nimmt die Tangentialebene ein. An der Stelle (x˜0, y˜0) legt man die Tangentialebene an f1 und auch an f2 an:

 

 

 

 

 

 

 

 

 

 

 

 

x

x˜0

 

g1

(

x, y

) =

f1

(

x˜0, y˜0

) +

f1

(

x˜0, y˜0

) Œ

y

y˜0

g2

x, y

f2

x˜0, y˜0

f2

x˜0, y˜0

x

x˜0

(

) =

(

) +

(

) Œ

y

y˜0

 

 

 

 

 

 

 

Die Schnitte der beiden Tangentialebenen mit der x-y-Ebene ergeben zwei Geraden:

f1(x˜0, y˜0) Œ

x

=

f1(x˜0, y˜0) Œ

x˜0

‘ − f1(x˜0, y˜0)

y

y˜0

f2(x˜0, y˜0) Œ

x

=

f2(x˜0, y˜0) Œ

x˜0

‘ − f2(x˜0, y˜0)

y

y˜0

418

10 Funktionen mit mehreren Variablen

Diese beiden Geradengleichungen kann man mithilfe der Jacobi-Matrix in einer Gleichung zusammenfassen:

J

 

x˜0, y˜0

 

x

 

J

 

x˜0, y˜0

 

x˜0

 

f1

x˜0, y˜0

 

.

(

) Œ

y

‘ =

(

) Œ

y˜0

‘ − Œ

f2

(x˜0

, y˜0)

 

 

 

 

 

 

 

(

)

 

Der Schnittpunkt der beiden Schnittgeraden ist der neue Näherungswert (x˜1, y˜1). Wir

x

lösen also, sofern die Inverse der Jacobi-Matrix existiert, nach Œ y ‘ auf:

Œ

x

‘ = Œ

x˜0

‘ − J−1(x˜0, y˜0) f(x˜0, y˜0).

y

y˜0

Diese Stelle nennen wir (x˜1, y˜1). Sie dient als Startwert für die nächste Iteration. In dieser Formel wird die starke Analogie zum eindimensionalen Newton-Verfahren deutlich. Ein Schritt des Newton-Verfahrens ist nur durchführbar, falls die Jacobi-Matrix regulär ist, also eine Determinante ungleich null besitzt.

Definition 10.24 (Mehrdimensionales Newton-Verfahren)

Mit dem mehrdimensionalen Newton-Verfahren kann man eine Nullstelle einer vektorwertigen Funktion f näherungsweise berechnen:

(1)Finde einen geeigneten Startwert (x˜0, y˜0).

(2)Berechne Näherungswerte (x˜1, y˜1), (x˜2, y˜2), . . . mit der Iterationsvorschrift

 

x˜k

 

1

 

x˜k

 

J−1

 

x˜k, y˜k

 

f

 

x˜k, y˜k

 

, k

 

0, 1, 2, . . .

Œ

y˜k

+1

‘ = Œ

y˜k

‘ −

(

)

(

)

=

 

+

 

 

 

 

 

 

 

 

(3) Führe die Iteration so lange durch, bis die gewünschte Genauigkeit erreicht ist.

Beispiel 10.28 (Mehrdimensionales Newton-Verfahren)

Wir suchen die Nullstellen der Funktion

−ex y + 2

f(x, y) = Œ x2 + 2y2 − 6 .

Setzt man die beiden Funktionskomponenten null, so ergeben sich zwei Schnittkurven. Die Schnittpunkte dieser Schnittkurven wiederum sind die gesuchten Lösungen. Aus dem Schaubild ergeben sich als geeignete Startwerte für das Newton-Verfahren

ex + y = 2

y

 

 

 

 

2

x2 + 2y2 = 6

 

 

1

 

 

 

 

−3 −2

−1

1

2

3

x

 

 

−1

 

 

 

 

 

−2

 

 

 

 

(x˜0, y˜0) = (−2, 2), (x˜0, y˜0) = (2, −2).

10.6 Numerische Verfahren

 

 

 

 

 

 

 

 

 

 

 

 

419

Die weiteren Näherungswerte berechnen wir mit der Formel

 

 

 

 

 

 

x˜k 1

 

x˜k

 

ex˜k

1 −1

e2x˜k

y˜2k

+

2 .

Œ

 

+1

‘ = Œ

 

‘ − Œ

 

 

‘ Œ

˜k

+

k

 

 

y˜k

+

y˜k

xk

yk

x

y

6

 

 

 

 

 

 

 

 

 

 

Die Tabelle enthält die einzelnen Zahlenwerte. Korrekte Zi ern sind rot dargestellt. Das Verfahren konvergiert auch im Zweidimensionalen rasch gegen die Lösungen.

k

x˜k

y˜k

x˜k

y˜k

 

 

 

 

 

 

 

0

2.0000000000

2.0000000000

2.0000000000

2.0000000000

 

1

1.0325348945

1.7337325527

1.4753420374

1.5123289812

 

2

0.9322439726

1.6081829570

1.2728168227

1.4869832894

 

3

0.9254963413

1.6036743291

1.2005405988

1.4896135114

 

4

0.9254898387

1.6036627698

1.2497964156

1.4896323349

Ì

 

 

 

10.6.2 Gradientenverfahren

In diesem Abschnitt betrachten wir Minimierungsprobleme, also Fragestellungen der Art

f(x, y) → min, (x, y) D.

Man spricht hierbei auch von Optimierung ohne Nebenbedingungen. Dies bedeutet, dass die Lösung ohne Einschränkung im gesamten Definitionsbereich D gesucht werden kann. Eine Möglichkeit dazu ist, die notwendigen Bedingungen auszunutzen. Dies führt auf eine Nullstellensuche in der Ableitung. Eine andere Möglichkeit wird im Folgenden dargestellt. Dabei wird ausgenutzt, dass der Gradient einer Funktion als Richtungsvektor interpretiert in Richtung des steilsten Anstieges zeigt. Der negative Gradient ist also immer eine Abstiegsrichtung. Wir beginnen mit einem Startwert (x˜0, y˜0) und bewegen uns ein Stück in Richtung des negativen Gradienten:

Œ

x

‘ = Œ

x˜0

‘ − t f(x˜0, y˜0), t > 0.

y

y˜0

Nun ist noch die Frage, wie weit genau in diese Richtung zu gehen ist. Dazu kann man etwa die Folge

t = 1, 1, 1, 1, . . .

2 4 8

heranziehen und für jeden Wert t testen, ob der Funktionswert an der neuen Stelle kleiner ist als an der alten:

f(x, y) < f(x˜0, y˜0).

Sobald diese Bedingung erfüllt ist, hat man ein geeigneten Wert t gefunden. Diesen Vorgang wiederholt man, bis keine wesentliche Änderung der Minimalstelle mehr eintritt.

420

10 Funktionen mit mehreren Variablen

Definition 10.25 (Gradientenverfahren)

Mit dem Gradientenverfahren kann man ein Minimum einer Funktion f in mehreren Variablen näherungsweise berechnen:

(1)Finde einen geeigneten Startwert (x˜0, y˜0).

(2)Berechne Näherungswerte (x˜1, y˜1), (x˜2, y˜2), . . . mit der Iterationsvorschrift

 

x˜k

 

1

 

x˜k

 

t

 

f

 

x˜k, y˜k

 

,

k

 

0, 1, 2, . . .

Œ

y˜k

+1

‘ = Œ

y˜k

‘ −

 

(

)

=

 

+

 

 

 

 

 

 

 

 

Halbiere dabei ausgehend von t = 1 den Parameter t in jedem Schritt so lange, bis

f(x˜k+1, y˜k+1) < f(x˜k, y˜k).

(3)Führe die Iteration so lange durch, bis die gewünschte Genauigkeit erreicht ist.

Beispiel 10.29 (Gradientenverfahren)

Wir betrachten die Funktion

f

 

x, y

8

2

1

 

3

2

2

)

 

5

 

5 y

5 x

 

2 e−(x

+2y

 

(

 

) =

 

+

 

 

 

 

 

 

 

 

und suchen ein Minimum mithilfe des Gradientenverfahrens. Das Schaubild zeigt einige Höhenlinien in grau. Als Startwert wählen wir die Stelle

(x˜0, y˜0) = (1, 1).

Für den Gradienten ergibt sich

fx

x, y

)

=

1

+

3 x e−(x

2

+2y

2

)

5

 

 

 

(

2

6 y e−(

x2

+

2y2

)

fy

x, y

 

 

 

 

 

 

 

 

 

 

 

 

5

 

 

 

 

 

 

(

)

=

 

 

+

 

 

 

 

 

 

 

Die weiteren Näherungswerte berechnen wir mit der Formel

Œ

x˜k 1

‘ = Œ

x˜k

‘ −

tk

f

x˜k, y˜k .

y˜k

+1

y˜k

 

+

 

 

(

)

Die Tabelle enthält die einzelnen Zahlenwerte. Es ist erkennbar, dass die Schrittweite t von Iteration zu Iteration variiert. Die Höhenlinien in rot verlaufen durch die Näherungswerte des Gradientenverfahrens. Man sieht deutlich, dass die Gradienten senkrecht auf den Höhenlinien stehen. Das Verfahren konvergiert, wenn auch nicht allzu schnell, gegen die Minimumstelle.

 

 

y

 

 

 

 

1

 

 

 

−1

 

1

x

 

 

 

 

 

−1

 

 

k

x˜k

y˜k

 

tk

0

1.00000

1.00000

 

1

1 05063

0

.

30127

1

 

.

 

 

 

.000

2

0.37898

0.59862

1.000

3

0.23850

0.03893

0.500

4

0.00155

0.12892

0.500

5

0.05042

0.04186

0.250

6

0.06283

0.07944

0.250

7

0.06648

0.06223

0.250

8

0.06722

0.07001

 

. . .

 

 

 

 

 

 

Ì

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]