- •1 Grundlagen
- •1.1 Logik und Mengen
- •1.1.1 Aussagenlogik
- •1.1.2 Mengen
- •1.2 Zahlen
- •1.2.1 Natürliche Zahlen
- •1.2.2 Ganze Zahlen
- •1.2.3 Rationale Zahlen
- •1.2.4 Reelle Zahlen
- •1.2.5 Ordnung
- •1.2.6 Intervalle
- •1.2.7 Betrag und Signum
- •1.2.8 Summe und Produkt
- •1.3 Potenz und Wurzel
- •1.3.1 Potenzen
- •1.3.2 Potenzgesetze
- •1.3.3 Wurzeln
- •1.3.4 Binomischer Satz
- •1.4 Trigonometrie
- •1.4.1 Trigonometrie im rechtwinkligen Dreieck
- •1.5 Gleichungen und Ungleichungen
- •1.5.1 Lineare Gleichungen
- •1.5.2 Potenzgleichungen
- •1.5.3 Quadratische Gleichungen
- •1.5.4 Wurzelgleichungen
- •1.5.5 Ungleichungen
- •1.6 Beweise
- •1.6.1 Direkter Beweis
- •1.6.2 Indirekter Beweis
- •1.6.3 Konstruktiver Beweis
- •1.6.4 Vollständige Induktion
- •1.7 Aufgaben
- •2 Lineare Gleichungssysteme
- •2.1 Einführung
- •2.2 Gauß-Algorithmus
- •2.2.1 Äquivalenzumformungen
- •2.2.2 Vorwärtselimination
- •2.2.3 Rückwärtseinsetzen
- •2.2.4 Gaußsches Eliminationsverfahren
- •2.2.5 Rechenschema
- •2.3 Spezielle Typen linearer Gleichungssysteme
- •2.3.1 Lineare Gleichungssysteme ohne Lösung
- •2.3.2 Lineare Gleichungssysteme mit unendlich vielen Lösungen
- •2.3.3 Systeme mit redundanten Gleichungen
- •2.3.4 Unterbestimmte lineare Gleichungssysteme
- •2.3.5 Überbestimmte lineare Gleichungssysteme
- •2.3.6 Homogene lineare Gleichungssysteme
- •2.3.7 Lineare Gleichungssysteme mit Parametern
- •2.4 Numerische Verfahren
- •2.4.1 Jakobi-Iteration
- •2.4.2 Gauß-Seidel-Iteration
- •2.5 Anwendungen
- •2.5.1 Produktion
- •2.5.2 Netzwerkanalyse in der Elektrotechnik
- •2.6 Aufgaben
- •3 Vektoren
- •3.2 Vektorrechnung ohne Koordinaten
- •3.2.1 Addition und Subtraktion
- •3.2.2 Skalare Multiplikation
- •3.2.3 Skalarprodukt
- •3.2.4 Vektorprodukt
- •3.2.5 Spatprodukt
- •3.2.6 Lineare Abhängigkeit und Komponentenzerlegung
- •3.3 Vektoren in Koordinatendarstellung
- •3.3.1 Koordinatendarstellung
- •3.3.2 Addition und Subtraktion
- •3.3.3 Skalare Multiplikation
- •3.3.4 Skalarprodukt
- •3.3.5 Vektorprodukt
- •3.3.6 Spatprodukt
- •3.3.7 Lineare Abhängigkeit und Komponentenzerlegung
- •3.4 Punkte, Geraden und Ebenen
- •3.4.1 Kartesisches Koordinatensystem
- •3.4.2 Parameterdarstellung von Geraden und Ebenen
- •3.4.3 Parameterfreie Darstellung von Geraden und Ebenen
- •3.4.4 Schnitte von Geraden und Ebenen
- •3.4.5 Abstände
- •3.4.6 Winkel
- •3.5 Anwendungen
- •3.5.1 Kraft
- •3.5.2 Arbeit
- •3.5.3 Drehmoment
- •3.6 Aufgaben
- •4 Matrizen
- •4.2 Rechnen mit Matrizen
- •4.2.1 Addition, Subtraktion und skalare Multiplikation
- •4.2.2 Multiplikation von Matrizen
- •4.3 Determinanten
- •4.3.1 Determinante einer (2,2)-Matrix
- •4.3.2 Determinante einer (3,3)-Matrix
- •4.3.3 Determinante einer (n,n)-Matrix
- •4.4 Inverse Matrix
- •4.4.1 Invertierbare Matrizen
- •4.4.2 Inverse einer (2,2)-Matrix
- •4.4.3 Inverse Matrix und lineares Gleichungssystem
- •4.5 Lineare Abbildungen
- •4.5.1 Matrizen als Abbildungen
- •4.5.2 Kern, Bild und Rang
- •4.6 Eigenwerte und Eigenvektoren
- •4.7 Numerische Verfahren
- •4.7.1 Potenzmethode
- •4.8 Anwendungen
- •4.9 Aufgaben
- •5 Funktionen
- •5.1 Einführung
- •5.1.2 Wertetabelle
- •5.1.3 Schaubild
- •5.1.4 Explizite und implizite Darstellung
- •5.1.6 Funktionsschar
- •5.1.7 Verkettung von Funktionen
- •5.2 Polynome und rationale Funktionen
- •5.2.1 Potenzfunktionen mit ganzen Hochzahlen
- •5.2.2 Polynome
- •5.2.3 Gebrochenrationale Funktionen
- •5.3 Eigenschaften
- •5.3.1 Symmetrie
- •5.3.2 Periode
- •5.3.3 Monotonie
- •5.3.4 Beschränktheit
- •5.4 Sinus, Kosinus und Tangens
- •5.4.2 Eigenschaften
- •5.5 Grenzwert und Stetigkeit
- •5.5.1 Zahlenfolgen
- •5.5.2 Grenzwert einer Funktion
- •5.5.3 Stetigkeit
- •5.5.4 Asymptotisches Verhalten
- •5.6.1 Exponentialfunktionen
- •5.6.2 Die e-Funktion
- •5.6.3 Hyperbelfunktionen
- •5.7 Umkehrfunktionen
- •5.7.1 Das Prinzip der Umkehrfunktion
- •5.7.2 Wurzelfunktionen
- •5.7.3 Arkusfunktionen
- •5.7.4 Logarithmusfunktionen
- •5.7.5 Area-Funktionen
- •5.8 Numerische Verfahren
- •5.8.1 Berechnung von Funktionswerten
- •5.8.2 Bisektionsverfahren
- •5.9 Anwendungen
- •5.9.1 Messwerte
- •5.9.2 Industrieroboter
- •5.10 Aufgaben
- •6.1 Steigung und Ableitungsfunktion
- •6.1.3 Ableitungsfunktion
- •6.1.5 Höhere Ableitungen
- •6.2 Ableitungstechnik
- •6.2.1 Ableitungsregeln
- •6.2.2 Ableitung der Umkehrfunktion
- •6.2.5 Zusammenfassung
- •6.3 Regel von Bernoulli-de l’Hospital
- •6.4 Geometrische Bedeutung der Ableitungen
- •6.4.1 Neigungswinkel und Schnittwinkel
- •6.4.2 Monotonie
- •6.4.3 Krümmung
- •6.4.4 Lokale Extrema
- •6.4.5 Wendepunkte
- •6.4.6 Globale Extrema
- •6.5 Numerische Verfahren
- •6.5.2 Newton-Verfahren
- •6.5.3 Sekantenverfahren
- •6.6 Anwendungen
- •6.6.1 Fehlerrechnung
- •6.6.2 Extremwertaufgaben
- •6.7 Aufgaben
- •7 Integralrechnung
- •7.1 Flächenproblem
- •7.1.1 Integralsymbol
- •7.1.2 Integral als Grenzwert von Summen
- •7.1.3 Bestimmtes Integral
- •7.2 Zusammenhang von Ableitung und Integral
- •7.2.1 Integralfunktion
- •7.2.2 Stammfunktion
- •7.2.3 Bestimmtes Integral und Stammfunktion
- •7.2.4 Mittelwertsatz der Integralrechnung
- •7.3 Integrationstechnik
- •7.3.1 Integrationsregeln
- •7.3.2 Integration durch Substitution
- •7.3.3 Partielle Integration
- •7.3.4 Gebrochenrationale Funktionen
- •7.3.5 Uneigentliche Integrale
- •7.4 Länge, Flächeninhalt und Volumen
- •7.4.1 Flächeninhalte
- •7.4.2 Bogenlänge
- •7.4.3 Rotationskörper
- •7.5 Numerische Verfahren
- •7.5.1 Trapezregel
- •7.5.2 Romberg-Verfahren
- •7.6 Anwendungen
- •7.6.2 Schwerpunkte und statische Momente ebener Flächen
- •7.7 Aufgaben
- •8 Potenzreihen
- •8.1 Unendliche Reihen
- •8.2 Potenzreihen und Konvergenz
- •8.3 Taylor-Reihen
- •8.4 Eigenschaften
- •8.5 Numerische Verfahren
- •8.5.1 Berechnung von Funktionswerten
- •8.6 Anwendungen
- •8.6.1 Normalverteilung in der Statistik
- •8.7 Aufgaben
- •9 Kurven
- •9.1 Parameterdarstellung
- •9.2 Kegelschnitte
- •9.3 Tangente
- •9.4 Krümmung
- •9.5 Bogenlänge
- •9.6 Numerische Verfahren
- •9.6.1 Bézier-Kurve
- •9.7 Anwendungen
- •9.7.1 Mechanik
- •9.7.2 Straßenbau
- •9.8 Aufgaben
- •10 Funktionen mit mehreren Variablen
- •10.1.2 Schaubild einer Funktion mit mehreren Variablen
- •10.1.3 Schnittkurven mit Ebenen und Höhenlinien
- •10.2 Grenzwert und Stetigkeit
- •10.2.1 Grenzwert einer Funktion mit mehreren Variablen
- •10.2.2 Stetigkeit
- •10.3.3 Gradient und Richtungsableitung
- •10.3.5 Höhere partielle Ableitungen
- •10.3.6 Extremwerte
- •10.4 Ausgleichsrechnung
- •10.4.1 Methode der kleinsten Fehlerquadrate
- •10.4.2 Ausgleichsrechnung mit Polynomen
- •10.4.3 Lineare Ausgleichsrechnung
- •10.5 Vektorwertige Funktionen
- •10.6 Numerische Verfahren
- •10.6.1 Mehrdimensionales Newton-Verfahren
- •10.6.2 Gradientenverfahren
- •10.7 Anwendungen
- •10.7.1 Fehlerrechnung
- •10.8 Aufgaben
- •11 Komplexe Zahlen und Funktionen
- •11.1.1 Komplexe Zahlen
- •11.1.2 Gaußsche Zahlenebene
- •11.1.3 Polarkoordinaten
- •11.1.4 Exponentialform
- •11.2 Rechenregeln
- •11.2.1 Gleichheit
- •11.2.2 Addition und Subtraktion
- •11.2.3 Multiplikation und Division
- •11.2.4 Rechnen mit der konjugiert komplexen Zahl
- •11.2.5 Rechnen mit dem Betrag einer komplexen Zahl
- •11.3 Potenzen, Wurzeln und Polynome
- •11.3.1 Potenzen
- •11.3.2 Wurzeln
- •11.3.3 Fundamentalsatz der Algebra
- •11.4 Komplexe Funktionen
- •11.4.1 Ortskurven
- •11.4.2 Harmonische Schwingungen
- •11.4.3 Transformationen
- •11.5 Anwendungen
- •11.5.1 Komplexe Wechselstromrechnung
- •11.6 Aufgaben
- •12.1 Einführung
- •12.1.3 Richtungsfeld und Orthogonaltrajektorie
- •12.2.1 Separation der Variablen
- •12.2.2 Lineare Substitution
- •12.3.3 Allgemeine Eigenschaften
- •12.4.1 Allgemeine Form
- •12.4.2 Freie Schwingung
- •12.4.3 Harmonisch angeregte Schwingung
- •12.4.4 Frequenzgänge
- •12.5.1 Eliminationsverfahren
- •12.5.2 Zustandsvariablen
- •12.5.5 Stabilität
- •12.6 Numerische Verfahren
- •12.6.1 Polygonzugverfahren von Euler
- •12.7 Anwendungen
- •12.7.1 Temperaturverlauf
- •12.7.2 Radioaktiver Zerfall
- •12.7.3 Freier Fall mit Luftwiderstand
- •12.7.4 Feder-Masse-Schwinger
- •12.7.5 Pendel
- •12.7.6 Wechselstromkreise
- •12.8 Aufgaben
- •13 Fourier-Reihen
- •13.1 Fourier-Analyse
- •13.1.1 Periodische Funktionen
- •13.1.2 Trigonometrische Polynome
- •13.1.3 Fourier-Reihe
- •13.1.4 Satz von Fourier
- •13.1.5 Gibbssches Phänomen
- •13.2 Komplexe Darstellung
- •13.2.1 Komplexe Fourier-Reihe
- •13.2.3 Spektrum
- •13.2.4 Minimaleigenschaft
- •13.3 Eigenschaften
- •13.3.1 Symmetrie
- •13.3.2 Integrationsintervall
- •13.3.3 Mittelwert
- •13.3.4 Linearität
- •13.3.5 Ähnlichkeit und Zeitumkehr
- •13.3.6 Zeitverschiebung
- •13.4 Aufgaben
- •14 Verallgemeinerte Funktionen
- •14.1 Heaviside-Funktion
- •14.2 Dirac-Distribution
- •14.3 Verallgemeinerte Ableitung
- •14.4 Faltung
- •14.5 Aufgaben
- •15 Fourier-Transformation
- •15.1 Integraltransformation
- •15.1.4 Transformation gerader und ungerader Funktionen
- •15.1.5 Darstellung mit Amplitude und Phase
- •15.2 Eigenschaften
- •15.2.1 Linearität
- •15.2.2 Zeitverschiebung
- •15.2.3 Amplitudenmodulation
- •15.2.4 Ähnlichkeit und Zeitumkehr
- •15.3 Inverse Fourier-Transformation
- •15.3.2 Vertauschungssatz
- •15.3.3 Linearität
- •15.4.3 Multiplikationssatz
- •15.4.5 Faltung
- •15.5 Periodische Funktionen
- •15.5.1 Fourier-Transformation einer Fourier-Reihe
- •15.5.3 Grenzwertbetrachtung
- •15.6 Anwendungen
- •15.6.1 Lineare zeitinvariante Systeme
- •15.7 Aufgaben
- •16 Laplace-Transformation
- •16.1 Bildbereich
- •16.2 Eigenschaften
- •16.2.1 Linearität
- •16.2.2 Ähnlichkeit
- •16.2.3 Zeitverschiebung
- •16.2.4 Dämpfung
- •16.3.2 Integration
- •16.3.3 Faltung
- •16.3.4 Grenzwerte
- •16.4 Transformation periodischer Funktionen
- •16.5 Rücktransformation
- •16.7 Anwendungen
- •16.7.1 Regelungstechnik
- •16.8 Aufgaben
- •17 z-Transformation
- •17.1 Transformation diskreter Signale
- •17.1.2 z-Transformation und Laplace-Transformation
- •17.2 Eigenschaften
- •17.2.1 Linearität
- •17.2.2 Verschiebung
- •17.2.3 Dämpfung
- •17.4 Anwendungen
- •17.4.1 Zeitkomplexität von Quicksort
- •A Anhang
- •A.1 Ableitungsregeln
- •A.2 Ableitungen
- •A.3 Potenzreihen
- •A.4 Integralregeln
- •A.5 Integrale
- •A.6 Fourier-Reihen
- •A.7 Fourier-Transformationen
- •A.8 Laplace-Transformationen
- •A.9 Griechisches Alphabet
- •A.10 Bedeutende Mathematiker
- •Literaturverzeichnis
- •Sachwortverzeichnis
10.4 Ausgleichsrechnung |
409 |
10.4 Ausgleichsrechnung
Bei der Ausgleichsrechnung besteht die Aufgabe darin, eine Anzahl von Messpunkten durch eine Modellfunktion anzunähern. Dabei sollen die Abweichungen zwischen den Messpunkten und dem Modell ausgeglichen werden. Gute Verfahren minimieren diese Abweichungen. Wir nehmen an, es liegen n Messpunkte (x1, y1), . . . , (xn, yn) vor. Eine geeignete Modellfunktion f soll diese Punkte möglichst gut annähern. Hat die Modellfunktion genügend freie Parameter, so kann man die Messpunkte exakt durchlaufen. Dann spricht man von Interpolation. Eine einfache Variante der Interpolation haben wir in Abschnitt 5.9.1 kennengelernt. Hat die Modellfunktion jedoch weniger freie Parameter als Messpunkte vorliegen, so kann man die Messpunkte in der Regel nur näherungsweise erreichen. In diesem Fall spricht man von Approximation oder Ausgleichsrechnung.
10.4.1 Methode der kleinsten Fehlerquadrate
Wir machen für diesen Abschnitt einen gedanklichen Sprung. Waren bislang die Funktionen mit mehreren Variablen mit f(x1, . . . , xn) bezeichnet, so betrachten wir nun Funktionen f(c1, . . . , cm). Zu gegebenen Messpunkten (x1, y1), . . . , (xn, yn) und einer ausgewählten Modellfunktion f bestehen die Abweichungen
di = f(xi) − yi, i = 1, . . . , n.
Es stellt sich die Frage, wie diese Abweichungen möglichst klein werden können. Ein möglicher Ansatz ist, die Abweichungen aufzusummieren und diese Summe zu minimieren:
nn
d = Qdi = Q(f(xi) − yi) → min .
i=1 i=1
Ein wesentlicher Nachteil dieses Ansatzes ist, dass sich positive und negative Abweichungen gegenseitig aufheben. Dadurch ist keine hohe Approximationsgüte zu erwarten. In einem zweiten Ansatz könnte man die Beträge der Abweichungen aufsummieren und über die Modellparameter minimieren:
nn
d = QSdiS = QSf(xi) − yiS → min .
i=1 i=1
Dadurch werden alle Abweichungen berücksichtigt. Allerdings ist die Minimierung dieser Summe nicht ganz einfach, da sie Beträge enthält. Terme mit Beträgen ziehen in der Regel Fallunterscheidungen nach sich. Dieses Vorgehen ist also nicht elegant. In einem dritten Ansatz nehmen wir die Quadrate der Abweichungen:
nn
d = Qd2i = Q(f(xi) − yi)2 → min .
i=1 i=1
Dadurch werden wieder alle Abweichungen gleichermaßen berücksichtigt, und die Summe enthält keine störenden Beträge mehr. Dieses Vorgehen nennt man die Methode der kleinsten Fehlerquadrate. Sie geht auf Johann Carl Friedrich Gauß zurück.
410 |
10 Funktionen mit mehreren Variablen |
Definition 10.16 (Methode der kleinsten Fehlerquadrate)
Bei der Gaußschen Methode der kleinsten Fehlerquadrate minimiert man die Summe der Quadrate der Di erenzen zwischen den Messwerten yi und den Funktionswerten an den Messstellen f(xi) für i = 1, 2, . . . , n:
nn
d = Qd2i = Q(f(xi) − yi)2 → min .
i=1 i=1
y |
|
|
f(x) |
yn |
|
|
|
|
dn |
|
|
|
|
|
|
|
|
di |
|
yi |
|
|
|
y1 |
d1 |
|
|
|
x1 |
xi xn |
x |
Die Minimierung bei der Methode der kleinsten Fehlerquadrate läuft dabei über die Modellparameter c1, . . . , cm der Funktion f(x) = f(x, c1, . . . , cm). Wir werden in den folgenden Abschnitten unterschiedliche Typen von Modellfunktionen im Detail betrachten.
10.4.2 Ausgleichsrechnung mit Polynomen
Wir lösen in diesem Abschnitt Ausgleichsprobleme durch einen polynomialen Ansatz. Wir nehmen an, es liegen n Messpunkte (x1, y1), . . . , (xn, yn) vor. Oftmals ist es aus der Erfahrung heraus möglich, einen groben Zusammenhang zwischen den Messwerten yi und den Messstellen xi anzugeben. In vielen Fällen ist dieser Zusammenhang linear oder quadratisch, aber auch ein Zusammenhang in Form eines Polynoms höheren Grades ist möglich.
Definition 10.17 (Ausgleichspolynom)
Ein Ausgleichspolynom ist ein Polynom vom Grad m, welches die Modellparameter c0 bis cm enthält:
f(x, c0, c1, . . . , cm) = c0 + c1 x + c2 x2 + . . . + cmxm.
Beispiel 10.23 (Ausgleichsgerade)
Wir suchen eine Gerade f(x) = c0 + c1 x, die möglichst gut zu den Punkten
(0 S 0), (1 S 1), (2 S 4)
passt. Zunächst müssen wir einen Weg finden, das Problem mathematisch zu formulieren. Dazu betrachten wir die Abweichungen zwischen der Geraden und den gewünschten Funktionswerten
d0 = f(0)−0, d1 = f(1)−1, d2 = f(2)−4.
y
4
3
2f (x) = c0 + c1 x
1
−1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
|||
1 |
2 |
3 |
4 |
5 |
||||||||||||||
|
Natürlich könnten wir die Gerade so bestimmen, dass jeweils zwei dieser Fehler null werden,
10.4 Ausgleichsrechnung |
411 |
allerdings wird dadurch der Fehler am dritten Punkt relativ groß. Bei der Methode der kleinsten Fehlerquadrate bestimmt man die Gerade so, dass die Summe der Fehlerquadrate
d = d20 + d21 + d22 → min
minimal wird. Die Gesamtabweichung d ist eine Funktion, die nur noch von c0 und c1 abhängt:
d(c0, c1) = c20 + (c0 + c1 − 1)2 + (c0 + 2 c1 − 4)2.
Mit den partiellen Ableitungen nach c0 und c1 ergeben sich die Bedingungen
|
dc0 |
|
c0, c1 |
|
2 c0 |
2 c0 |
c1 |
− |
1 2 c0 |
2 c1 |
− |
4 |
0 |
|
Diese |
dc1 |
(c0, c1) = |
|
+ 2(c0 |
+ c1 |
1) + |
4(c0 |
+ 2 c1 |
4) = |
0 |
||||
|
( |
|
) = |
|
( |
+ |
− |
) + |
( |
+ |
− |
) = |
|
|
|
notwendigen Bedingungen für ein Minimum bilden das lineares Gleichungssystem |
|||||||||||||
|
6 c0 |
+ |
6 c1 |
= |
10 |
|
|
|
|
|
|
|
|
|
|
6 c0 |
10 c1 |
18 |
|
|
|
|
|
|
|
|
das die |
Lösung c0 |
|
1 |
und c1 |
|
2 hat. Die gesuchte Gerade ist f x |
|
1 |
|
2x. |
|
+ |
= − |
3 |
= |
= |
( |
) = − |
3 |
+ |
|
Ì |
|
|
|
|
|
|
|
Die Vorgehensweise aus Beispiel 10.23 lässt sich auf Polynome vom Grad m
f(x) = c0 + c1 x + c2 x2 + . . . + cm xm
verallgemeinern. Zu den Daten
(x1, y1), (x2, y2), . . . , (xn, yn)
bestimmen wir das Polynom so, dass die Summe der Fehlerquadrate
d(c0, c1, . . . , cm) = (f(x1) − y1)2 + (f(x2) − y2)2 + . . . + (f(xn) − yn)2
minimal wird. Die einzelnen Abweichungen lassen sich in einem Gleichungssystem sehr
elegant darstellen:
’ d1 “ ’ 1 x1
–d2 — – 1 x2
–— = –
–— –
” dn • ” 1 xn
. . . x1m |
“ ’ |
c0 |
“ ’ |
y1 |
“ . |
|
. . . x2m |
c1 |
y2 |
||||
m |
— – |
cm |
— |
– |
yn |
— |
. . . xn |
— – |
— |
− – |
— |
||
|
— – |
|
— |
– |
|
— |
|
• ” |
|
• |
” |
|
• |
´¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶´¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¶
d |
A |
c |
y |
Die dabei auftretende Matrix A ist die sogenannte Vandermondesche Matrix, benannt nach Alexandre-Théophile Vandermonde.
Definition 10.18 (Vandermondesche Matrix)
Die Vandermondesche Matrix zu gegebenen Werten x1, . . . , xn und zu gegebenem Grad m besteht aus Potenzen dieser Werte:
’ |
1 |
x |
|
x2 |
|
xm |
“ |
1 |
x2 |
x22 |
x2m |
||||
– |
|
|
1 |
1 |
|
1 |
— |
– |
|
|
|
|
|
— |
|
– |
|
|
|
|
|
|
— |
– |
1 |
x |
|
x2 |
|
xm |
— |
– |
n |
n |
n |
— |
|||
– |
|
|
|
|
|
|
— |
” |
|
|
|
|
|
• |
412 |
10 Funktionen mit mehreren Variablen |
Die Summe der Fehlerquadrate lässt sich auch in Form eines Skalarproduktes darstellen:
d21 + d22 + . . . + d2n = dTd.
Dabei bezeichnet dT den transponierten Vektor von d. Die freien Parameter c0 bis cm können wir in einem Vektor c zusammenfassen. Insgesamt ergibt sich somit die Darstellung
d(c) = dTd = (Ac − y)T (Ac − y) = ‰cTAT − yTŽ (Ac − y) .
Durch Ausmultiplizieren der Klammern erhalten wir
d(c) = cTATAc − cTATy − yTAc + yTy = cTATAc − 2 yTAc + yTy.
In dieser Form lassen sich die partiellen Ableitungen berechnen:
∂d(c) = 2 cTATA − 2 yTA. ∂c
Ohne weiter auf die Details einzugehen, haben wir dabei Di erenziationsregeln für vektorwertige Funktionen verwendet. Nach den notwendigen Bedingungen für ein Minimum müssen die partiellen Ableitungen null sein. Das führt nach Bildung der Transponierten auf die sogenannten Normalengleichungen
∂d c |
2 cTATA = 2 yTA Ô ATAc = ATy. |
∂(c ) = 0 Ô |
Man erkennt, dass die Matrix ATA quadratisch und symmetrisch ist. In der Praxis werden die Normalengleichungen oft mit dem Algorithmus von Gauß gelöst. Allerdings ist bei größeren Systemen oder ungünstigen Messdaten Vorsicht geboten. Numerisch stabilere Ergebnisse erhält man mit der sogenannten QR-Zerlegung, siehe [Golub].
Definition 10.19 (Normalengleichungen für Ausgleichspolynome)
Die Normalengleichungen der Methode der kleinsten Fehlerquadrate zu den Messpunkten (xi, yi) mit i = 1, 2, . . . , n für ein Ausgleichspolynom mit Koe zientenvektor c lauten
ATAc = ATy.
Dabei ist A die Vandermondesche Matrix der Messstellen xi und y der Vektor mit den Messwerten yi.
Bei oberflächlicher Betrachtung der Normalengleichungen könnte man in Versuchung geraten, mit der Matrix AT kürzen zu wollen. Dies ist in aller Regel jedoch nicht möglich, denn bei Matrizen kann aus AB1 = AB2 nicht auf B1 = B2 geschlossen werden. In der Praxis ist für die Berechnung einer Ausgleichsgeraden oder einer Ausgleichsparabel auch folgendes Schema hilfreich:
10.4 Ausgleichsrechnung |
413 |
Bestimmung der Normalengleichungen für Ausgleichspolynome
Zur Bestimmung der Normalengleichungen trägt man die Messpunkte (xi, yi) für i = 1, 2, . . . , n spaltenweise in die Tabelle ein und ergänzt die restlichen Einträge:
|
|
|
|
|
|
xi |
|
yi |
|
|
xi2 |
|
xiyi |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
1 |
|
x1 |
|
y1 |
|
|
x12 |
|
x1y1 |
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
1 |
|
xn |
|
yn |
|
|
|
2 |
|
xnyn |
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
xn |
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
n |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
xi |
|
|
yi |
|
|
|
xi |
|
|
xiyi |
|
|
|
|
|
|
|
|
|
|||
|
∑ |
|
|
|
|
∑ |
|
∑ |
|
|
∑ |
|
∑ |
|
|
|
|
|
|
|
|
T |
A und A |
T |
y: |
|||
Die letzte Zeile der Tabelle enthält dann die Elemente von A |
|
|
||||||||||||||||||||||||||
|
|
T |
|
|
’ |
n |
|
∑ |
xi |
|
∑ |
xi2 |
|
|
“ |
|
T |
’ |
|
|
yi |
“ |
|
|
||||
|
|
|
|
|
xi |
|
xi2 |
|
xi3 |
|
|
|
xiyi |
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∑ |
|
|
|
|
|||||||
|
A A |
|
– |
∑ |
x2 |
|
∑ |
x3 |
|
∑ |
x4 |
|
|
— |
, A y |
– |
∑ |
x2yi |
— . |
|
|
|||||||
|
|
|
|
|
|
– |
i |
|
|
i |
|
i |
|
— |
|
|
– |
|
i |
|
— |
|
|
|||||
|
|
|
|
|
= – |
|
|
|
|
|
|
|
|
|
|
|
— |
|
|
= – |
|
|
|
|
— |
|
|
|
|
|
|
|
|
|
– |
|
|
|
|
|
|
|
|
|
|
|
— |
|
|
– |
|
|
|
|
— |
|
|
|
|
|
|
|
|
– |
∑ |
|
|
∑ |
|
|
|
∑ |
|
|
|
— |
|
|
– |
∑ |
|
|
|
— |
|
|
|
|
|
|
|
|
– |
|
|
|
|
|
|
— |
|
|
– |
|
|
— |
|
|
|||||||
|
|
|
|
|
|
” |
|
|
|
|
|
|
|
• |
|
|
” |
|
|
• |
|
|
Beispiel 10.24 (Normalengleichgungen einer Ausgleichsgerade)
Wir betrachten nochmals die Problemstellung aus Beispiel 10.23. Das überbestimmte lineare Gleichungssystem der Ausgleichsgerade f(x) = c0 + c1 x, die möglichst gut zu den Punkten
0 0 |
, |
(1 S 1) |
, |
|
(2 S 4) |
|
|
|
|
|
|
|
|
|||||
passt, lautet( S ) |
|
|
|
|
|
|
|
|
|
|
|
|||||||
’ |
1 |
0 |
“ |
|
c1 |
|
’ |
0 |
“ . |
|
|
|
|
|
|
|||
1 |
1 |
|
|
1 |
|
|
|
|
|
|
||||||||
– |
1 |
2 |
— Œ |
c0 |
‘ = – |
4 |
— |
|
|
|
|
|
|
|
||||
” |
A |
• |
|
c |
|
” |
y |
• |
|
|
|
|
|
|
|
|||
|
|
´¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|
|
||||||||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|
|
|
|
|
|
|
||||||
Wir multiplizieren dieses System mit AT |
|
|
|
|
|
|||||||||||||
|
0 1 2 |
|
’ |
1 |
0 |
“ |
|
c1 |
|
0 1 2 |
|
’ |
0 |
“ |
||||
|
|
1 1 |
|
|
|
1 |
||||||||||||
Œ |
1 |
1 |
1 |
‘ – |
1 2 |
— |
Œ |
c0 |
‘ = Œ |
1 1 1 |
‘ |
– |
4 |
— |
||||
|
AT |
|
|
|
” |
|
A |
• |
|
c |
|
AT |
|
” |
y |
• |
||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
´¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
||||||||||||
|
|
|
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|||||||
und erhalten dasselbe lineare Gleichungssystem |
|
|
|
|
||||||||||||||
Œ |
3 |
3 |
‘ Œ |
c0 |
‘ = Œ |
5 |
‘ |
|
|
|
|
|
|
|
||||
3 5 |
c1 |
9 |
|
|
|
|
|
|
|
|||||||||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¸¹¹¹¹¹¶ |
|
|
|
|
|
|
|
||||||||||
|
ATA |
|
|
c |
|
|
ATy |
|
|
|
|
|
|
|
||||
wie in Beispiel 10.23. |
|
|
|
|
|
|
|
|
|
|
|
|
Ì |