- •1 Grundlagen
- •1.1 Logik und Mengen
- •1.1.1 Aussagenlogik
- •1.1.2 Mengen
- •1.2 Zahlen
- •1.2.1 Natürliche Zahlen
- •1.2.2 Ganze Zahlen
- •1.2.3 Rationale Zahlen
- •1.2.4 Reelle Zahlen
- •1.2.5 Ordnung
- •1.2.6 Intervalle
- •1.2.7 Betrag und Signum
- •1.2.8 Summe und Produkt
- •1.3 Potenz und Wurzel
- •1.3.1 Potenzen
- •1.3.2 Potenzgesetze
- •1.3.3 Wurzeln
- •1.3.4 Binomischer Satz
- •1.4 Trigonometrie
- •1.4.1 Trigonometrie im rechtwinkligen Dreieck
- •1.5 Gleichungen und Ungleichungen
- •1.5.1 Lineare Gleichungen
- •1.5.2 Potenzgleichungen
- •1.5.3 Quadratische Gleichungen
- •1.5.4 Wurzelgleichungen
- •1.5.5 Ungleichungen
- •1.6 Beweise
- •1.6.1 Direkter Beweis
- •1.6.2 Indirekter Beweis
- •1.6.3 Konstruktiver Beweis
- •1.6.4 Vollständige Induktion
- •1.7 Aufgaben
- •2 Lineare Gleichungssysteme
- •2.1 Einführung
- •2.2 Gauß-Algorithmus
- •2.2.1 Äquivalenzumformungen
- •2.2.2 Vorwärtselimination
- •2.2.3 Rückwärtseinsetzen
- •2.2.4 Gaußsches Eliminationsverfahren
- •2.2.5 Rechenschema
- •2.3 Spezielle Typen linearer Gleichungssysteme
- •2.3.1 Lineare Gleichungssysteme ohne Lösung
- •2.3.2 Lineare Gleichungssysteme mit unendlich vielen Lösungen
- •2.3.3 Systeme mit redundanten Gleichungen
- •2.3.4 Unterbestimmte lineare Gleichungssysteme
- •2.3.5 Überbestimmte lineare Gleichungssysteme
- •2.3.6 Homogene lineare Gleichungssysteme
- •2.3.7 Lineare Gleichungssysteme mit Parametern
- •2.4 Numerische Verfahren
- •2.4.1 Jakobi-Iteration
- •2.4.2 Gauß-Seidel-Iteration
- •2.5 Anwendungen
- •2.5.1 Produktion
- •2.5.2 Netzwerkanalyse in der Elektrotechnik
- •2.6 Aufgaben
- •3 Vektoren
- •3.2 Vektorrechnung ohne Koordinaten
- •3.2.1 Addition und Subtraktion
- •3.2.2 Skalare Multiplikation
- •3.2.3 Skalarprodukt
- •3.2.4 Vektorprodukt
- •3.2.5 Spatprodukt
- •3.2.6 Lineare Abhängigkeit und Komponentenzerlegung
- •3.3 Vektoren in Koordinatendarstellung
- •3.3.1 Koordinatendarstellung
- •3.3.2 Addition und Subtraktion
- •3.3.3 Skalare Multiplikation
- •3.3.4 Skalarprodukt
- •3.3.5 Vektorprodukt
- •3.3.6 Spatprodukt
- •3.3.7 Lineare Abhängigkeit und Komponentenzerlegung
- •3.4 Punkte, Geraden und Ebenen
- •3.4.1 Kartesisches Koordinatensystem
- •3.4.2 Parameterdarstellung von Geraden und Ebenen
- •3.4.3 Parameterfreie Darstellung von Geraden und Ebenen
- •3.4.4 Schnitte von Geraden und Ebenen
- •3.4.5 Abstände
- •3.4.6 Winkel
- •3.5 Anwendungen
- •3.5.1 Kraft
- •3.5.2 Arbeit
- •3.5.3 Drehmoment
- •3.6 Aufgaben
- •4 Matrizen
- •4.2 Rechnen mit Matrizen
- •4.2.1 Addition, Subtraktion und skalare Multiplikation
- •4.2.2 Multiplikation von Matrizen
- •4.3 Determinanten
- •4.3.1 Determinante einer (2,2)-Matrix
- •4.3.2 Determinante einer (3,3)-Matrix
- •4.3.3 Determinante einer (n,n)-Matrix
- •4.4 Inverse Matrix
- •4.4.1 Invertierbare Matrizen
- •4.4.2 Inverse einer (2,2)-Matrix
- •4.4.3 Inverse Matrix und lineares Gleichungssystem
- •4.5 Lineare Abbildungen
- •4.5.1 Matrizen als Abbildungen
- •4.5.2 Kern, Bild und Rang
- •4.6 Eigenwerte und Eigenvektoren
- •4.7 Numerische Verfahren
- •4.7.1 Potenzmethode
- •4.8 Anwendungen
- •4.9 Aufgaben
- •5 Funktionen
- •5.1 Einführung
- •5.1.2 Wertetabelle
- •5.1.3 Schaubild
- •5.1.4 Explizite und implizite Darstellung
- •5.1.6 Funktionsschar
- •5.1.7 Verkettung von Funktionen
- •5.2 Polynome und rationale Funktionen
- •5.2.1 Potenzfunktionen mit ganzen Hochzahlen
- •5.2.2 Polynome
- •5.2.3 Gebrochenrationale Funktionen
- •5.3 Eigenschaften
- •5.3.1 Symmetrie
- •5.3.2 Periode
- •5.3.3 Monotonie
- •5.3.4 Beschränktheit
- •5.4 Sinus, Kosinus und Tangens
- •5.4.2 Eigenschaften
- •5.5 Grenzwert und Stetigkeit
- •5.5.1 Zahlenfolgen
- •5.5.2 Grenzwert einer Funktion
- •5.5.3 Stetigkeit
- •5.5.4 Asymptotisches Verhalten
- •5.6.1 Exponentialfunktionen
- •5.6.2 Die e-Funktion
- •5.6.3 Hyperbelfunktionen
- •5.7 Umkehrfunktionen
- •5.7.1 Das Prinzip der Umkehrfunktion
- •5.7.2 Wurzelfunktionen
- •5.7.3 Arkusfunktionen
- •5.7.4 Logarithmusfunktionen
- •5.7.5 Area-Funktionen
- •5.8 Numerische Verfahren
- •5.8.1 Berechnung von Funktionswerten
- •5.8.2 Bisektionsverfahren
- •5.9 Anwendungen
- •5.9.1 Messwerte
- •5.9.2 Industrieroboter
- •5.10 Aufgaben
- •6.1 Steigung und Ableitungsfunktion
- •6.1.3 Ableitungsfunktion
- •6.1.5 Höhere Ableitungen
- •6.2 Ableitungstechnik
- •6.2.1 Ableitungsregeln
- •6.2.2 Ableitung der Umkehrfunktion
- •6.2.5 Zusammenfassung
- •6.3 Regel von Bernoulli-de l’Hospital
- •6.4 Geometrische Bedeutung der Ableitungen
- •6.4.1 Neigungswinkel und Schnittwinkel
- •6.4.2 Monotonie
- •6.4.3 Krümmung
- •6.4.4 Lokale Extrema
- •6.4.5 Wendepunkte
- •6.4.6 Globale Extrema
- •6.5 Numerische Verfahren
- •6.5.2 Newton-Verfahren
- •6.5.3 Sekantenverfahren
- •6.6 Anwendungen
- •6.6.1 Fehlerrechnung
- •6.6.2 Extremwertaufgaben
- •6.7 Aufgaben
- •7 Integralrechnung
- •7.1 Flächenproblem
- •7.1.1 Integralsymbol
- •7.1.2 Integral als Grenzwert von Summen
- •7.1.3 Bestimmtes Integral
- •7.2 Zusammenhang von Ableitung und Integral
- •7.2.1 Integralfunktion
- •7.2.2 Stammfunktion
- •7.2.3 Bestimmtes Integral und Stammfunktion
- •7.2.4 Mittelwertsatz der Integralrechnung
- •7.3 Integrationstechnik
- •7.3.1 Integrationsregeln
- •7.3.2 Integration durch Substitution
- •7.3.3 Partielle Integration
- •7.3.4 Gebrochenrationale Funktionen
- •7.3.5 Uneigentliche Integrale
- •7.4 Länge, Flächeninhalt und Volumen
- •7.4.1 Flächeninhalte
- •7.4.2 Bogenlänge
- •7.4.3 Rotationskörper
- •7.5 Numerische Verfahren
- •7.5.1 Trapezregel
- •7.5.2 Romberg-Verfahren
- •7.6 Anwendungen
- •7.6.2 Schwerpunkte und statische Momente ebener Flächen
- •7.7 Aufgaben
- •8 Potenzreihen
- •8.1 Unendliche Reihen
- •8.2 Potenzreihen und Konvergenz
- •8.3 Taylor-Reihen
- •8.4 Eigenschaften
- •8.5 Numerische Verfahren
- •8.5.1 Berechnung von Funktionswerten
- •8.6 Anwendungen
- •8.6.1 Normalverteilung in der Statistik
- •8.7 Aufgaben
- •9 Kurven
- •9.1 Parameterdarstellung
- •9.2 Kegelschnitte
- •9.3 Tangente
- •9.4 Krümmung
- •9.5 Bogenlänge
- •9.6 Numerische Verfahren
- •9.6.1 Bézier-Kurve
- •9.7 Anwendungen
- •9.7.1 Mechanik
- •9.7.2 Straßenbau
- •9.8 Aufgaben
- •10 Funktionen mit mehreren Variablen
- •10.1.2 Schaubild einer Funktion mit mehreren Variablen
- •10.1.3 Schnittkurven mit Ebenen und Höhenlinien
- •10.2 Grenzwert und Stetigkeit
- •10.2.1 Grenzwert einer Funktion mit mehreren Variablen
- •10.2.2 Stetigkeit
- •10.3.3 Gradient und Richtungsableitung
- •10.3.5 Höhere partielle Ableitungen
- •10.3.6 Extremwerte
- •10.4 Ausgleichsrechnung
- •10.4.1 Methode der kleinsten Fehlerquadrate
- •10.4.2 Ausgleichsrechnung mit Polynomen
- •10.4.3 Lineare Ausgleichsrechnung
- •10.5 Vektorwertige Funktionen
- •10.6 Numerische Verfahren
- •10.6.1 Mehrdimensionales Newton-Verfahren
- •10.6.2 Gradientenverfahren
- •10.7 Anwendungen
- •10.7.1 Fehlerrechnung
- •10.8 Aufgaben
- •11 Komplexe Zahlen und Funktionen
- •11.1.1 Komplexe Zahlen
- •11.1.2 Gaußsche Zahlenebene
- •11.1.3 Polarkoordinaten
- •11.1.4 Exponentialform
- •11.2 Rechenregeln
- •11.2.1 Gleichheit
- •11.2.2 Addition und Subtraktion
- •11.2.3 Multiplikation und Division
- •11.2.4 Rechnen mit der konjugiert komplexen Zahl
- •11.2.5 Rechnen mit dem Betrag einer komplexen Zahl
- •11.3 Potenzen, Wurzeln und Polynome
- •11.3.1 Potenzen
- •11.3.2 Wurzeln
- •11.3.3 Fundamentalsatz der Algebra
- •11.4 Komplexe Funktionen
- •11.4.1 Ortskurven
- •11.4.2 Harmonische Schwingungen
- •11.4.3 Transformationen
- •11.5 Anwendungen
- •11.5.1 Komplexe Wechselstromrechnung
- •11.6 Aufgaben
- •12.1 Einführung
- •12.1.3 Richtungsfeld und Orthogonaltrajektorie
- •12.2.1 Separation der Variablen
- •12.2.2 Lineare Substitution
- •12.3.3 Allgemeine Eigenschaften
- •12.4.1 Allgemeine Form
- •12.4.2 Freie Schwingung
- •12.4.3 Harmonisch angeregte Schwingung
- •12.4.4 Frequenzgänge
- •12.5.1 Eliminationsverfahren
- •12.5.2 Zustandsvariablen
- •12.5.5 Stabilität
- •12.6 Numerische Verfahren
- •12.6.1 Polygonzugverfahren von Euler
- •12.7 Anwendungen
- •12.7.1 Temperaturverlauf
- •12.7.2 Radioaktiver Zerfall
- •12.7.3 Freier Fall mit Luftwiderstand
- •12.7.4 Feder-Masse-Schwinger
- •12.7.5 Pendel
- •12.7.6 Wechselstromkreise
- •12.8 Aufgaben
- •13 Fourier-Reihen
- •13.1 Fourier-Analyse
- •13.1.1 Periodische Funktionen
- •13.1.2 Trigonometrische Polynome
- •13.1.3 Fourier-Reihe
- •13.1.4 Satz von Fourier
- •13.1.5 Gibbssches Phänomen
- •13.2 Komplexe Darstellung
- •13.2.1 Komplexe Fourier-Reihe
- •13.2.3 Spektrum
- •13.2.4 Minimaleigenschaft
- •13.3 Eigenschaften
- •13.3.1 Symmetrie
- •13.3.2 Integrationsintervall
- •13.3.3 Mittelwert
- •13.3.4 Linearität
- •13.3.5 Ähnlichkeit und Zeitumkehr
- •13.3.6 Zeitverschiebung
- •13.4 Aufgaben
- •14 Verallgemeinerte Funktionen
- •14.1 Heaviside-Funktion
- •14.2 Dirac-Distribution
- •14.3 Verallgemeinerte Ableitung
- •14.4 Faltung
- •14.5 Aufgaben
- •15 Fourier-Transformation
- •15.1 Integraltransformation
- •15.1.4 Transformation gerader und ungerader Funktionen
- •15.1.5 Darstellung mit Amplitude und Phase
- •15.2 Eigenschaften
- •15.2.1 Linearität
- •15.2.2 Zeitverschiebung
- •15.2.3 Amplitudenmodulation
- •15.2.4 Ähnlichkeit und Zeitumkehr
- •15.3 Inverse Fourier-Transformation
- •15.3.2 Vertauschungssatz
- •15.3.3 Linearität
- •15.4.3 Multiplikationssatz
- •15.4.5 Faltung
- •15.5 Periodische Funktionen
- •15.5.1 Fourier-Transformation einer Fourier-Reihe
- •15.5.3 Grenzwertbetrachtung
- •15.6 Anwendungen
- •15.6.1 Lineare zeitinvariante Systeme
- •15.7 Aufgaben
- •16 Laplace-Transformation
- •16.1 Bildbereich
- •16.2 Eigenschaften
- •16.2.1 Linearität
- •16.2.2 Ähnlichkeit
- •16.2.3 Zeitverschiebung
- •16.2.4 Dämpfung
- •16.3.2 Integration
- •16.3.3 Faltung
- •16.3.4 Grenzwerte
- •16.4 Transformation periodischer Funktionen
- •16.5 Rücktransformation
- •16.7 Anwendungen
- •16.7.1 Regelungstechnik
- •16.8 Aufgaben
- •17 z-Transformation
- •17.1 Transformation diskreter Signale
- •17.1.2 z-Transformation und Laplace-Transformation
- •17.2 Eigenschaften
- •17.2.1 Linearität
- •17.2.2 Verschiebung
- •17.2.3 Dämpfung
- •17.4 Anwendungen
- •17.4.1 Zeitkomplexität von Quicksort
- •A Anhang
- •A.1 Ableitungsregeln
- •A.2 Ableitungen
- •A.3 Potenzreihen
- •A.4 Integralregeln
- •A.5 Integrale
- •A.6 Fourier-Reihen
- •A.7 Fourier-Transformationen
- •A.8 Laplace-Transformationen
- •A.9 Griechisches Alphabet
- •A.10 Bedeutende Mathematiker
- •Literaturverzeichnis
- •Sachwortverzeichnis
144 |
4 Matrizen |
b)Die Matrix C aus Beispiel 4.25 bildet alle Vektoren, deren erste und dritte Koordinate null ist, auf den Nullvektor ab:
|
’ |
1 |
0 |
0 |
“ |
’ |
1 |
0 |
0 |
“ ’ |
0 |
“ ’ |
0 |
“ . |
C |
0 |
0 |
0 |
0 |
0 |
0 |
x2 |
0 |
||||||
|
= – |
0 |
0 |
1 |
— Ô – |
0 |
0 |
1 |
— – |
0 |
— = – |
0 |
— |
|
|
” |
|
|
|
• |
” |
|
|
|
• ” |
|
• ” |
|
• |
Alle diese Vektoren liegen somit im Kern der Matrix. Das Bild der Matrix besteht nur aus
allen Vektoren der x1-x3-Ebene. Der Rang der Matrix C ist somit r = 2. |
Ì |
Wenn wir das Bild einer linearen Abbildung kennen, dann lässt sich damit genau entscheiden, wann ein lineares Gleichungssystem lösbar ist. Dabei erfolgt keine Unterscheidung, ob das zugehörige Gleichungssystem eindeutig lösbar ist oder unendlich viele Lösungen besitzt. Ein Gleichungssystem ist genau dann lösbar, wenn die rechte Seite zum Bild der Matrix gehört. Die Bestimmung des Bildes einer Matrix ist in der Regel wesentlich aufwendiger als die Lösung eines linearen Gleichungssystems. Somit hat diese Erkenntnis zwar große theoretische Bedeutung, ist aber bei der praktischen Lösung von Gleichungssystemen eher von geringer Bedeutung.
Satz 4.13 (Lösbarkeit eines linearen Gleichungssystems)
Das lineare Gleichungssystem in Matrixform
Ax = b
ist genau dann lösbar, wenn der Vektor b im Bild der Matrix A enthalten ist.
4.6 Eigenwerte und Eigenvektoren
Bei manchen linearen Abbildungen gibt es Vektoren, die durch die Abbildung wieder auf sich selbst abgebildet werden. Solche Vektoren bezeichnet man als Fixpunkte. Beispielsweise sind bei einer Spiegelung an einer Geraden alle Punkte, die auf dieser Geraden liegen, Fixpunkte. Informationen über die Fixpunkte einer Abbildung sind für das Verständnis von linearen Abbildungen sehr hilfreich.
Definition 4.19 (Eigenwert und Eigenvektor)
Man nennt den Vektor v ≠ 0 einen Eigenvektor zum Eigenwert λ der quadratischen Matrix A, falls gilt:
Av = λ v.
Die Multiplikation der Matrix A mit einem Eigenvektor v ergibt einen Vektor mit Richtung v. Die Veränderung der Länge wird durch den Eigenwert λ beschrieben.
4.6 Eigenwerte und Eigenvektoren |
145 |
Eigenvektoren sind eine Art verallgemeinerte Fixpunkte. Man bezeichnet einen Vektor als Eigenvektor einer linearen Abbildung, falls die Abbildung die Richtung des Vektors unverändert lässt. Multipliziert man also eine Matrix mit einem Eigenvektor, dann ist das Ergebnis ein Vektor in Richtung des Eigenvektors. Nur die Länge hat sich unter Umständen geändert. Die Veränderung der Länge wird durch den sogenannten Eigenwert beschrieben. Bei der Frage nach Eigenwerten und Eigenvektoren betrachten wir ausschließlich quadratische Matrizen. Definition 4.19 liefert noch kein Berechnungsverfahren für Eigenwerte und Eigenvektoren. Wir werden uns noch ausführlich mit der Frage beschäftigen, wie man alle Eigenwerte und Eigenvektoren einer Matrix berechnen kann.
Beispiel 4.27 (Test von Eigenwerten und Eigenvektoren)
Wir kennen bislang noch kein Verfahren, um die Eigenwerte und Eigenvektoren der Matrix
A |
|
7 |
|
2 |
0 |
|
’ |
2 |
−6 |
2 |
“ |
||
|
= – −0 |
− |
2 |
−5 |
— |
|
|
” |
|
|
|
• |
zu berechnen. Trotzdem können wir testen, ob ein Vektor ein Eigenvektor ist oder nicht. Dazu multiplizieren wir die Matrix mit einem Testvektor v1:
|
7 |
|
2 |
0 |
|
1 |
|
5 |
|
λ |
|
1 |
|
||
’ |
2 |
−6 |
2 |
“ ’ |
1 |
“ ’ |
2 |
“ |
’ |
1 . |
|||||
|
|
|
−5 |
|
|
|
|
|
|
“ |
|||||
– −0 |
|
2 |
— – |
1 |
— = – |
3 |
— ≠ – |
1 |
— |
||||||
” |
|
A |
|
• ” v |
1 |
• ” • |
|
” v |
1 |
• |
|||||
|
|
− |
|
|
|
|
|
|
|
|
|
|
|
||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
|
|
|
´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
Durch Multiplikation mit der Matrix A wird der Vektor v1 auf einen Vektor mit einer anderen Richtung abgebildet. Der Vektor v1 ist deshalb kein Eigenvektor der Matrix A. Multiplikation mit einem Testvektor v2 ergibt
|
7 |
|
2 |
0 |
|
1 |
|
3 |
|
3 |
|
1 |
|
|
|
’ |
2 |
−6 |
2 |
“ ’ |
2 |
“ ’ |
6 |
“ |
’ |
2 . |
|
||||
|
|
2 |
−5 |
2 |
6 |
|
2 |
“ |
|
||||||
– −0 |
|
— – |
— = – |
— = |
λ |
– |
— |
|
|||||||
” |
|
A |
|
• ” v |
2 |
• ” • ® ” |
v2 |
• |
|
||||||
|
|
− |
|
|
|
|
|
|
|
|
|
|
|
||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
|
|
|
´¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¶ |
|
||||||||||
Der Vektor v2 ist somit ein Eigenvektor der Matrix A zum Eigenwert λ = 3. |
Ì |
In Definition 4.19 werden die beiden Begri e Eigenwert und Eigenvektor gemeinsam definiert. Es wird sich zeigen, dass die Berechnung von Eigenwerten und Eigenvektoren getrennt erfolgen kann. In der Regel berechnet man zuerst die Eigenwerte und dann zu jedem einzelnen Eigenwert einen passenden Eigenvektor. Zur Herleitung der entsprechenden Formeln starten wir mit der Gleichung Av = λ v aus Definition 4.19. Die Multiplikation mit der Einheitsmatrix E lässt den Vektor v unverändert. Deshalb können wir diese Gleichung auch in der Form
(A − λ E) v = 0
darstellen. Der Nullvektor v = 0 ist eine Lösung dieser Gleichung. Aber an dieser trivialen Lösung ist man, siehe nochmals Definition 4.19, nicht interessiert. Lösungsvektoren v ≠ 0 sind also nur dann möglich, wenn die Gleichung nicht eindeutig lösbar ist. Somit muss die Determinante der Matrix auf der linken Seite der Gleichung null sein.
146 |
4 Matrizen |
Satz 4.14 (Eigenwerte und charakteristische Gleichung)
Die Eigenwerte λ einer quadratischen Matrix A bestimmt man mithilfe einer Determinante aus der sogenannten charakteristischen Gleichung
SA − λ ES = 0.
Bei einer (n, n)-Matrix A muss man dabei die Nullstellen des charakteristischen Polynoms SA − λ ES vom Grad n in der Unbekannten λ ermitteln. Eine (n, n)-Matrix A hat höchstens n verschiedene Eigenwerte.
Satz 4.14 liefert für kleine Matrizen eine passable Strategie zur Berechnung von Eigenwerten. Doch selbst für n = 2 ergeben sich Polynome, die Berechnungen mit komplexen Zahlen erfordern, siehe Abschnitt 11.3.3. Für Polynome von höherem Grad ist die Bestimmung aller Nullstellen keine einfache Problemstellung. In der numerischen Mathematik hat sich sogar die umgekehrte Strategie bewährt. Nullstellen von Polynomen werden dadurch bestimmt, dass man die Eigenwerte einer entsprechenden Matrix ermittelt. Für die numerische Berechnung von Eigenwerten gibt es unterschiedliche Näherungsverfahren, siehe [Mohr:Numerik], [Schwarz] oder [Stoer-Bulirsch].
Beispiel 4.28 (Eigenwerte)
Die Eigenwerte der folgenden Matrix A berechnen wir aus der Gleichung SA − λ ES = 0:
A |
|
2 |
|
6 |
2 |
|
R |
7 |
|
2 6 λ |
|
2 |
R |
|
0. |
||
|
|
7 |
− |
2 |
0 |
|
R |
|
− |
λ |
− |
2 |
|
0 |
R |
|
|
|
’ |
0 |
2 |
5 |
“ |
R |
|
0 |
2 |
5 λ |
R |
|
|
||||
|
|
|
|
R |
|
|
|
R |
|
|
|||||||
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
R |
|
|
|
= – − |
|
|
|
− — Ô |
R |
|
− |
− |
|
− |
R |
= |
|
|||
|
|
|
|
R |
|
|
R |
|
|||||||||
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
R |
|
|
|
” |
|
|
|
|
• |
R |
|
|
|
|
|
|
|
R |
|
|
|
|
− |
|
|
R |
|
|
|
− |
|
− |
|
R |
|
|
||
|
|
|
|
|
|
R |
|
|
|
|
|
R |
|
|
|||
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
R |
|
|
Durch Entwickeln der Determinante nach der ersten Zeile erhalten wir
|
7 |
λ |
6 |
− |
λ |
5 |
2 |
|
2 |
|
2 |
5 |
2 |
|
0. |
( |
|
2 |
−λ |
W + |
W |
−0 |
−λ |
W = |
|||||||
|
− ) W |
|
− |
|
|
− |
|
|
|
− |
|
Die Determinanten der (2, 2)-Matrizen bestimmen wir nach Definition 4.13:
(7 − λ) (6 − λ)(5 − λ) − 4 + 2 − 2 (5 − λ) = 0.
Nach dem Ausmultiplizieren der Klammern und Vereinfachen erhalten wir die Gleichung
−λ3 + 18 λ2 − 99 λ + 162 = 0.
Ganzzahlige Lösungen versuchen wir über die Teiler von 162 zu ermitteln. Tatsächlich ist die
charakteristische Gleichung für λ1 |
= |
3, λ2 |
= |
6 und λ3 |
= |
9 erfüllt. Die Matrix A hat die Eigenwerte |
||||||
λ1 |
= |
3, λ2 |
= |
6 und λ3 |
= |
9. |
|
|
Ì |
|||
|
|
|
|
|
|
|
|
|
Nachdem man die Eigenwerte bestimmt hat, kann man zu jedem einzelnen Eigenwert einen passenden Eigenvektor ermitteln. Für einen festen Zahlenwert λ stellt die Bedingung (A − λ E) v = 0 ein homogenes lineares Gleichungssystem dar. Die Lösung dieses homogenen Gleichungssystems ist nicht eindeutig, siehe Abschnitt 2.3.6. Wenn der Vektor v ein Eigenvektor ist, dann ist auch jedes Vielfache des Vektors v ein Eigenvektor.
4.6 Eigenwerte und Eigenvektoren |
147 |
Satz 4.15 (Eigenvektoren)
Eigenvektoren v zum Eigenwert λ einer quadratischen Matrix A ergeben sich aus der Lösung des homogenen linearen Gleichungssystems
(A − λ E) v = 0.
Eigenvektoren sind nicht eindeutig bestimmt. Die Länge eines Eigenvektors kann man beliebig festlegen.
Beispiel 4.29 (Eigenvektoren)
Die Eigenwerte λ1 = 3, λ2 = 6 und λ3 = 9 der Matrix
A |
|
7 |
2 |
0 |
|
’ |
2 |
−6 |
2 |
“ |
|
|
= – − |
|
|
− — |
”0 −2 5 •
haben wir in Beispiel 4.28 ermittelt. Zu jedem einzelnen Eigenwert berechnen wir einen passenden Eigenvektor. Für den Eigenwert λ1 = 3 erhalten wir das homogene lineare Gleichungssystem:
− |
4 v1 |
− |
2 v2 |
− |
|
= |
0 |
2 v1 |
3 v2 |
2 v3 |
0 |
||||
|
+ |
2 v2 |
2 v3 |
= |
0 |
||
|
|
− |
|
+ |
|
= |
|
Die Lösung einer Eigenwertgleichung ist nicht eindeutig bestimmt. Wir können bei dieser Gleichung beispielsweise v1 = 1 wählen. Aus der ersten Gleichung folgt dann v2 = 2 und aus der dritten Gleichung v3 = 2. Die zweite Gleichung ist mit diesen Werten erfüllt. Somit erhalten wir
’ 1 “
λ1 = 3 Ô v1 = – 2 — .
” 2 •
Auf |
dieselbe Art erhalten wir für λ2 |
= |
6 |
|
|
|
|
|
|
||||||||
|
v1 |
|
− |
2 v2 |
|
2 v3 |
|
0 |
|
v2 |
|
2 |
|
||||
|
|
2 v1 |
|
|
|
|
= |
0 |
|
’ |
1 |
“ |
|||||
|
− |
|
|
|
− |
2 v2 |
− |
v3 |
= |
0 |
Ô = – |
2 |
— |
||||
und für λ3 |
= |
9 |
|
|
− |
|
= |
|
|
|
” |
− |
• |
||||
|
|
|
|
− |
2 v |
2 |
|
|
= |
0 |
|
|
’ |
2 |
“ . |
||
|
|
2 v1 |
|
|
|
|
|
|
|||||||||
|
−2 v1 |
|
3 v2 |
− |
2 v3 |
0 |
Ô |
v3 |
−2 |
||||||||
|
− |
|
|
|
− |
2 v2 |
4 v3 |
= |
0 |
|
= – |
1 |
— |
||||
|
|
|
|
|
− |
|
|
− |
|
= |
|
|
|
” |
− |
• |
Es lohnt sich, das Ergebnis genauer zu betrachten. Durch die Berechnung der Skalarprodukte
|
|
|
|
|
’ |
2 |
“ |
|
|
|
|
|
|
|
|
2 |
“ |
|
|
|
|
|
|
|
|
|
|
2 |
“ |
|
|
‰ |
1 |
2 |
2 |
|
1 |
= |
0, |
‰ |
1 |
2 |
2 |
|
’ −2 |
= |
0, |
‰ |
2 |
1 |
− |
2 |
|
’ −2 |
= |
0 |
|||||||
|
T |
|
Ž – |
2 |
— |
|
|
T |
|
Ž – |
1 |
— |
|
|
T |
|
Ž – |
|
1 |
— |
|
||||||||||
|
|
v1 |
|
|
” |
v2 |
• |
|
|
|
|
v1 |
|
|
” |
v3 |
• |
|
|
|
|
v2 |
|
|
|
” |
v3 |
• |
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
− |
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
− |
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
− |
|
|
|
|
|||||||||||||
|
|
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
sehen wir, dass die drei Eigenvektoren v1, v2 und v3 jeweils senkrecht zueinander stehen. Dieses
Ergebnis ist typisch für symmetrische Matrizen. |
Ì |
148 |
4 Matrizen |
Eigenwerte und Eigenvektoren
Zur Bestimmung der Eigenwerte λ und der Eigenvektoren v einer quadratischen Matrix A kann man folgendermaßen vorgehen:
(1)Bestimme alle Eigenwerte λ aus der charakteristischen Gleichung
SA − λ ES = 0.
(2)Bestimme zu jedem Eigenwert λ einen Eigenvektor v ≠ 0 aus der Gleichung
(A − λ E) v = 0.
Beispiel 4.30 (Eigenwerte und Eigenvektoren)
Wir suchen die Eigenwerte der folgenden Matrix:
A |
|
|
0 0 2 |
|
|
R |
|
0 |
|
λ |
|
2 |
R |
λ3 2λ 4 0 . |
||
|
|
|
0 |
2 |
0 |
|
|
R |
− |
λ |
|
2 |
|
0 |
R |
|
|
’ |
|
1 |
1 |
0 |
“ |
|
R |
1 |
|
1 |
|
λ |
R |
|
|
|
|
|
|
|
R |
|
|
|
R |
|
||||||
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
|
= – |
|
|
|
|
— |
Ô |
R |
|
|
− |
|
|
|
R |
= − + − = |
|
|
|
|
|
R |
|
|
|
|
|
R |
|||||
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
|
” |
− |
|
|
|
• |
|
R |
− |
|
|
|
− |
|
R |
|
|
|
|
|
|
R |
|
|
|
|
R |
|
|||||
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
R |
|
Durch Entwickeln nach der ersten Zeile erhalten wir die charakteristische Gleichung mit einer Lösung λ1 = −2. Durch Polynomdivision ergibt sich:
(−λ3 + 2λ − 4) (λ + 2) = λ2 − 2λ + 2 = 0 .
Die resultierende quadratische Gleichung hat keine |
reelle Lösung. Wir werden in Kapitel 11 die |
|
reellen Zahlen so erweitern, dass wir auch für diese |
Matrix genau drei Eigenwerte erhalten. |
Ì |
Matrizen der Dimension n, die keine n verschiedenen reellen Eigenwerte haben, wie etwa die Matrix aus Beispiel 4.30, treten im Zusammenhang mit Di erenzialgleichungssystemen auf, siehe Abschnitt 12.5. Wir werden die Eigenwerte vollständig berechnen können, sobald wir die komplexen Zahlen in Kapitel 11 eingeführt haben. Auch Matrizen, deren charakteristische Gleichungen mehrfache Nullstellen haben, sind etwas aufwendiger zu behandeln. Die Berechnung der Eigenvektoren in diesen Fällen kann schwierig sein. Unter Umständen muss man auf sogenannte Hauptvektoren ausweichen. Für spezielle Matrizen kann sich die Bestimmung der Eigenwerte deutlich vereinfachen.
Eigenwerte von Diagonalund Dreiecksmatrizen
Die Eigenwerte einer Diagonalmatrix oder einer unteren oder oberen Dreiecksmatrix stehen in der Diagonalen. Sie müssen also nicht berechnet, sondern können einfach abgelesen werden. Insbesondere besitzt eine (n, n)-Dreiecksmatrix n reelle Eigenwerte.
Bei Diagonaloder Dreiecksmatrizen muss man die Eigenwerte also nur aus der Diagonalen ablesen. Diese Eigenschaft folgt unmittelbar aus der speziellen, einfachen Bestimmung der Determinanten solcher Matrizen, siehe Abschnitt 4.3. Auch für symmetrische Matrizen gibt es Eigenschaften, die die Berechnung von Eigenwerten und Eigenvektoren erleichtern.