- •1 Grundlagen
- •1.1 Logik und Mengen
- •1.1.1 Aussagenlogik
- •1.1.2 Mengen
- •1.2 Zahlen
- •1.2.1 Natürliche Zahlen
- •1.2.2 Ganze Zahlen
- •1.2.3 Rationale Zahlen
- •1.2.4 Reelle Zahlen
- •1.2.5 Ordnung
- •1.2.6 Intervalle
- •1.2.7 Betrag und Signum
- •1.2.8 Summe und Produkt
- •1.3 Potenz und Wurzel
- •1.3.1 Potenzen
- •1.3.2 Potenzgesetze
- •1.3.3 Wurzeln
- •1.3.4 Binomischer Satz
- •1.4 Trigonometrie
- •1.4.1 Trigonometrie im rechtwinkligen Dreieck
- •1.5 Gleichungen und Ungleichungen
- •1.5.1 Lineare Gleichungen
- •1.5.2 Potenzgleichungen
- •1.5.3 Quadratische Gleichungen
- •1.5.4 Wurzelgleichungen
- •1.5.5 Ungleichungen
- •1.6 Beweise
- •1.6.1 Direkter Beweis
- •1.6.2 Indirekter Beweis
- •1.6.3 Konstruktiver Beweis
- •1.6.4 Vollständige Induktion
- •1.7 Aufgaben
- •2 Lineare Gleichungssysteme
- •2.1 Einführung
- •2.2 Gauß-Algorithmus
- •2.2.1 Äquivalenzumformungen
- •2.2.2 Vorwärtselimination
- •2.2.3 Rückwärtseinsetzen
- •2.2.4 Gaußsches Eliminationsverfahren
- •2.2.5 Rechenschema
- •2.3 Spezielle Typen linearer Gleichungssysteme
- •2.3.1 Lineare Gleichungssysteme ohne Lösung
- •2.3.2 Lineare Gleichungssysteme mit unendlich vielen Lösungen
- •2.3.3 Systeme mit redundanten Gleichungen
- •2.3.4 Unterbestimmte lineare Gleichungssysteme
- •2.3.5 Überbestimmte lineare Gleichungssysteme
- •2.3.6 Homogene lineare Gleichungssysteme
- •2.3.7 Lineare Gleichungssysteme mit Parametern
- •2.4 Numerische Verfahren
- •2.4.1 Jakobi-Iteration
- •2.4.2 Gauß-Seidel-Iteration
- •2.5 Anwendungen
- •2.5.1 Produktion
- •2.5.2 Netzwerkanalyse in der Elektrotechnik
- •2.6 Aufgaben
- •3 Vektoren
- •3.2 Vektorrechnung ohne Koordinaten
- •3.2.1 Addition und Subtraktion
- •3.2.2 Skalare Multiplikation
- •3.2.3 Skalarprodukt
- •3.2.4 Vektorprodukt
- •3.2.5 Spatprodukt
- •3.2.6 Lineare Abhängigkeit und Komponentenzerlegung
- •3.3 Vektoren in Koordinatendarstellung
- •3.3.1 Koordinatendarstellung
- •3.3.2 Addition und Subtraktion
- •3.3.3 Skalare Multiplikation
- •3.3.4 Skalarprodukt
- •3.3.5 Vektorprodukt
- •3.3.6 Spatprodukt
- •3.3.7 Lineare Abhängigkeit und Komponentenzerlegung
- •3.4 Punkte, Geraden und Ebenen
- •3.4.1 Kartesisches Koordinatensystem
- •3.4.2 Parameterdarstellung von Geraden und Ebenen
- •3.4.3 Parameterfreie Darstellung von Geraden und Ebenen
- •3.4.4 Schnitte von Geraden und Ebenen
- •3.4.5 Abstände
- •3.4.6 Winkel
- •3.5 Anwendungen
- •3.5.1 Kraft
- •3.5.2 Arbeit
- •3.5.3 Drehmoment
- •3.6 Aufgaben
- •4 Matrizen
- •4.2 Rechnen mit Matrizen
- •4.2.1 Addition, Subtraktion und skalare Multiplikation
- •4.2.2 Multiplikation von Matrizen
- •4.3 Determinanten
- •4.3.1 Determinante einer (2,2)-Matrix
- •4.3.2 Determinante einer (3,3)-Matrix
- •4.3.3 Determinante einer (n,n)-Matrix
- •4.4 Inverse Matrix
- •4.4.1 Invertierbare Matrizen
- •4.4.2 Inverse einer (2,2)-Matrix
- •4.4.3 Inverse Matrix und lineares Gleichungssystem
- •4.5 Lineare Abbildungen
- •4.5.1 Matrizen als Abbildungen
- •4.5.2 Kern, Bild und Rang
- •4.6 Eigenwerte und Eigenvektoren
- •4.7 Numerische Verfahren
- •4.7.1 Potenzmethode
- •4.8 Anwendungen
- •4.9 Aufgaben
- •5 Funktionen
- •5.1 Einführung
- •5.1.2 Wertetabelle
- •5.1.3 Schaubild
- •5.1.4 Explizite und implizite Darstellung
- •5.1.6 Funktionsschar
- •5.1.7 Verkettung von Funktionen
- •5.2 Polynome und rationale Funktionen
- •5.2.1 Potenzfunktionen mit ganzen Hochzahlen
- •5.2.2 Polynome
- •5.2.3 Gebrochenrationale Funktionen
- •5.3 Eigenschaften
- •5.3.1 Symmetrie
- •5.3.2 Periode
- •5.3.3 Monotonie
- •5.3.4 Beschränktheit
- •5.4 Sinus, Kosinus und Tangens
- •5.4.2 Eigenschaften
- •5.5 Grenzwert und Stetigkeit
- •5.5.1 Zahlenfolgen
- •5.5.2 Grenzwert einer Funktion
- •5.5.3 Stetigkeit
- •5.5.4 Asymptotisches Verhalten
- •5.6.1 Exponentialfunktionen
- •5.6.2 Die e-Funktion
- •5.6.3 Hyperbelfunktionen
- •5.7 Umkehrfunktionen
- •5.7.1 Das Prinzip der Umkehrfunktion
- •5.7.2 Wurzelfunktionen
- •5.7.3 Arkusfunktionen
- •5.7.4 Logarithmusfunktionen
- •5.7.5 Area-Funktionen
- •5.8 Numerische Verfahren
- •5.8.1 Berechnung von Funktionswerten
- •5.8.2 Bisektionsverfahren
- •5.9 Anwendungen
- •5.9.1 Messwerte
- •5.9.2 Industrieroboter
- •5.10 Aufgaben
- •6.1 Steigung und Ableitungsfunktion
- •6.1.3 Ableitungsfunktion
- •6.1.5 Höhere Ableitungen
- •6.2 Ableitungstechnik
- •6.2.1 Ableitungsregeln
- •6.2.2 Ableitung der Umkehrfunktion
- •6.2.5 Zusammenfassung
- •6.3 Regel von Bernoulli-de l’Hospital
- •6.4 Geometrische Bedeutung der Ableitungen
- •6.4.1 Neigungswinkel und Schnittwinkel
- •6.4.2 Monotonie
- •6.4.3 Krümmung
- •6.4.4 Lokale Extrema
- •6.4.5 Wendepunkte
- •6.4.6 Globale Extrema
- •6.5 Numerische Verfahren
- •6.5.2 Newton-Verfahren
- •6.5.3 Sekantenverfahren
- •6.6 Anwendungen
- •6.6.1 Fehlerrechnung
- •6.6.2 Extremwertaufgaben
- •6.7 Aufgaben
- •7 Integralrechnung
- •7.1 Flächenproblem
- •7.1.1 Integralsymbol
- •7.1.2 Integral als Grenzwert von Summen
- •7.1.3 Bestimmtes Integral
- •7.2 Zusammenhang von Ableitung und Integral
- •7.2.1 Integralfunktion
- •7.2.2 Stammfunktion
- •7.2.3 Bestimmtes Integral und Stammfunktion
- •7.2.4 Mittelwertsatz der Integralrechnung
- •7.3 Integrationstechnik
- •7.3.1 Integrationsregeln
- •7.3.2 Integration durch Substitution
- •7.3.3 Partielle Integration
- •7.3.4 Gebrochenrationale Funktionen
- •7.3.5 Uneigentliche Integrale
- •7.4 Länge, Flächeninhalt und Volumen
- •7.4.1 Flächeninhalte
- •7.4.2 Bogenlänge
- •7.4.3 Rotationskörper
- •7.5 Numerische Verfahren
- •7.5.1 Trapezregel
- •7.5.2 Romberg-Verfahren
- •7.6 Anwendungen
- •7.6.2 Schwerpunkte und statische Momente ebener Flächen
- •7.7 Aufgaben
- •8 Potenzreihen
- •8.1 Unendliche Reihen
- •8.2 Potenzreihen und Konvergenz
- •8.3 Taylor-Reihen
- •8.4 Eigenschaften
- •8.5 Numerische Verfahren
- •8.5.1 Berechnung von Funktionswerten
- •8.6 Anwendungen
- •8.6.1 Normalverteilung in der Statistik
- •8.7 Aufgaben
- •9 Kurven
- •9.1 Parameterdarstellung
- •9.2 Kegelschnitte
- •9.3 Tangente
- •9.4 Krümmung
- •9.5 Bogenlänge
- •9.6 Numerische Verfahren
- •9.6.1 Bézier-Kurve
- •9.7 Anwendungen
- •9.7.1 Mechanik
- •9.7.2 Straßenbau
- •9.8 Aufgaben
- •10 Funktionen mit mehreren Variablen
- •10.1.2 Schaubild einer Funktion mit mehreren Variablen
- •10.1.3 Schnittkurven mit Ebenen und Höhenlinien
- •10.2 Grenzwert und Stetigkeit
- •10.2.1 Grenzwert einer Funktion mit mehreren Variablen
- •10.2.2 Stetigkeit
- •10.3.3 Gradient und Richtungsableitung
- •10.3.5 Höhere partielle Ableitungen
- •10.3.6 Extremwerte
- •10.4 Ausgleichsrechnung
- •10.4.1 Methode der kleinsten Fehlerquadrate
- •10.4.2 Ausgleichsrechnung mit Polynomen
- •10.4.3 Lineare Ausgleichsrechnung
- •10.5 Vektorwertige Funktionen
- •10.6 Numerische Verfahren
- •10.6.1 Mehrdimensionales Newton-Verfahren
- •10.6.2 Gradientenverfahren
- •10.7 Anwendungen
- •10.7.1 Fehlerrechnung
- •10.8 Aufgaben
- •11 Komplexe Zahlen und Funktionen
- •11.1.1 Komplexe Zahlen
- •11.1.2 Gaußsche Zahlenebene
- •11.1.3 Polarkoordinaten
- •11.1.4 Exponentialform
- •11.2 Rechenregeln
- •11.2.1 Gleichheit
- •11.2.2 Addition und Subtraktion
- •11.2.3 Multiplikation und Division
- •11.2.4 Rechnen mit der konjugiert komplexen Zahl
- •11.2.5 Rechnen mit dem Betrag einer komplexen Zahl
- •11.3 Potenzen, Wurzeln und Polynome
- •11.3.1 Potenzen
- •11.3.2 Wurzeln
- •11.3.3 Fundamentalsatz der Algebra
- •11.4 Komplexe Funktionen
- •11.4.1 Ortskurven
- •11.4.2 Harmonische Schwingungen
- •11.4.3 Transformationen
- •11.5 Anwendungen
- •11.5.1 Komplexe Wechselstromrechnung
- •11.6 Aufgaben
- •12.1 Einführung
- •12.1.3 Richtungsfeld und Orthogonaltrajektorie
- •12.2.1 Separation der Variablen
- •12.2.2 Lineare Substitution
- •12.3.3 Allgemeine Eigenschaften
- •12.4.1 Allgemeine Form
- •12.4.2 Freie Schwingung
- •12.4.3 Harmonisch angeregte Schwingung
- •12.4.4 Frequenzgänge
- •12.5.1 Eliminationsverfahren
- •12.5.2 Zustandsvariablen
- •12.5.5 Stabilität
- •12.6 Numerische Verfahren
- •12.6.1 Polygonzugverfahren von Euler
- •12.7 Anwendungen
- •12.7.1 Temperaturverlauf
- •12.7.2 Radioaktiver Zerfall
- •12.7.3 Freier Fall mit Luftwiderstand
- •12.7.4 Feder-Masse-Schwinger
- •12.7.5 Pendel
- •12.7.6 Wechselstromkreise
- •12.8 Aufgaben
- •13 Fourier-Reihen
- •13.1 Fourier-Analyse
- •13.1.1 Periodische Funktionen
- •13.1.2 Trigonometrische Polynome
- •13.1.3 Fourier-Reihe
- •13.1.4 Satz von Fourier
- •13.1.5 Gibbssches Phänomen
- •13.2 Komplexe Darstellung
- •13.2.1 Komplexe Fourier-Reihe
- •13.2.3 Spektrum
- •13.2.4 Minimaleigenschaft
- •13.3 Eigenschaften
- •13.3.1 Symmetrie
- •13.3.2 Integrationsintervall
- •13.3.3 Mittelwert
- •13.3.4 Linearität
- •13.3.5 Ähnlichkeit und Zeitumkehr
- •13.3.6 Zeitverschiebung
- •13.4 Aufgaben
- •14 Verallgemeinerte Funktionen
- •14.1 Heaviside-Funktion
- •14.2 Dirac-Distribution
- •14.3 Verallgemeinerte Ableitung
- •14.4 Faltung
- •14.5 Aufgaben
- •15 Fourier-Transformation
- •15.1 Integraltransformation
- •15.1.4 Transformation gerader und ungerader Funktionen
- •15.1.5 Darstellung mit Amplitude und Phase
- •15.2 Eigenschaften
- •15.2.1 Linearität
- •15.2.2 Zeitverschiebung
- •15.2.3 Amplitudenmodulation
- •15.2.4 Ähnlichkeit und Zeitumkehr
- •15.3 Inverse Fourier-Transformation
- •15.3.2 Vertauschungssatz
- •15.3.3 Linearität
- •15.4.3 Multiplikationssatz
- •15.4.5 Faltung
- •15.5 Periodische Funktionen
- •15.5.1 Fourier-Transformation einer Fourier-Reihe
- •15.5.3 Grenzwertbetrachtung
- •15.6 Anwendungen
- •15.6.1 Lineare zeitinvariante Systeme
- •15.7 Aufgaben
- •16 Laplace-Transformation
- •16.1 Bildbereich
- •16.2 Eigenschaften
- •16.2.1 Linearität
- •16.2.2 Ähnlichkeit
- •16.2.3 Zeitverschiebung
- •16.2.4 Dämpfung
- •16.3.2 Integration
- •16.3.3 Faltung
- •16.3.4 Grenzwerte
- •16.4 Transformation periodischer Funktionen
- •16.5 Rücktransformation
- •16.7 Anwendungen
- •16.7.1 Regelungstechnik
- •16.8 Aufgaben
- •17 z-Transformation
- •17.1 Transformation diskreter Signale
- •17.1.2 z-Transformation und Laplace-Transformation
- •17.2 Eigenschaften
- •17.2.1 Linearität
- •17.2.2 Verschiebung
- •17.2.3 Dämpfung
- •17.4 Anwendungen
- •17.4.1 Zeitkomplexität von Quicksort
- •A Anhang
- •A.1 Ableitungsregeln
- •A.2 Ableitungen
- •A.3 Potenzreihen
- •A.4 Integralregeln
- •A.5 Integrale
- •A.6 Fourier-Reihen
- •A.7 Fourier-Transformationen
- •A.8 Laplace-Transformationen
- •A.9 Griechisches Alphabet
- •A.10 Bedeutende Mathematiker
- •Literaturverzeichnis
- •Sachwortverzeichnis
138 |
4 Matrizen |
c)Wir berechnen die Determinante der Matrix, bei der zwei Zeilen vertauscht sind. Jetzt entwickeln wir nach der zweiten Zeile
R |
1 |
2 |
3 |
R |
1 |
R |
4 |
5 |
6 |
R |
|
R |
7 |
8 |
0 |
R |
|
R |
R |
|
|||
R |
|
|
|
R |
|
R |
|
|
|
R |
= − W |
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
R |
|
|
|
R |
|
5 |
6 |
W + 2 W |
4 |
6 |
W − 3 W |
4 |
5 |
W = −27. |
8 |
0 |
7 |
0 |
7 |
8 |
Bei der Determinante hat sich nur das Vorzeichen geändert.
d)Wir multiplizieren die Matrix mit dem Faktor 2 und berechnen die Determinante durch Entwickeln nach der ersten Zeile:
R |
8 |
10 |
R |
2 |
4 |
R |
|
|
R |
|
|
R |
|
|
R |
|
|
R |
|
|
R |
|
|
R |
|
|
R |
|
|
R |
14 |
16 |
R |
||
R |
|
|
R |
|
|
12 |
R |
|
2 |
|
10 |
12 |
|
4 |
6 |
R |
|
|
|
16 |
0 |
|
|
0 |
R |
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
= |
|
W |
|
|
W − |
W |
|
R |
|
|
|
||||
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
|
R |
|
|
|
|
|
|
|
8 |
12 |
W + 6 W |
8 |
10 |
W = 2 |
3 |
27 = 216. |
Ì |
14 |
0 |
14 |
16 |
|
Satz 4.9 (Rechenregeln für Determinanten)
Für beliebige (n, n)-Matrizen A, B und Skalare λ gilt:
LDie transponierte Matrix hat dieselbe Determinante wie die Matrix: TATT = SAS.
LVertauscht man zwei Zeilen oder zwei Spalten, dann ändert sich das Vorzeichen der Determinante.
L Bei der Multiplikation mit einem Skalar gilt: Sλ AS = λn SAS.
L Bei der Multiplikation von Matrizen gilt: SA BS = SAS SBS.
Bei speziellen Matrizen vereinfacht sich die Berechnung der Determinante häufig. Je mehr Nullen die Matrix enthalten, desto weniger Summanden treten bei der Entwicklung der Determinante auf. Bei Matrizen, die unterhalb der Diagonale nur Nullen haben oder bei Matrizen, die oberhalb der Diagonale nur Nullen haben, muss man nur noch das Produkt der Diagonalelemente berechnen.
Determinante von Diagonalund Dreiecksmatrizen
Die Determinante einer Diagonalmatrix oder einer unteren oder oberen Dreiecksmatrix ist das Produkt der Elemente in der Diagonalen.
4.4 Inverse Matrix
Die inverse Matrix einer Matrix ist so etwas Ähnliches wie der Kehrwert einer Zahl. In diesem Abschnitt werden wir untersuchen, welche Matrizen eine inverse Matrix besitzen. Wir werden aufzeigen, wie man mit der inversen Matrix Gleichungssysteme lösen kann.
4.4 Inverse Matrix |
139 |
4.4.1 Invertierbare Matrizen
Die Lösung einer linearen Gleichung a x = b berechnet man, indem man die Gleichung auf beiden Seiten durch a teilt und dadurch nach x auflöst. Sofern a nicht null ist, erhält man x = ab als eindeutige Lösung. Bei einem linearen Gleichungssystem in Matrixform Ax = b kann man im Prinzip genauso vorgehen. Falls die Determinante einer quadratischen Matrix A ungleich null ist, ist das lineare Gleichungssystem eindeutig lösbar. Wir versuchen, die Gleichung Ax = b nach x aufzulösen. Dazu multiplizieren wir beide Seiten mit der sogenannten inversen Matrix A−1:
Ax = b Ô A−1 Ax = A−1 b.
Die inverse Matrix A−1 bestimmen wir so, dass das Produkt der Matrizen A−1 und A die Einheitsmatrix E ergibt: A−1 A = E. Dann erhalten wir x = A−1 b.
Definition 4.16 (Inverse Matrix)
Zu jeder quadratischen Matrix A, deren Determinante nicht null ist, gibt es eine eindeutig bestimmte inverse Matrix A−1 so, dass
A−1 A = E.
Eine Matrix A, die eine inverse Matrix besitzt, nennt man invertierbar oder regulär. Eine nicht invertierbare Matrix heißt singulär.
Man kann zeigen, dass aus A−1 A = E auch immer A A−1 = E folgt und umgekehrt. Eine sogenannte linksinverse Matrix ist also immer auch eine rechtsinverse Matrix.
Beispiel 4.22 (Nachweis einer inversen (3,3)-Matrix)
Die Determinante der Matrix A
R |
0 |
2 |
|
1 |
R |
2 2 3 1 2 5 1 1 |
1 2 |
1 |
R |
2 |
1 |
− |
1 |
R |
|
|
|
R |
5 |
2 |
3 |
R |
|
|
|
|
R |
|
R |
|
|
|
|||
R |
|
|
|
|
R |
|
|
|
R |
|
|
|
|
R |
= ( (− ) − ) + ( − (− ) ) = − |
|
|
R |
|
|
|
|
R |
|
||
R |
|
|
|
|
R |
|
|
|
R |
|
|
|
|
R |
|
|
|
R |
|
|
|
|
R |
|
|
|
R |
|
|
− |
|
R |
|
|
|
R |
|
|
|
R |
|
|
|
|
R |
|
|
|
|
R |
|
|
|
R |
|
|
|
|
R |
|
|
|
ist nicht null. Somit ist die Matrix A invertierbar und besitzt eine inverse Matrix A−1. Die Berechnung von A−1 ist aufwendig und wir verzichten auf die Details der Berechnung. Allerdings lässt sich die Vermutung
’8 −1 −3 “
A−1 |
= – |
5 |
1 |
|
2 |
— |
|
− |
− |
− |
|
||
|
” |
10 |
4 |
• |
||
|
|
1 |
|
|
einfach durch Matrixmultiplikation überprüfen:
|
2 |
1 |
|
1 |
|
|
8 |
1 |
3 |
|
1 |
0 |
0 |
|
|
’ |
0 |
2 |
−1 |
“ ’ |
|
5 |
−1 |
−2 |
“ ’ |
0 |
1 |
0 . |
|
||
5 |
2 |
|
3 |
10 |
1 |
4 |
0 |
0 |
1 |
“ |
|
||||
– |
|
− |
— – − |
|
− |
− |
— = – |
|
|
|
— |
Ì |
|||
” |
|
|
|
• ” |
|
|
• ” |
|
|
|
• |
140 |
4 Matrizen |
Definition 4.16 liefert kein Berechnungsverfahren für die inverse Matrix. Wir beschränken uns darauf, die inverse Matrix einer (2, 2)-Matrix anzugeben, siehe Abschnitt 4.4.2. Für n > 2 ist die Berechnung der inversen Matrix aufwendig. Da Problemstellungen in der Praxis ohnehin selten mithilfe der inversen Matrix gelöst werden, verzichten wir auf weitere Details.
4.4.2 Inverse einer (2,2)-Matrix
Die inverse Matrix einer (2, 2)-Matrix existiert nur dann, wenn die Determinante der Matrix nicht null ist. Bei einer (2, 2)-Matrix ergeben sich die Koe zienten der inversen Matrix unmittelbar aus den Koe zienten der Ausgangsmatrix, wobei durch die Determinante geteilt wird.
Satz 4.10 (Inverse einer (2,2)-Matrix)
Falls die Determinante einer (2, 2)-Matrix nicht null ist, kann man die inverse Matrix durch folgende Formel berechnen:
|
a11 |
a12 |
−1 |
1 |
|
a22 |
a12 |
. |
|
Œ |
|
|
‘ |
= |
|
Œ |
−a21 |
−a11 ‘ |
|
a21 |
a22 |
a11a22 − a12a21 |
|
Die Gültigkeit der Formel aus Satz 4.10 lässt sich einfach überprüfen. Dazu multiplizieren wir die beiden Matrizen:
|
a11 |
a12 |
1 |
|
a22 |
a12 |
|
1 |
0 |
|
|
AA−1 = Œ |
|
|
‘ |
|
Œ |
−a21 |
−a11 |
‘ = Œ |
0 |
1 |
‘ = E. |
a21 |
a22 |
a11a22 − a12a21 |
Beispiel 4.23 (Inverse einer (2,2)-Matrix)
Zur Bestimmung der inversen Matrix A−1 der Matrix A benötigen wir die Determinante von A:
A = Œ |
1 |
2 |
‘ |
Ô SAS = W |
1 |
2 |
W = 1 4 − 2 3 = −2. |
3 |
4 |
3 |
4 |
Dadurch ergibt sich die inverse Matrix zu
|
1 |
|
4 |
2 |
|
|
A−1 = |
|
Œ |
−3 |
−1 |
‘ . |
Ì |
−2 |
4.4.3 Inverse Matrix und lineares Gleichungssystem
Die Berechnung der inversen Matrix ist in der Regel aufwendiger als das Lösen eines linearen Gleichungssystems. Wenn man die inverse Matrix jedoch kennt, dann kann man die Lösung eines linearen Gleichungssystems für beliebige rechte Seiten durch einfache Matrixmultiplikationen berechnen.