- •1 Grundlagen
- •1.1 Logik und Mengen
- •1.1.1 Aussagenlogik
- •1.1.2 Mengen
- •1.2 Zahlen
- •1.2.1 Natürliche Zahlen
- •1.2.2 Ganze Zahlen
- •1.2.3 Rationale Zahlen
- •1.2.4 Reelle Zahlen
- •1.2.5 Ordnung
- •1.2.6 Intervalle
- •1.2.7 Betrag und Signum
- •1.2.8 Summe und Produkt
- •1.3 Potenz und Wurzel
- •1.3.1 Potenzen
- •1.3.2 Potenzgesetze
- •1.3.3 Wurzeln
- •1.3.4 Binomischer Satz
- •1.4 Trigonometrie
- •1.4.1 Trigonometrie im rechtwinkligen Dreieck
- •1.5 Gleichungen und Ungleichungen
- •1.5.1 Lineare Gleichungen
- •1.5.2 Potenzgleichungen
- •1.5.3 Quadratische Gleichungen
- •1.5.4 Wurzelgleichungen
- •1.5.5 Ungleichungen
- •1.6 Beweise
- •1.6.1 Direkter Beweis
- •1.6.2 Indirekter Beweis
- •1.6.3 Konstruktiver Beweis
- •1.6.4 Vollständige Induktion
- •1.7 Aufgaben
- •2 Lineare Gleichungssysteme
- •2.1 Einführung
- •2.2 Gauß-Algorithmus
- •2.2.1 Äquivalenzumformungen
- •2.2.2 Vorwärtselimination
- •2.2.3 Rückwärtseinsetzen
- •2.2.4 Gaußsches Eliminationsverfahren
- •2.2.5 Rechenschema
- •2.3 Spezielle Typen linearer Gleichungssysteme
- •2.3.1 Lineare Gleichungssysteme ohne Lösung
- •2.3.2 Lineare Gleichungssysteme mit unendlich vielen Lösungen
- •2.3.3 Systeme mit redundanten Gleichungen
- •2.3.4 Unterbestimmte lineare Gleichungssysteme
- •2.3.5 Überbestimmte lineare Gleichungssysteme
- •2.3.6 Homogene lineare Gleichungssysteme
- •2.3.7 Lineare Gleichungssysteme mit Parametern
- •2.4 Numerische Verfahren
- •2.4.1 Jakobi-Iteration
- •2.4.2 Gauß-Seidel-Iteration
- •2.5 Anwendungen
- •2.5.1 Produktion
- •2.5.2 Netzwerkanalyse in der Elektrotechnik
- •2.6 Aufgaben
- •3 Vektoren
- •3.2 Vektorrechnung ohne Koordinaten
- •3.2.1 Addition und Subtraktion
- •3.2.2 Skalare Multiplikation
- •3.2.3 Skalarprodukt
- •3.2.4 Vektorprodukt
- •3.2.5 Spatprodukt
- •3.2.6 Lineare Abhängigkeit und Komponentenzerlegung
- •3.3 Vektoren in Koordinatendarstellung
- •3.3.1 Koordinatendarstellung
- •3.3.2 Addition und Subtraktion
- •3.3.3 Skalare Multiplikation
- •3.3.4 Skalarprodukt
- •3.3.5 Vektorprodukt
- •3.3.6 Spatprodukt
- •3.3.7 Lineare Abhängigkeit und Komponentenzerlegung
- •3.4 Punkte, Geraden und Ebenen
- •3.4.1 Kartesisches Koordinatensystem
- •3.4.2 Parameterdarstellung von Geraden und Ebenen
- •3.4.3 Parameterfreie Darstellung von Geraden und Ebenen
- •3.4.4 Schnitte von Geraden und Ebenen
- •3.4.5 Abstände
- •3.4.6 Winkel
- •3.5 Anwendungen
- •3.5.1 Kraft
- •3.5.2 Arbeit
- •3.5.3 Drehmoment
- •3.6 Aufgaben
- •4 Matrizen
- •4.2 Rechnen mit Matrizen
- •4.2.1 Addition, Subtraktion und skalare Multiplikation
- •4.2.2 Multiplikation von Matrizen
- •4.3 Determinanten
- •4.3.1 Determinante einer (2,2)-Matrix
- •4.3.2 Determinante einer (3,3)-Matrix
- •4.3.3 Determinante einer (n,n)-Matrix
- •4.4 Inverse Matrix
- •4.4.1 Invertierbare Matrizen
- •4.4.2 Inverse einer (2,2)-Matrix
- •4.4.3 Inverse Matrix und lineares Gleichungssystem
- •4.5 Lineare Abbildungen
- •4.5.1 Matrizen als Abbildungen
- •4.5.2 Kern, Bild und Rang
- •4.6 Eigenwerte und Eigenvektoren
- •4.7 Numerische Verfahren
- •4.7.1 Potenzmethode
- •4.8 Anwendungen
- •4.9 Aufgaben
- •5 Funktionen
- •5.1 Einführung
- •5.1.2 Wertetabelle
- •5.1.3 Schaubild
- •5.1.4 Explizite und implizite Darstellung
- •5.1.6 Funktionsschar
- •5.1.7 Verkettung von Funktionen
- •5.2 Polynome und rationale Funktionen
- •5.2.1 Potenzfunktionen mit ganzen Hochzahlen
- •5.2.2 Polynome
- •5.2.3 Gebrochenrationale Funktionen
- •5.3 Eigenschaften
- •5.3.1 Symmetrie
- •5.3.2 Periode
- •5.3.3 Monotonie
- •5.3.4 Beschränktheit
- •5.4 Sinus, Kosinus und Tangens
- •5.4.2 Eigenschaften
- •5.5 Grenzwert und Stetigkeit
- •5.5.1 Zahlenfolgen
- •5.5.2 Grenzwert einer Funktion
- •5.5.3 Stetigkeit
- •5.5.4 Asymptotisches Verhalten
- •5.6.1 Exponentialfunktionen
- •5.6.2 Die e-Funktion
- •5.6.3 Hyperbelfunktionen
- •5.7 Umkehrfunktionen
- •5.7.1 Das Prinzip der Umkehrfunktion
- •5.7.2 Wurzelfunktionen
- •5.7.3 Arkusfunktionen
- •5.7.4 Logarithmusfunktionen
- •5.7.5 Area-Funktionen
- •5.8 Numerische Verfahren
- •5.8.1 Berechnung von Funktionswerten
- •5.8.2 Bisektionsverfahren
- •5.9 Anwendungen
- •5.9.1 Messwerte
- •5.9.2 Industrieroboter
- •5.10 Aufgaben
- •6.1 Steigung und Ableitungsfunktion
- •6.1.3 Ableitungsfunktion
- •6.1.5 Höhere Ableitungen
- •6.2 Ableitungstechnik
- •6.2.1 Ableitungsregeln
- •6.2.2 Ableitung der Umkehrfunktion
- •6.2.5 Zusammenfassung
- •6.3 Regel von Bernoulli-de l’Hospital
- •6.4 Geometrische Bedeutung der Ableitungen
- •6.4.1 Neigungswinkel und Schnittwinkel
- •6.4.2 Monotonie
- •6.4.3 Krümmung
- •6.4.4 Lokale Extrema
- •6.4.5 Wendepunkte
- •6.4.6 Globale Extrema
- •6.5 Numerische Verfahren
- •6.5.2 Newton-Verfahren
- •6.5.3 Sekantenverfahren
- •6.6 Anwendungen
- •6.6.1 Fehlerrechnung
- •6.6.2 Extremwertaufgaben
- •6.7 Aufgaben
- •7 Integralrechnung
- •7.1 Flächenproblem
- •7.1.1 Integralsymbol
- •7.1.2 Integral als Grenzwert von Summen
- •7.1.3 Bestimmtes Integral
- •7.2 Zusammenhang von Ableitung und Integral
- •7.2.1 Integralfunktion
- •7.2.2 Stammfunktion
- •7.2.3 Bestimmtes Integral und Stammfunktion
- •7.2.4 Mittelwertsatz der Integralrechnung
- •7.3 Integrationstechnik
- •7.3.1 Integrationsregeln
- •7.3.2 Integration durch Substitution
- •7.3.3 Partielle Integration
- •7.3.4 Gebrochenrationale Funktionen
- •7.3.5 Uneigentliche Integrale
- •7.4 Länge, Flächeninhalt und Volumen
- •7.4.1 Flächeninhalte
- •7.4.2 Bogenlänge
- •7.4.3 Rotationskörper
- •7.5 Numerische Verfahren
- •7.5.1 Trapezregel
- •7.5.2 Romberg-Verfahren
- •7.6 Anwendungen
- •7.6.2 Schwerpunkte und statische Momente ebener Flächen
- •7.7 Aufgaben
- •8 Potenzreihen
- •8.1 Unendliche Reihen
- •8.2 Potenzreihen und Konvergenz
- •8.3 Taylor-Reihen
- •8.4 Eigenschaften
- •8.5 Numerische Verfahren
- •8.5.1 Berechnung von Funktionswerten
- •8.6 Anwendungen
- •8.6.1 Normalverteilung in der Statistik
- •8.7 Aufgaben
- •9 Kurven
- •9.1 Parameterdarstellung
- •9.2 Kegelschnitte
- •9.3 Tangente
- •9.4 Krümmung
- •9.5 Bogenlänge
- •9.6 Numerische Verfahren
- •9.6.1 Bézier-Kurve
- •9.7 Anwendungen
- •9.7.1 Mechanik
- •9.7.2 Straßenbau
- •9.8 Aufgaben
- •10 Funktionen mit mehreren Variablen
- •10.1.2 Schaubild einer Funktion mit mehreren Variablen
- •10.1.3 Schnittkurven mit Ebenen und Höhenlinien
- •10.2 Grenzwert und Stetigkeit
- •10.2.1 Grenzwert einer Funktion mit mehreren Variablen
- •10.2.2 Stetigkeit
- •10.3.3 Gradient und Richtungsableitung
- •10.3.5 Höhere partielle Ableitungen
- •10.3.6 Extremwerte
- •10.4 Ausgleichsrechnung
- •10.4.1 Methode der kleinsten Fehlerquadrate
- •10.4.2 Ausgleichsrechnung mit Polynomen
- •10.4.3 Lineare Ausgleichsrechnung
- •10.5 Vektorwertige Funktionen
- •10.6 Numerische Verfahren
- •10.6.1 Mehrdimensionales Newton-Verfahren
- •10.6.2 Gradientenverfahren
- •10.7 Anwendungen
- •10.7.1 Fehlerrechnung
- •10.8 Aufgaben
- •11 Komplexe Zahlen und Funktionen
- •11.1.1 Komplexe Zahlen
- •11.1.2 Gaußsche Zahlenebene
- •11.1.3 Polarkoordinaten
- •11.1.4 Exponentialform
- •11.2 Rechenregeln
- •11.2.1 Gleichheit
- •11.2.2 Addition und Subtraktion
- •11.2.3 Multiplikation und Division
- •11.2.4 Rechnen mit der konjugiert komplexen Zahl
- •11.2.5 Rechnen mit dem Betrag einer komplexen Zahl
- •11.3 Potenzen, Wurzeln und Polynome
- •11.3.1 Potenzen
- •11.3.2 Wurzeln
- •11.3.3 Fundamentalsatz der Algebra
- •11.4 Komplexe Funktionen
- •11.4.1 Ortskurven
- •11.4.2 Harmonische Schwingungen
- •11.4.3 Transformationen
- •11.5 Anwendungen
- •11.5.1 Komplexe Wechselstromrechnung
- •11.6 Aufgaben
- •12.1 Einführung
- •12.1.3 Richtungsfeld und Orthogonaltrajektorie
- •12.2.1 Separation der Variablen
- •12.2.2 Lineare Substitution
- •12.3.3 Allgemeine Eigenschaften
- •12.4.1 Allgemeine Form
- •12.4.2 Freie Schwingung
- •12.4.3 Harmonisch angeregte Schwingung
- •12.4.4 Frequenzgänge
- •12.5.1 Eliminationsverfahren
- •12.5.2 Zustandsvariablen
- •12.5.5 Stabilität
- •12.6 Numerische Verfahren
- •12.6.1 Polygonzugverfahren von Euler
- •12.7 Anwendungen
- •12.7.1 Temperaturverlauf
- •12.7.2 Radioaktiver Zerfall
- •12.7.3 Freier Fall mit Luftwiderstand
- •12.7.4 Feder-Masse-Schwinger
- •12.7.5 Pendel
- •12.7.6 Wechselstromkreise
- •12.8 Aufgaben
- •13 Fourier-Reihen
- •13.1 Fourier-Analyse
- •13.1.1 Periodische Funktionen
- •13.1.2 Trigonometrische Polynome
- •13.1.3 Fourier-Reihe
- •13.1.4 Satz von Fourier
- •13.1.5 Gibbssches Phänomen
- •13.2 Komplexe Darstellung
- •13.2.1 Komplexe Fourier-Reihe
- •13.2.3 Spektrum
- •13.2.4 Minimaleigenschaft
- •13.3 Eigenschaften
- •13.3.1 Symmetrie
- •13.3.2 Integrationsintervall
- •13.3.3 Mittelwert
- •13.3.4 Linearität
- •13.3.5 Ähnlichkeit und Zeitumkehr
- •13.3.6 Zeitverschiebung
- •13.4 Aufgaben
- •14 Verallgemeinerte Funktionen
- •14.1 Heaviside-Funktion
- •14.2 Dirac-Distribution
- •14.3 Verallgemeinerte Ableitung
- •14.4 Faltung
- •14.5 Aufgaben
- •15 Fourier-Transformation
- •15.1 Integraltransformation
- •15.1.4 Transformation gerader und ungerader Funktionen
- •15.1.5 Darstellung mit Amplitude und Phase
- •15.2 Eigenschaften
- •15.2.1 Linearität
- •15.2.2 Zeitverschiebung
- •15.2.3 Amplitudenmodulation
- •15.2.4 Ähnlichkeit und Zeitumkehr
- •15.3 Inverse Fourier-Transformation
- •15.3.2 Vertauschungssatz
- •15.3.3 Linearität
- •15.4.3 Multiplikationssatz
- •15.4.5 Faltung
- •15.5 Periodische Funktionen
- •15.5.1 Fourier-Transformation einer Fourier-Reihe
- •15.5.3 Grenzwertbetrachtung
- •15.6 Anwendungen
- •15.6.1 Lineare zeitinvariante Systeme
- •15.7 Aufgaben
- •16 Laplace-Transformation
- •16.1 Bildbereich
- •16.2 Eigenschaften
- •16.2.1 Linearität
- •16.2.2 Ähnlichkeit
- •16.2.3 Zeitverschiebung
- •16.2.4 Dämpfung
- •16.3.2 Integration
- •16.3.3 Faltung
- •16.3.4 Grenzwerte
- •16.4 Transformation periodischer Funktionen
- •16.5 Rücktransformation
- •16.7 Anwendungen
- •16.7.1 Regelungstechnik
- •16.8 Aufgaben
- •17 z-Transformation
- •17.1 Transformation diskreter Signale
- •17.1.2 z-Transformation und Laplace-Transformation
- •17.2 Eigenschaften
- •17.2.1 Linearität
- •17.2.2 Verschiebung
- •17.2.3 Dämpfung
- •17.4 Anwendungen
- •17.4.1 Zeitkomplexität von Quicksort
- •A Anhang
- •A.1 Ableitungsregeln
- •A.2 Ableitungen
- •A.3 Potenzreihen
- •A.4 Integralregeln
- •A.5 Integrale
- •A.6 Fourier-Reihen
- •A.7 Fourier-Transformationen
- •A.8 Laplace-Transformationen
- •A.9 Griechisches Alphabet
- •A.10 Bedeutende Mathematiker
- •Literaturverzeichnis
- •Sachwortverzeichnis
4.2 Rechnen mit Matrizen |
121 |
Definition 4.7 (Transponierte Matrix)
Werden in einer Matrix A die Zeilen und Spalten miteinander vertauscht,
’ |
a21 |
a22 |
a23 |
|
a2n |
T |
’ |
a11 |
“ |
a13 |
|||||||
– |
a11 |
a12 |
a13 |
|
a1n |
— |
– |
a12 |
|
|
|
|
– |
|
|||
– |
am1 |
am2 |
am3 |
|
amn |
— |
= – |
a1n |
– |
|
|
|
|
— |
– |
||
” |
|
|
|
|
|
• |
– |
|
|
|
|
|
” |
so erhält man die transponierte Matrix AT.
a21 am1 a22 am2 a23 am3
a2n amn
“
—
—
— ,
—
—
•
Matrizen, die durch Transponieren unverändert bleiben, bezeichnet man als symmetrisch. Symmetrische Matrizen spielen im Zusammenhang mit Eigenwerten und Eigenvektoren von Matrizen eine wichtige Rolle, siehe Satz 4.16.
Definition 4.8 (Symmetrische Matrix)
Eine Matrix, die sich durch Transponieren nicht ändert, nennt man symmetrisch. Eine symmetrische Matrix ist immer quadratisch.
Beispiel 4.3 (Symmetrische und nicht symmetrische Matrix)
a) Die Matrix A wird durch Transponieren verändert:
|
’ |
1 |
2 |
3 |
“ |
AT |
’ |
1 |
4 |
7 |
“ . |
A |
4 |
5 |
6 |
2 |
5 |
8 |
|||||
|
= – |
7 |
8 |
9 |
— Ô |
|
= – |
3 |
6 |
9 |
— |
|
” |
|
|
|
• |
|
” |
|
|
|
• |
Die Matrix A ist somit nicht symmetrisch.
b) Die Transposition ändert die Matrix B nicht:
B |
|
7 |
2 |
0 |
|
BT |
|
7 |
|
2 |
0 |
|
|
’ |
2 |
−6 |
2 |
“ |
’ |
2 |
−6 |
2 . |
|||||
|
|
|
−5 |
|
|
|
|
−5 |
“ |
|
|||
|
= – −0 |
2 |
— Ô |
|
= – −0 |
|
2 |
— |
|
||||
|
” |
|
|
|
• |
|
” |
|
− |
|
|
• |
Ì |
Die Matrix |
B ist somit symmetrisch. |
|
|
|
|
|
|
||||||
|
− |
|
|
|
|
|
|
|
|
|
4.2 Rechnen mit Matrizen
Das kleine Einmaleins der Matrizenrechnung besteht aus Addition, Subtraktion und Multiplikation. Diese Operationen werden wir für Matrizen in diesem Abschnitt definieren. Die vierte Grundrechenart, also die Division, erfordert ein tieferes Verständnis. Bei Matrizen entspricht der Division das Lösen von linearen Gleichungssystemen. Diesen Aspekt betrachten wir in Abschnitt 4.4.1.
Zunächst müssen wir klären, wann zwei Matrizen A und B gleich sind. Um zwei Matrizen A und B vergleichen zu können, müssen sie dieselbe Dimension haben. Die Anzahl der
122 |
4 Matrizen |
Zeilen der Matrix A muss gleich der Anzahl der Zeilen der Matrix B und die Anzahl der Spalten der Matrix A muss gleich der Anzahl der Spalten der Matrix B sein.
Definition 4.9 (Dimension und Gleichheit von Matrizen)
Die Matrizen A und B sind von derselben Dimension, wenn sowohl die Anzahl der Zeilen bei A und B als auch die Anzahl der Spalten bei A und B gleich sind. Zwei Matrizen derselben Dimension sind genau dann gleich, wenn alle entsprechenden Elemente in jeder Zeile und Spalte gleich sind.
4.2.1 Addition, Subtraktion und skalare Multiplikation
Die Addition von Matrizen erfolgt elementweise. Dieses Prinzip kennen wir bereits von Vektoren. Das Element in der ersten Zeile und ersten Spalte der Matrix A wird zum Element in der ersten Zeile und ersten Spalte der Matrix B addiert. Entsprechend wird das Element in der ersten Zeile und zweiten Spalte der Matrix A zum Element in der ersten Zeile und zweiten Spalte der Matrix B addiert. Insgesamt erfordert die Addition zweier (m, n)-Matrizen die Addition von n m Zahlen.
Definition 4.10 (Addition und Subtraktion von Matrizen)
Zwei Matrizen derselben Dimension werden addiert bzw. subtrahiert, indem man die entsprechenden Elemente in jeder Zeile und jeder Spalte einzeln addiert bzw. subtrahiert.
Genau wie die Addition und die Subtraktion definiert man das Produkt einer Zahl mit einer Matrix elementweise. Der Faktor wird mit jedem einzelnen Element der Matrix multipliziert. Diese Multiplikation entspricht der skalaren Multiplikation bei Vektoren. Die Multiplikation einer (m, n)-Matrix mit einem Faktor erfordert n m Produkte.
Definition 4.11 (Multiplikation einer Matrix mit einem Skalar)
Eine Matrix wird mit einem Skalar multipliziert, indem man jedes einzelne Element der Matrix mit dem Skalar multipliziert.
Beispiel 4.4 (Addition, Subtraktion und skalare Multiplikation)
Die Matrizen A, B und C sind alle von derselben Dimension, nämlich (2, 2):
A = Œ |
1 |
1 |
‘ , |
B = Œ |
0 |
2 |
‘ , |
C = Œ |
4 |
2 |
‘ . |
2 |
−3 |
1 |
0 |
0 |
−6 |
Dadurch lassen sich diese drei Matrizen addieren und subtrahieren:
|
T |
1 |
|
1 |
1 |
|
0 |
1 |
|
1 |
|
4 |
2 |
|
0 |
2 |
|
|
|
D = 2 A + B |
|
− |
|
C = 2 Œ |
2 |
−3 |
‘ + Œ |
2 |
0 |
‘ − |
2 |
Œ |
0 |
−6 |
‘ = Œ |
6 |
−9 |
‘ . |
Ì |
|
2 |
4.2 Rechnen mit Matrizen |
123 |
Additionen, Subtraktionen und Multiplikationen mit Skalaren werden bei Matrizen elementweise durchgeführt. Somit gelten für diese Operationen dieselben Rechengesetze wie beim Rechnen mit Zahlen. Das Kommutativgesetz beschreibt das Vertauschen von Matrizen, das Assoziativgesetz mögliche Klammerungen und die Distributivgesetze das Ausmultiplizieren bei Matrizen. Beim Transponieren spielt es keine Rolle, ob man zuerst zwei Matrizen addiert und dann das Ergebnis transponiert, oder ob man zunächst beide Matrizen transponiert und dann die beiden transponierten Matrizen addiert. Zweifaches Transponieren lässt eine Matrix unverändert.
Satz 4.1 (Rechenregeln für Addition und skalare Multiplikation von Matrizen)
Für beliebige Matrizen A, B, C und Skalare λ, µ gilt:
L |
A B C A B C |
L |
λλ Aµ B λA λB |
||||||||||||||||||||
|
A |
+ |
B |
= |
B |
+ |
A |
|
|
( + |
) |
A |
= |
λA |
+ |
µA |
|||||||
L |
(A |
|
|
|
T |
|
|
AT |
|
BT |
L |
|
|
T |
T |
|
|
|
|
+ |
|||
L |
+ B) + = + ( + ) |
|
( + ) = |
||||||||||||||||||||
( |
|
+ |
) |
|
= |
|
|
+ |
|
L |
‰ |
A |
|
Ž |
= |
A |
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
4.2.2 Multiplikation von Matrizen
Addition, Subtraktion und Multiplikation mit einem Skalar sind bei Matrizen elementweise definiert. Es muss also gute Gründe geben, die Multiplikation zweier Matrizen nicht elementweise zu definieren. Genau das ist auch der Fall. Die Multiplikation zweier Matrizen definiert man anders, als man es auf den ersten Blick erwartet. Das Produkt zweier Matrizen wird so definiert, dass man lineare Gleichungssysteme möglichst einfach mithilfe von Matrizen darstellen kann. Dazu betrachten wir zunächst ein Beispiel.
Beispiel 4.5 (Lineares Gleichungssystem in Matrixform)
Das lineare Gleichungssystem
x1 |
− |
x2 |
+ |
5 x3 |
= |
12 |
3 x1 |
8 x2 |
x3 |
9 |
|||
10 x1 |
− |
5 x2 |
− |
2 x3 |
= |
1 |
|
+ |
|
− |
|
= |
|
aus Beispiel 2.5 besteht auf der linken Seite aus 3 3 Koe zienten und den drei unbekannten x1, x2 und x3. Auf der rechten Seite stehen nochmals 3 Zahlen. Die komplette Information lässt sich mit den drei Matrizen
A |
|
1 |
1 |
5 |
|
, x |
|
x1 |
|
, b |
|
12 |
|
’ |
3 |
−8 |
1 |
“ |
’ |
x2 |
“ |
’ |
9 |
“ |
|||
|
= – |
10 |
−5 |
−2 |
— |
|
= – |
x3 |
— |
|
= – |
1 |
— |
|
” |
|
|
− |
• |
|
” |
|
• |
|
” |
|
• |
beschreiben. Die Multiplikation einer Matrix mit einem Vektor wird so definiert, dass wir das lineare Gleichungssystem in der Form A x = b schreiben können. Es muss also gelten
A x |
|
1 |
1 |
5 |
|
x1 |
|
|
1 |
x1 |
− |
1 |
x2 |
+ |
5 |
x3 |
|
’ |
3 |
−8 |
1 |
“ ’ |
x2 |
“ |
’ |
3 |
x1 |
8 |
x2 |
1 |
x3 . |
||||
|
|
−5 |
−2 |
|
|
x1 |
− |
|
x2 |
− |
|
x3 |
“ |
||||
= – |
10 |
— – |
x3 |
— = – |
10 |
5 |
2 |
— |
|||||||||
|
” |
|
|
− |
• ” |
|
• |
” |
|
|
+ |
− |
• |
124 |
4 Matrizen |
Wir müssen die Elemente jeder einzelnen Zeile der Matrix A mit den Elementen des Spaltenvektors x muliplizieren und die Produkte addieren. Das Ergebnis der Multiplikation einer (3, 3)-Matrix mit einem Spaltenvektor mit 3 Elementen ergibt dann wieder einen Spaltenvektor mit 3 Elementen. Wir können nun mithilfe der Matrixmultiplikation das Ergebnis x1 = 1, x2 = −1 und x3 = 2 aus Beispiel 2.5 nochmals überprüfen:
’ |
1 |
1 |
5 |
“ ’ |
1 |
“ ’ |
1 |
|
1 |
− |
1 |
1 |
5 |
|
2 |
“ ’ |
12 |
“ . |
|
3 |
−8 |
1 |
1 |
3 |
1 |
8 |
(−1) + |
1 |
2 |
9 |
|
||||||||
– |
10 |
−5 |
−2 |
— – −2 |
— = – |
10 |
|
1 |
− |
5 |
(−1) − |
2 |
|
2 |
— = – |
1 |
— |
Ì |
|
” |
|
|
− |
• ” |
|
• ” |
|
+ (− ) − |
|
• ” |
|
• |
Das Prinzip aus Beispiel 4.5 wird ganz allgemein zur Definition des Matrixproduktes verwendet. Bei der Multiplikation von zwei Matrizen werden die Zeilen der ersten Matrix mit den Spalten der zweiten Matrix multipliziert und die Produkte aufsummiert. Diese Art der Multiplikation lässt sich nur durchführen, falls die Zeilenlänge der ersten Matrix und die Spaltenlänge der zweiten Matrix gleich sind.
Definition 4.12 (Multiplikation von Matrizen)
Das Produkt A B zweier Matrizen A und B ist nur definiert, wenn die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmt. Die Ergebnismatrix C hat so viele Zeilen wie A und so viele Spalten wie B:
Cmn = Amp Bpn.
Zur Berechnung der Elemente von C werden die Elemente in der entsprechenden Zeile von A mit den Elementen der entsprechenden Spalte von B multipliziert und summiert.
Beispiel 4.6 (Matrixmultiplikation)
Die Multiplikation der (2, 3)-Matrix A mit der (3, 4)-Matrix B
|
4 |
|
2 |
|
2 |
|
’ |
5 |
2 |
1 |
1 |
|
22 |
12 |
20 |
6 |
|
|
|
− |
|
1 |
1 |
6 |
0 “ |
|
|
||||||||
Œ |
2 |
|
3 |
1 |
‘ – |
2 |
3 |
−2 |
1 — |
= Œ |
11 |
4 |
18 |
1 |
‘ |
||
|
− |
|
|
|
|
− |
|
||||||||||
|
|
|
|
|
|
” |
|
B |
|
• |
|
|
C |
|
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
||||||||||||||
|
|
A |
|
|
|
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
ergibt die |
2, 4 -Matrix C. Beispielsweise müssen wir zur Berechnung des Elementes in der ersten |
|
der dritten Spalte der Matrix C die erste Zeile der Matrix A mit der dritten Spalte der |
||
Zeile und ( |
) |
Ì |
Matrix B multiplizieren: c13 = 2 1 + 3 (−6) + (−1) 2 = −18. |
Der Berechnungsaufwand bei der Multiplikation zweier Matrizen ist wesentlich höher als bei der Addition oder Subtraktion. Multipliziert man eine (m, p)-Matrix mit einer (p, n)-Matrix, dann muss man für jedes Element in der (m, n)-Ergebnismatrix p Multiplikationen und (p − 1) Additionen ausführen. In Summe benötigt man also m n p Multiplikationen und m n (p − 1) Additionen. Bei Paralleloder Vektorrechnern berücksichtigt man jedoch, dass die Berechnung der einzelnen Elemente der Ergebnismatrix unabhängig voneinander durchgeführt werden kann. Durch zeitgleiche Bearbeitungen lässt sich so die Dauer bei aufwendigen Berechnung stark verkürzen.
4.2 Rechnen mit Matrizen |
125 |
Multiplikation von Matrizen
Bei der Matrixmultiplikation C = A B
c |
|
|
c |
j |
|
c |
q |
|
a |
|
a12 |
a |
|
|
a |
n |
|
b11 |
|
b1j |
|
b1q |
|
|
11 |
1 |
|
1 |
|
|
|
11 |
ai2 |
|
13 |
1 |
|
|
b21 |
b2j |
b2q |
“ |
|||||
’ ci1 |
|
cij |
|
ciq |
“ ’ ai1 |
ai3 |
|
ain |
“ ’ b31 |
|
b3j |
|
b3q |
||||||||||
– |
|
|
— – |
|
|
|
|
|
— – |
|
|
|
— |
||||||||||
– |
|
|
|
|
|
|
|
— |
– |
|
|
|
|
|
|
|
— – |
|
|
|
|
|
— |
– |
|
cmj |
cmq |
— |
= – |
|
am2 |
am3 |
amn |
— – |
|
bnj |
bnq |
— |
|||||||||
– cm1 |
|
|
— – am1 |
|
— – bn1 |
|
|
— |
|||||||||||||||
– |
|
|
|
|
|
— – |
|
|
|
|
|
|
— – |
|
— |
||||||||
” |
|
|
|
|
• ” |
|
|
|
|
|
|
|
• ” |
|
|
|
• |
berechnet man das Element cij in der i-ten Zeile und j-ten Spalte der Matrix C durch
n
cij = ai1 b1j + ai2 b2j + ai3 b3j + . . . ain bnj = Q aik bkj. k=1
Ein einfacher Spezialfall der Matrixmultiplikation ist die Multiplikation zweier Vektoren, genauer die Multiplikation eines Zeilenvektors mit einem Spaltenvektor. Dieser Spezialfall entspricht genau dem Skalarprodukt zweier Vektoren, siehe Satz 3.13.
Matrixprodukt und Skalarprodukt
Das Skalarprodukt der Vektoren a und b entspricht dem Produkt einer (1, n)-Matrix mit einer (n, 1)-Matrix
aTb.
Dabei wird der Vektor a durch Transponieren zu einem Zeilenvektor.
Beispiel 4.7 (Matrixprodukt und Skalarprodukt)
Die beiden Vektoren a und b stellen im Sinne der Matrizenrechnung zwei (3, 1)-Matrizen dar. Das Skalarprodukt der beiden Vektoren lässt sich als Matrixprodukt schreiben, indem man den Vektor a transponiert und dadurch eine (1, 3)-Matrix erzeugt:
a |
’ |
1 |
“ |
, |
b |
’ |
4 |
“ |
aTb |
= ‰ |
1 2 3 |
’ |
4 |
“ |
1 |
|
4 |
+ |
2 |
|
5 |
+ |
3 |
|
6 |
= |
32. |
2 |
5 |
5 |
|||||||||||||||||||||||||
|
= – |
3 |
— |
|
|
= – |
6 |
— Ô |
|
|
Ž – |
6 |
— = |
|
|
|
|
|
|
Ì |
|||||||
|
” |
|
• |
|
|
” |
|
• |
|
|
|
” |
|
• |
|
|
|
|
|
|
|
|
|
|
|
|
|
Nun kann man formal auch einen Spaltenvektor mit einem Zeilenvektor multiplizieren. Das Ergebnis nennt man dyadisches Produkt. Im Gegensatz zum Skalarprodukt erzeugt ein dyadisches Produkt eine Matrix. Nimmt man für das Produkt zweimal denselben normierten Vektor a, so entsteht aaT. Im Sinne einer linearen Abbildung, siehe Abschnitt 4.5, führt diese Matrix eine Projektion auf e durch. Senkrechte Projektionen haben wir in Definition 3.8 festgelegt. Dyadische Matrizen spielen aber auch bei Vereinfachungen im Zusammenhang mit dem mehrdimensionalen Newton-Verfahren, siehe Abschnitt 10.6.1, eine wichtige Rolle. Dabei wird die Ableitungsmatrix nicht in jedem Iterationsschritt neu berechnet, sondern durch Addition mit einem dyadischen Produkt mit wenig Rechenaufwand angepasst.
126 |
|
|
|
|
|
|
|
4 Matrizen |
|
Matrixprodukt und dyadisches Produkt |
|||||||||
Das |
dyadische |
Produkt |
der Vektoren a und b entspricht dem Produkt einer |
||||||
( |
m, 1 |
) |
-Matrix mit einer |
( |
1, n |
) |
-Matrix |
||
|
|
|
|
|
|
abT.
Dabei wird der Vektor b durch Transponieren zu einem Zeilenvektor. Das Ergebnis ist eine (m, n)-Matrix.
Beispiel 4.8 (Matrixprodukt und dyadisches Produkt)
Mit den beiden folgenden Vektoren a und b lässt sich durch Transponieren von b ein dyadisches Produkt berechnen. Das Ergebnis ist eine (3, 2)-Matrix:
a |
’ |
1 |
“ , |
b |
5 |
abT ’ |
1 |
“ |
4 5 |
’ |
4 |
5 |
“ . |
|
2 |
2 |
8 |
10 |
|
||||||||||
|
= – |
3 |
— |
|
4 |
= – |
3 |
— ‰ |
|
Ž = – |
12 |
15 |
— |
|
|
|
= Œ ‘ Ô |
|
Ì |
||||||||||
|
” |
|
• |
|
|
” |
|
• |
|
” |
|
|
• |
Beim Multiplizieren von Matrizen treten ein paar Phänomene auf, die man unbedingt beachten muss. Bei der Multiplikation zweier Zahlen a und b spielt die Reihenfolge keine Rolle, es gilt a b = b a. Diese Eigenschaft bezeichnet man als Kommutativität. Die Multiplikation von Matrizen ist in der Regel nicht kommutativ. Das erkennt man bereits bei der Betrachtung der Dimensionen. Beispielsweise kann man eine (2, 3)-Matrix mit einer (3, 3)-Matrix multiplizieren, aber in umgekehrter Reihenfolge funktioniert das nicht. Doch selbst bei quadratischen Matrizen ist die Multiplikation im Allgemeinen nicht kommutativ.
Beispiel 4.9 (Nicht kommutative Matrixmultiplikation)
Die beiden |
2, 2 |
-Matrizen A |
|
B lassen sich auf zwei Arten multiplizieren: |
|
|||||||||||||||||
1 |
( 2 |
) |
|
|
0 |
1 |
|
|
und |
2 |
|
1 |
‘, |
0 |
1 |
1 |
2 |
3 |
|
4 |
‘ . |
|
Œ 3 |
4 |
‘ Œ |
|
1 |
0 |
‘ = Œ |
4 |
|
3 |
Œ 1 |
0 |
‘ Œ 3 |
4 ‘ = Œ 1 |
|
2 |
|||||||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|||||||||||||||||||
|
A |
|
|
|
B |
|
|
|
A |
|
B |
|
|
B |
|
A |
B |
|
A |
|
||
In diesem Fall ist A |
|
B |
≠ |
B |
|
A. |
|
|
|
|
|
|
|
|
|
Ì |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Matrixmultiplikation ist nicht kommutativ
Die Matrixprodukte A B und B A sind nur in Ausnahmefällen gleich:
i.Allg.
A B ≠ B A.
Ein zweites, zunächst verblü endes Phänomen betri t Produkte, die eine Nullmatrix ergeben. Wenn das Produkt zweier Zahlen a und b null ergibt, dann muss mindestens eine der beiden Zahlen null sein. Bei Matrizen ist das in der Regel nicht so.
4.2 Rechnen mit Matrizen |
|
|
|
127 |
|||||
Beispiel 4.10 (Nullprodukt) |
|
|
|
|
|||||
Die beiden1 |
folgenden |
|
2, 2 |
-Matrizen A und B sind beide keine Nullmatrizen: |
|||||
1 |
(1 |
) |
1 |
|
0 |
0 |
‘ . |
||
Œ 1 |
1 ‘ Œ |
− |
1 |
|
1 |
‘ = Œ 0 |
0 |
||
|
A |
B− |
|
|
A B |
|
|||
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
Trotzdem ergibt das Produkt eine Nullmatrix. Ì
Nullprodukt
Wenn das Produkt zweier Matrizen A und B eine Nullmatrix ergibt, dann kann man daraus nicht schließen, dass die Matrix A oder die Matrix B eine Nullmatrix ist:
i.Allg.
A B = 0 Ô~ A = 0 oder B = 0.
Eine Nullmatrix, also eine Matrix, bei der alle Elemente null sind, übernimmt in der Welt der Matrizen dieselbe Aufgabe wie die Null bei den Zahlen. Man kann zu einer Matrix die Nullmatrix addieren, ohne dass sich die Matrix dadurch verändert. Multipliziert man eine quadratische Matrix A mit der Einheitsmatrix E, so ergibt das Produkt die Matrix A. Bei der Multiplikation mit der Einheitsmatrix E spielt die Reihenfolge keine Rolle. In der Welt der Matrizen übernimmt die Einheitsmatrix E dieselbe Aufgabe wie die Eins bei den Zahlen.
Multiplikation mit Einheitsmatrix |
|
||||||||||
Bei der Multiplikation einer |
n, n -Matrix A mit der |
n, n -Einheitsmatrix E gilt: |
|||||||||
A |
|
E |
|
A, |
E |
|
A |
|
A. |
( ) |
|
|
= |
|
= |
|
( ) |
||||||
|
|
|
|
|
|
|
|
Diagonalmatrizen nehmen bei der Matrixmultiplikation eine Sonderrolle ein. Abhängig von der Reihenfolge der Faktoren skalieren Diagonalmatrizen entweder die Zeilen oder die Spalten einer Matrix.
Beispiel 4.11 (Multiplikation mit Diagonalmatrix)
Wir multiplizieren eine (3, 3)-Matrix A einmal von links und einmal von rechts mit einer (3, 3)-Diagonalmatrix D:
’ |
1 |
0 |
0 |
“ ’ |
1 |
1 |
1 |
“ |
’ |
1 |
1 |
1 |
“ |
|
’ |
1 |
1 |
1 |
“ ’ |
1 |
0 |
0 |
“ |
’ |
1 |
2 |
3 |
“ . |
||
0 |
2 |
0 |
1 |
1 |
1 |
2 |
2 |
2 |
, |
1 |
1 |
1 |
0 |
2 |
0 |
1 |
2 |
3 |
||||||||||||
– |
0 |
0 |
3 |
— – |
1 |
1 |
1 |
— = – |
3 |
3 |
3 |
— |
|
– |
1 |
1 |
1 |
— – |
0 |
0 |
3 |
— = – |
1 |
2 |
3 |
— |
||||
” |
|
|
|
• ” |
|
|
|
• |
” |
|
|
|
|
• |
|
” |
|
|
|
• ” |
|
|
|
• |
” |
|
|
|
|
• |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ |
|||||||||||||||||||||||||||
|
|
D |
|
|
|
A |
|
|
|
|
D |
|
A |
|
|
|
|
A |
|
|
|
D |
|
|
|
|
A |
|
D |
Ì |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
128 |
4 Matrizen |
Multiplikation mit Diagonalmatrix
Multipliziert man eine Matrix A von links mit einer Diagonalmatrix D, dann werden die einzelnen Zeilen der Matrix A mit den Elementen der Diagonale skaliert. Bei der entsprechenden Multiplikation von rechts werden die Spalten der Matrix A mit den Elementen der Diagonale skaliert.
Beispiel 4.12 (Transponieren eines Produktes)
Für die beiden Matrizen A und B gilt
A = Œ |
1 |
2 |
‘ , |
B = Œ |
5 |
6 |
‘ Ô |
A B = Œ |
19 |
22 |
‘ . |
3 |
4 |
7 |
8 |
43 |
50 |
Wenn wir nun die transponierten Matrizen multiplizieren, dann stellen wir fest, dass wir nicht die transponierte Matrix des Produktes erhalten:
A |
T |
B |
T |
= Œ |
1 |
3 |
‘ Œ |
5 |
7 |
‘ = Œ |
23 |
31 |
‘ ≠ (A B) |
T |
, |
|
|
2 |
4 |
6 |
8 |
34 |
45 |
|
Wenn wir aber die Reihenfolge vertauschen, dann ergibt sich der gesuchte Zusammenhang:
B |
T |
A |
T |
= Œ |
5 |
7 |
‘ Œ |
1 |
3 |
‘ = Œ |
19 |
43 |
‘ = (A B) |
T |
. |
Ì |
|
|
6 |
8 |
2 |
4 |
22 |
50 |
|
Transponieren von Matrixprodukten
Für beliebige Matrizen A und B mit entsprechend passenden Dimensionen gilt:
(A B)T = BT AT.
Abgesehen von den bisher betrachteten Fällen kann man mit Matrizen jedoch vielfach wie mit Zahlen rechnen. Insbesondere darf man bei Klammerausdrücken, die Matrizen enthalten, die Klammern wie gewohnt ausmultiplizieren. Wir können also Assoziativund Distributivgesetze formulieren.
Satz 4.2 (Multiplikation von Matrizen)
Für beliebige Matrizen A, B und C mit entsprechend passenden Dimensionen und für Skalare λ gilt:
L |
(A |
) |
B |
= |
A |
( |
λ B |
) |
|
|
L |
A |
( |
B |
+ |
C |
) = |
|
B |
+ |
|
|
C |
||||||||||
|
λ A |
|
|
|
|
|
|
|
|
|
|
|
|
|
A |
|
A |
||||||||||||||||
L |
( |
B |
) |
C |
= |
A |
( |
B |
|
C |
) |
L |
( |
A |
+ |
B |
) |
C |
= |
A |
C |
+ |
B |
|
C |
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Die Multiplikation zweier Matrizen lässt sich auch durch das sogenannte Falk-Schema beschreiben. Das Falk-Schema ermöglicht eine übersichtliche Darstellung des Rechenvorgangs. Die Multiplikation größerer Matrizen wird heutzutage jedoch meist nicht mehr von