Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Koch_Mathematik fur das Ingenieurstudium.pdf
Скачиваний:
107
Добавлен:
21.02.2016
Размер:
17.74 Mб
Скачать

4.2 Rechnen mit Matrizen

121

Definition 4.7 (Transponierte Matrix)

Werden in einer Matrix A die Zeilen und Spalten miteinander vertauscht,

a21

a22

a23

 

a2n

T

a11

a13

a11

a12

a13

 

a1n

a12

 

 

 

 

 

am1

am2

am3

 

amn

= –

a1n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

so erhält man die transponierte Matrix AT.

a21 am1 a22 am2 a23 am3

a2n amn

,

Matrizen, die durch Transponieren unverändert bleiben, bezeichnet man als symmetrisch. Symmetrische Matrizen spielen im Zusammenhang mit Eigenwerten und Eigenvektoren von Matrizen eine wichtige Rolle, siehe Satz 4.16.

Definition 4.8 (Symmetrische Matrix)

Eine Matrix, die sich durch Transponieren nicht ändert, nennt man symmetrisch. Eine symmetrische Matrix ist immer quadratisch.

Beispiel 4.3 (Symmetrische und nicht symmetrische Matrix)

a) Die Matrix A wird durch Transponieren verändert:

 

1

2

3

AT

1

4

7

.

A

4

5

6

2

5

8

 

= –

7

8

9

— Ô

 

= –

3

6

9

 

 

 

 

 

 

 

 

Die Matrix A ist somit nicht symmetrisch.

b) Die Transposition ändert die Matrix B nicht:

B

 

7

2

0

 

BT

 

7

 

2

0

 

 

2

6

2

2

6

2 .

 

 

 

5

 

 

 

 

5

 

 

= – −0

2

— Ô

 

= – −0

 

2

 

 

 

 

 

 

 

 

 

Ì

Die Matrix

B ist somit symmetrisch.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.2 Rechnen mit Matrizen

Das kleine Einmaleins der Matrizenrechnung besteht aus Addition, Subtraktion und Multiplikation. Diese Operationen werden wir für Matrizen in diesem Abschnitt definieren. Die vierte Grundrechenart, also die Division, erfordert ein tieferes Verständnis. Bei Matrizen entspricht der Division das Lösen von linearen Gleichungssystemen. Diesen Aspekt betrachten wir in Abschnitt 4.4.1.

Zunächst müssen wir klären, wann zwei Matrizen A und B gleich sind. Um zwei Matrizen A und B vergleichen zu können, müssen sie dieselbe Dimension haben. Die Anzahl der

122

4 Matrizen

Zeilen der Matrix A muss gleich der Anzahl der Zeilen der Matrix B und die Anzahl der Spalten der Matrix A muss gleich der Anzahl der Spalten der Matrix B sein.

Definition 4.9 (Dimension und Gleichheit von Matrizen)

Die Matrizen A und B sind von derselben Dimension, wenn sowohl die Anzahl der Zeilen bei A und B als auch die Anzahl der Spalten bei A und B gleich sind. Zwei Matrizen derselben Dimension sind genau dann gleich, wenn alle entsprechenden Elemente in jeder Zeile und Spalte gleich sind.

4.2.1 Addition, Subtraktion und skalare Multiplikation

Die Addition von Matrizen erfolgt elementweise. Dieses Prinzip kennen wir bereits von Vektoren. Das Element in der ersten Zeile und ersten Spalte der Matrix A wird zum Element in der ersten Zeile und ersten Spalte der Matrix B addiert. Entsprechend wird das Element in der ersten Zeile und zweiten Spalte der Matrix A zum Element in der ersten Zeile und zweiten Spalte der Matrix B addiert. Insgesamt erfordert die Addition zweier (m, n)-Matrizen die Addition von n m Zahlen.

Definition 4.10 (Addition und Subtraktion von Matrizen)

Zwei Matrizen derselben Dimension werden addiert bzw. subtrahiert, indem man die entsprechenden Elemente in jeder Zeile und jeder Spalte einzeln addiert bzw. subtrahiert.

Genau wie die Addition und die Subtraktion definiert man das Produkt einer Zahl mit einer Matrix elementweise. Der Faktor wird mit jedem einzelnen Element der Matrix multipliziert. Diese Multiplikation entspricht der skalaren Multiplikation bei Vektoren. Die Multiplikation einer (m, n)-Matrix mit einem Faktor erfordert n m Produkte.

Definition 4.11 (Multiplikation einer Matrix mit einem Skalar)

Eine Matrix wird mit einem Skalar multipliziert, indem man jedes einzelne Element der Matrix mit dem Skalar multipliziert.

Beispiel 4.4 (Addition, Subtraktion und skalare Multiplikation)

Die Matrizen A, B und C sind alle von derselben Dimension, nämlich (2, 2):

A = Œ

1

1

,

B = Œ

0

2

,

C = Œ

4

2

.

2

3

1

0

0

−6

Dadurch lassen sich diese drei Matrizen addieren und subtrahieren:

 

T

1

 

1

1

 

0

1

 

1

 

4

2

 

0

2

 

 

D = 2 A + B

 

 

C = 2 Œ

2

3

‘ + Œ

2

0

‘ −

2

Œ

0

−6

‘ = Œ

6

9

.

Ì

 

2

4.2 Rechnen mit Matrizen

123

Additionen, Subtraktionen und Multiplikationen mit Skalaren werden bei Matrizen elementweise durchgeführt. Somit gelten für diese Operationen dieselben Rechengesetze wie beim Rechnen mit Zahlen. Das Kommutativgesetz beschreibt das Vertauschen von Matrizen, das Assoziativgesetz mögliche Klammerungen und die Distributivgesetze das Ausmultiplizieren bei Matrizen. Beim Transponieren spielt es keine Rolle, ob man zuerst zwei Matrizen addiert und dann das Ergebnis transponiert, oder ob man zunächst beide Matrizen transponiert und dann die beiden transponierten Matrizen addiert. Zweifaches Transponieren lässt eine Matrix unverändert.

Satz 4.1 (Rechenregeln für Addition und skalare Multiplikation von Matrizen)

Für beliebige Matrizen A, B, C und Skalare λ, µ gilt:

L

A B C A B C

L

λλ Aµ B λA λB

 

A

+

B

=

B

+

A

 

 

( +

)

A

=

λA

+

µA

L

(A

 

 

 

T

 

 

AT

 

BT

L

 

 

T

T

 

 

 

 

+

L

+ B) + = + ( + )

 

( + ) =

(

 

+

)

 

=

 

 

+

 

L

A

 

Ž

=

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.2.2 Multiplikation von Matrizen

Addition, Subtraktion und Multiplikation mit einem Skalar sind bei Matrizen elementweise definiert. Es muss also gute Gründe geben, die Multiplikation zweier Matrizen nicht elementweise zu definieren. Genau das ist auch der Fall. Die Multiplikation zweier Matrizen definiert man anders, als man es auf den ersten Blick erwartet. Das Produkt zweier Matrizen wird so definiert, dass man lineare Gleichungssysteme möglichst einfach mithilfe von Matrizen darstellen kann. Dazu betrachten wir zunächst ein Beispiel.

Beispiel 4.5 (Lineares Gleichungssystem in Matrixform)

Das lineare Gleichungssystem

x1

x2

+

5 x3

=

12

3 x1

8 x2

x3

9

10 x1

5 x2

2 x3

=

1

 

+

 

 

=

 

aus Beispiel 2.5 besteht auf der linken Seite aus 3 3 Koe zienten und den drei unbekannten x1, x2 und x3. Auf der rechten Seite stehen nochmals 3 Zahlen. Die komplette Information lässt sich mit den drei Matrizen

A

 

1

1

5

 

, x

 

x1

 

, b

 

12

 

3

8

1

x2

9

 

= –

10

5

2

 

= –

x3

 

= –

1

 

 

 

 

 

 

 

beschreiben. Die Multiplikation einer Matrix mit einem Vektor wird so definiert, dass wir das lineare Gleichungssystem in der Form A x = b schreiben können. Es muss also gelten

A x

 

1

1

5

 

x1

 

 

1

x1

1

x2

+

5

x3

 

3

8

1

“ ’

x2

3

x1

8

x2

1

x3 .

 

 

5

2

 

 

x1

 

x2

 

x3

= –

10

— –

x3

— = –

10

5

2

 

 

 

• ”

 

 

 

+

124

4 Matrizen

Wir müssen die Elemente jeder einzelnen Zeile der Matrix A mit den Elementen des Spaltenvektors x muliplizieren und die Produkte addieren. Das Ergebnis der Multiplikation einer (3, 3)-Matrix mit einem Spaltenvektor mit 3 Elementen ergibt dann wieder einen Spaltenvektor mit 3 Elementen. Wir können nun mithilfe der Matrixmultiplikation das Ergebnis x1 = 1, x2 = −1 und x3 = 2 aus Beispiel 2.5 nochmals überprüfen:

1

1

5

“ ’

1

“ ’

1

 

1

1

1

5

 

2

“ ’

12

.

 

3

8

1

1

3

1

8

(−1) +

1

2

9

 

10

5

2

— – −2

— = –

10

 

1

5

(−1) −

2

 

2

— = –

1

Ì

 

 

• ”

 

• ”

 

+ (− ) −

 

• ”

 

Das Prinzip aus Beispiel 4.5 wird ganz allgemein zur Definition des Matrixproduktes verwendet. Bei der Multiplikation von zwei Matrizen werden die Zeilen der ersten Matrix mit den Spalten der zweiten Matrix multipliziert und die Produkte aufsummiert. Diese Art der Multiplikation lässt sich nur durchführen, falls die Zeilenlänge der ersten Matrix und die Spaltenlänge der zweiten Matrix gleich sind.

Definition 4.12 (Multiplikation von Matrizen)

Das Produkt A B zweier Matrizen A und B ist nur definiert, wenn die Anzahl der Spalten von A mit der Anzahl der Zeilen von B übereinstimmt. Die Ergebnismatrix C hat so viele Zeilen wie A und so viele Spalten wie B:

Cmn = Amp Bpn.

Zur Berechnung der Elemente von C werden die Elemente in der entsprechenden Zeile von A mit den Elementen der entsprechenden Spalte von B multipliziert und summiert.

Beispiel 4.6 (Matrixmultiplikation)

Die Multiplikation der (2, 3)-Matrix A mit der (3, 4)-Matrix B

 

4

 

2

 

2

 

5

2

1

1

 

22

12

20

6

 

 

 

 

1

1

6

0

 

 

Œ

2

 

3

1

‘ –

2

3

2

1

= Œ

11

4

18

1

 

 

 

 

 

 

 

 

 

 

 

 

 

B

 

 

 

C

 

 

 

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

 

 

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

 

 

A

 

 

 

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ergibt die

2, 4 -Matrix C. Beispielsweise müssen wir zur Berechnung des Elementes in der ersten

der dritten Spalte der Matrix C die erste Zeile der Matrix A mit der dritten Spalte der

Zeile und (

)

Ì

Matrix B multiplizieren: c13 = 2 1 + 3 (−6) + (−1) 2 = −18.

Der Berechnungsaufwand bei der Multiplikation zweier Matrizen ist wesentlich höher als bei der Addition oder Subtraktion. Multipliziert man eine (m, p)-Matrix mit einer (p, n)-Matrix, dann muss man für jedes Element in der (m, n)-Ergebnismatrix p Multiplikationen und (p − 1) Additionen ausführen. In Summe benötigt man also m n p Multiplikationen und m n (p − 1) Additionen. Bei Paralleloder Vektorrechnern berücksichtigt man jedoch, dass die Berechnung der einzelnen Elemente der Ergebnismatrix unabhängig voneinander durchgeführt werden kann. Durch zeitgleiche Bearbeitungen lässt sich so die Dauer bei aufwendigen Berechnung stark verkürzen.

4.2 Rechnen mit Matrizen

125

Multiplikation von Matrizen

Bei der Matrixmultiplikation C = A B

c

 

 

c

j

 

c

q

 

a

 

a12

a

 

 

a

n

 

b11

 

b1j

 

b1q

 

 

11

1

 

1

 

 

 

11

ai2

 

13

1

 

 

b21

b2j

b2q

ci1

 

cij

 

ciq

“ ’ ai1

ai3

 

ain

“ ’ b31

 

b3j

 

b3q

 

 

— –

 

 

 

 

 

— –

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

— –

 

 

 

 

 

 

cmj

cmq

= –

 

am2

am3

amn

— –

 

bnj

bnq

cm1

 

 

— – am1

 

— – bn1

 

 

 

 

 

 

 

— –

 

 

 

 

 

 

— –

 

 

 

 

 

• ”

 

 

 

 

 

 

 

• ”

 

 

 

berechnet man das Element cij in der i-ten Zeile und j-ten Spalte der Matrix C durch

n

cij = ai1 b1j + ai2 b2j + ai3 b3j + . . . ain bnj = Q aik bkj. k=1

Ein einfacher Spezialfall der Matrixmultiplikation ist die Multiplikation zweier Vektoren, genauer die Multiplikation eines Zeilenvektors mit einem Spaltenvektor. Dieser Spezialfall entspricht genau dem Skalarprodukt zweier Vektoren, siehe Satz 3.13.

Matrixprodukt und Skalarprodukt

Das Skalarprodukt der Vektoren a und b entspricht dem Produkt einer (1, n)-Matrix mit einer (n, 1)-Matrix

aTb.

Dabei wird der Vektor a durch Transponieren zu einem Zeilenvektor.

Beispiel 4.7 (Matrixprodukt und Skalarprodukt)

Die beiden Vektoren a und b stellen im Sinne der Matrizenrechnung zwei (3, 1)-Matrizen dar. Das Skalarprodukt der beiden Vektoren lässt sich als Matrixprodukt schreiben, indem man den Vektor a transponiert und dadurch eine (1, 3)-Matrix erzeugt:

a

1

,

b

4

aTb

= ‰

1 2 3

4

1

 

4

+

2

 

5

+

3

 

6

=

32.

2

5

5

 

= –

3

 

 

= –

6

— Ô

 

 

Ž –

6

— =

 

 

 

 

 

 

Ì

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Nun kann man formal auch einen Spaltenvektor mit einem Zeilenvektor multiplizieren. Das Ergebnis nennt man dyadisches Produkt. Im Gegensatz zum Skalarprodukt erzeugt ein dyadisches Produkt eine Matrix. Nimmt man für das Produkt zweimal denselben normierten Vektor a, so entsteht aaT. Im Sinne einer linearen Abbildung, siehe Abschnitt 4.5, führt diese Matrix eine Projektion auf e durch. Senkrechte Projektionen haben wir in Definition 3.8 festgelegt. Dyadische Matrizen spielen aber auch bei Vereinfachungen im Zusammenhang mit dem mehrdimensionalen Newton-Verfahren, siehe Abschnitt 10.6.1, eine wichtige Rolle. Dabei wird die Ableitungsmatrix nicht in jedem Iterationsschritt neu berechnet, sondern durch Addition mit einem dyadischen Produkt mit wenig Rechenaufwand angepasst.

126

 

 

 

 

 

 

 

4 Matrizen

Matrixprodukt und dyadisches Produkt

Das

dyadische

Produkt

der Vektoren a und b entspricht dem Produkt einer

(

m, 1

)

-Matrix mit einer

(

1, n

)

-Matrix

 

 

 

 

 

 

abT.

Dabei wird der Vektor b durch Transponieren zu einem Zeilenvektor. Das Ergebnis ist eine (m, n)-Matrix.

Beispiel 4.8 (Matrixprodukt und dyadisches Produkt)

Mit den beiden folgenden Vektoren a und b lässt sich durch Transponieren von b ein dyadisches Produkt berechnen. Das Ergebnis ist eine (3, 2)-Matrix:

a

1

,

b

5

abT

1

4 5

4

5

.

 

2

2

8

10

 

 

= –

3

 

4

= –

3

— ‰

 

Ž = –

12

15

 

 

 

= Œ ‘ Ô

 

Ì

 

 

 

 

 

 

 

 

Beim Multiplizieren von Matrizen treten ein paar Phänomene auf, die man unbedingt beachten muss. Bei der Multiplikation zweier Zahlen a und b spielt die Reihenfolge keine Rolle, es gilt a b = b a. Diese Eigenschaft bezeichnet man als Kommutativität. Die Multiplikation von Matrizen ist in der Regel nicht kommutativ. Das erkennt man bereits bei der Betrachtung der Dimensionen. Beispielsweise kann man eine (2, 3)-Matrix mit einer (3, 3)-Matrix multiplizieren, aber in umgekehrter Reihenfolge funktioniert das nicht. Doch selbst bei quadratischen Matrizen ist die Multiplikation im Allgemeinen nicht kommutativ.

Beispiel 4.9 (Nicht kommutative Matrixmultiplikation)

Die beiden

2, 2

-Matrizen A

 

B lassen sich auf zwei Arten multiplizieren:

 

1

( 2

)

 

 

0

1

 

 

und

2

 

1

,

0

1

1

2

3

 

4

.

Π3

4

‘ Œ

 

1

0

‘ = Œ

4

 

3

Π1

0

‘ Œ 3

4 ‘ = Œ 1

 

2

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

 

A

 

 

 

B

 

 

 

A

 

B

 

 

B

 

A

B

 

A

 

In diesem Fall ist A

 

B

B

 

A.

 

 

 

 

 

 

 

 

 

Ì

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Matrixmultiplikation ist nicht kommutativ

Die Matrixprodukte A B und B A sind nur in Ausnahmefällen gleich:

i.Allg.

A B B A.

Ein zweites, zunächst verblü endes Phänomen betri t Produkte, die eine Nullmatrix ergeben. Wenn das Produkt zweier Zahlen a und b null ergibt, dann muss mindestens eine der beiden Zahlen null sein. Bei Matrizen ist das in der Regel nicht so.

4.2 Rechnen mit Matrizen

 

 

 

127

Beispiel 4.10 (Nullprodukt)

 

 

 

 

Die beiden1

folgenden

 

2, 2

-Matrizen A und B sind beide keine Nullmatrizen:

1

(1

)

1

 

0

0

.

Π1

1 ‘ Œ

1

 

1

‘ = Œ 0

0

 

A

B

 

 

A B

 

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

Trotzdem ergibt das Produkt eine Nullmatrix. Ì

Nullprodukt

Wenn das Produkt zweier Matrizen A und B eine Nullmatrix ergibt, dann kann man daraus nicht schließen, dass die Matrix A oder die Matrix B eine Nullmatrix ist:

i.Allg.

A B = 0 Ô~ A = 0 oder B = 0.

Eine Nullmatrix, also eine Matrix, bei der alle Elemente null sind, übernimmt in der Welt der Matrizen dieselbe Aufgabe wie die Null bei den Zahlen. Man kann zu einer Matrix die Nullmatrix addieren, ohne dass sich die Matrix dadurch verändert. Multipliziert man eine quadratische Matrix A mit der Einheitsmatrix E, so ergibt das Produkt die Matrix A. Bei der Multiplikation mit der Einheitsmatrix E spielt die Reihenfolge keine Rolle. In der Welt der Matrizen übernimmt die Einheitsmatrix E dieselbe Aufgabe wie die Eins bei den Zahlen.

Multiplikation mit Einheitsmatrix

 

Bei der Multiplikation einer

n, n -Matrix A mit der

n, n -Einheitsmatrix E gilt:

A

 

E

 

A,

E

 

A

 

A.

( )

 

=

 

=

 

( )

 

 

 

 

 

 

 

 

Diagonalmatrizen nehmen bei der Matrixmultiplikation eine Sonderrolle ein. Abhängig von der Reihenfolge der Faktoren skalieren Diagonalmatrizen entweder die Zeilen oder die Spalten einer Matrix.

Beispiel 4.11 (Multiplikation mit Diagonalmatrix)

Wir multiplizieren eine (3, 3)-Matrix A einmal von links und einmal von rechts mit einer (3, 3)-Diagonalmatrix D:

1

0

0

“ ’

1

1

1

1

1

1

 

1

1

1

“ ’

1

0

0

1

2

3

.

0

2

0

1

1

1

2

2

2

,

1

1

1

0

2

0

1

2

3

0

0

3

— –

1

1

1

— = –

3

3

3

 

1

1

1

— –

0

0

3

— = –

1

2

3

 

 

 

• ”

 

 

 

 

 

 

 

 

 

 

 

• ”

 

 

 

 

 

 

 

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶ ´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

´¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¸¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¹¶

 

 

D

 

 

 

A

 

 

 

 

D

 

A

 

 

 

 

A

 

 

 

D

 

 

 

 

A

 

D

Ì

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

128

4 Matrizen

Multiplikation mit Diagonalmatrix

Multipliziert man eine Matrix A von links mit einer Diagonalmatrix D, dann werden die einzelnen Zeilen der Matrix A mit den Elementen der Diagonale skaliert. Bei der entsprechenden Multiplikation von rechts werden die Spalten der Matrix A mit den Elementen der Diagonale skaliert.

Beispiel 4.12 (Transponieren eines Produktes)

Für die beiden Matrizen A und B gilt

A = Œ

1

2

,

B = Œ

5

6

‘ Ô

A B = Œ

19

22

.

3

4

7

8

43

50

Wenn wir nun die transponierten Matrizen multiplizieren, dann stellen wir fest, dass wir nicht die transponierte Matrix des Produktes erhalten:

A

T

B

T

= Œ

1

3

‘ Œ

5

7

‘ = Œ

23

31

‘ ≠ (A B)

T

,

 

 

2

4

6

8

34

45

 

Wenn wir aber die Reihenfolge vertauschen, dann ergibt sich der gesuchte Zusammenhang:

B

T

A

T

= Œ

5

7

‘ Œ

1

3

‘ = Œ

19

43

‘ = (A B)

T

.

Ì

 

 

6

8

2

4

22

50

 

Transponieren von Matrixprodukten

Für beliebige Matrizen A und B mit entsprechend passenden Dimensionen gilt:

(A B)T = BT AT.

Abgesehen von den bisher betrachteten Fällen kann man mit Matrizen jedoch vielfach wie mit Zahlen rechnen. Insbesondere darf man bei Klammerausdrücken, die Matrizen enthalten, die Klammern wie gewohnt ausmultiplizieren. Wir können also Assoziativund Distributivgesetze formulieren.

Satz 4.2 (Multiplikation von Matrizen)

Für beliebige Matrizen A, B und C mit entsprechend passenden Dimensionen und für Skalare λ gilt:

L

(A

)

B

=

A

(

λ B

)

 

 

L

A

(

B

+

C

) =

 

B

+

 

 

C

 

λ A

 

 

 

 

 

 

 

 

 

 

 

 

 

A

 

A

L

(

B

)

C

=

A

(

B

 

C

)

L

(

A

+

B

)

C

=

A

C

+

B

 

C

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Die Multiplikation zweier Matrizen lässt sich auch durch das sogenannte Falk-Schema beschreiben. Das Falk-Schema ermöglicht eine übersichtliche Darstellung des Rechenvorgangs. Die Multiplikation größerer Matrizen wird heutzutage jedoch meist nicht mehr von

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]