06 La Disk N

Als pdf oder txt herunterladen
Als pdf oder txt herunterladen
Sie sind auf Seite 1von 36

Vademecum Mathematik I/II

Lineare Algebra: Arithmetische Aspekte∗

Alexander Caspar

4. Dezember 2023

Inhaltsverzeichnis

1 Einleitung / Beispiele 2

2 Matrizenrechnung 4
2.1 Der Vektorraum Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Grundlagen Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Entwicklungen mit Matrix-Vektor-Produkt . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Vereinfachung mit Hilfe der Linearität . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Iterationen mit Eigenwerten/-vektoren 15

4 Quadratische LGS und Determinante 19


4.1 Allgemeines zu Linearen Gleichungssystemen . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Die Determinante einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.3 Die Determinante und lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . 26

5 Zusammenfassung/Bemerkungen/Ergänzungen EW / EV 27

6 Iterationen Revisited mit EW / EV 29


6.1 Beispiele 3 × 3-Altersstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
∗ Literatur: Siehe Kapitel

1
1 Einleitung / Beispiele

7 LGS und Gauss-Verfahren 32


7.1 Gauss-Verfahren: Zusammenfassung und Beispiele . . . . . . . . . . . . . . . . . . . 32
7.2 Berechnung det(A) mit Gauss-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3 Rang und Determinante für ein LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1 Einleitung / Beispiele
[ACNH, 2.2.1]

Oft messen wir im n-ten Zeitschritt nicht einen Wert an wie im Kapitel über diskrete
 eindimensionale
xn
Modelle sondern mehrere, zum Beispiel drei Werte xn , yn , zn , welche wir so  yn  zusammenfassen,
zn
   
xn xn
zu einem Vektor vn =  yn . Wir haben damit eine Zuordnung (Abbildung): n 7→ vn =  yn 
zn zn
 
(n)
x
 1. 
und bei m Werten sogar n 7→ vn =   .. . Hier hat n jeweils die Rolle eines Zählindex, steht

(n)
xm
einmal unten, einmal oben in Klammern.
Beginnen wir mit m = 2 und zwei Populationen beschrieben durch Folgen (xn )n und (yn )n . Dabei
wächst die Population xn (als Räuber) auf Kosten der Population yn (als Beute).
xn+1 = a · xn + b · yn , (Räuber),
yn+1 = c · yn − d · xn , (Beute),
mit 0 < a, b, d < 1 und c > 1.
Bemerkung: Angenommen, b = d = 0, dann vereinfachen sich die Gleichungen xn+1 = a · xn und
yn+1 = c · yn und die Räuber x sind eine exponentiell schrumpfende (a < 1) und die Beute y eine
exponentiell wachsende Population (c > 1).
Zu jedem n haben wir nun m = 2 Werte, die Grösse der Räuber und die Grösse der Beute. Die
beiden Gleichungen geben an, nach welcher Gesetzmässigkeit sich die Populationen in der nächsten
Generation verändert.
Wir fragen uns, wie sich die Werte xn , yn im Laufe der Zeit entwickeln, also zum Beispiel

1. Gibt es ein Gleichgewicht, eine Monotonie oder ein asymptotisches Verhalten?


2. Gibt es Startwerte (x0 , y0 ), bei denen nichts passiert? Das heisst,
xn = x0 , yn = y0 , n = 1, 2, 3, . . .

3. Kann es sein, dass sich die Populationen ändern, aber das Verhältnis nicht? Das heisst,
xn xn+1
= , yn 6= 0 6= yn+1 ?
yn yn+1

2
1 Einleitung / Beispiele

Darstellungen mit Computerhilfe Wir arbeiten nun mit den folgendem Zahlenbeispiel weiter:
1 2
xn+1 = xn + yn (Räuber),
5 5
13 3
yn+1 = yn − xn (Beute).
10 5
 
xn
Wieder fassen wir die beiden Werte xn und yn zu einem Vektor vn = zusammen.
yn
 
xn
Mit diesen Zahlen berechnet der Computer den Vektor vn = und zeigt uns die Entwicklung
yn
im Laufe der Zeit bei unterschiedlichen Startvektoren v0 mit • Räuber und • Beute:

7520

3760
2000

1000

       
400 3760 5000 1000
v0 = v∞ = v0 = v∞ =
5000 7520 5000 2000

In einer anderen Darstellung wählen wir ein (Räuber,Beute)-Koordinatensystem: Dabei sind • = v0 ,


. . . , • = v∞ .

Beute Beute
7520

5000 5000

2000
Räuber Räuber
400 3760 1000 5000
       
400 3760 5000 1000
v0 = v∞ = v0 = v∞ =
5000 7520 5000 2000

Wir sehen, dass für beide Startvektoren v0 die Punkte vn auf einer Geraden liegen und diese Geraden
parallel sind. Ist das Zufall oder können wir dies erklären?

3
2 Matrizenrechnung

Erster Auftritt Lineare Algebra Die beiden Gleichungen für eine Räuber / Beute-Entwicklung
1 2
xn+1 = xn + yn (Räuber),
5 5
13 3 3 13
yn+1 = yn − xn = − xn + yn (Beute).
10 5 5 10
schreiben kompakt als ein Matrix-Vektor-Produkt
 vn+1 = A ·
vn mit
 den Vektorenvn1und 2vn+1
 der
xn+1 xn
Länge 2 sowie einer 2 × 2-Matrix A: vn+1 = , vn = und und A = 5 5 . Das
yn+1 yn − 53 13
10
werden wir im nächsten Kapitel erklären.

2 Matrizenrechnung
[TPW LA, 2; CB, 3]

2.1 Der Vektorraum Rn

Beginnen wir mit Beispielen

• Ein 4-dim. Vektor für Verteilung einer Population:


a1 = Anzahl Bakterien mit Lebensdauer 6 1 Jahr
a2 = Anzahl Bakterien mit 1 < Lebensdauer 6 2 Jahre
a3 = Anzahl Bakterien mit 2 < Lebensdauer 6 3 Jahre
a4 = Anzahl Bakterien mit Lebensdauer > 3 Jahre
 
a1
a2 
Der 4-dimensionale Vektor v =  a3  beschreibt dann die Verteilung der Lebensdauer in der

a4
Gesamtpopulation.
 
x
• Geometrisch gibt P = y  einen Punkt im dreidimensionalen Raum
z

4
2.2 Grundlagen Matrizen 2 Matrizenrechnung

Rechenregeln

Wir können zwei Vektoren v, w (der gleichen Länge) addieren und mit einer reellen Zahl λ multi-
plizieren λ · v (Skalare Multiplikation).
Seien λ, µ ∈ R reelle Zahlen und u, v, w ∈ Rn Vektoren. Wir haben folgende Gesetze:
v+w = w+v Kommutativgesetz
u + (v + w) = (u + v) + w Assoziativgesetz
λ · (v + w) = λv + λw Distributivgesetz
(λ + µ) · v = λv + µv Distributivgesetz
(λ · µ) · v = λ · (µ · v) Assoziativgesetz

Dabei gelten auch noch

Abgeschlossen
Für v, w ∈ V ist auch v + w ∈ V und für λ ∈ R und v ∈ V λ · v ∈ V , für 1 ∈ R ist 1 · v = v.
Nullvektor
In V gibt es ein ausgezeichnetes Element 0 mit 0 + v = v, für alle v ∈ V (der Nullvektor).
Inverses bezüglich Addition
Zu jedem v ∈ V gibt es ein eindeutiges Element −v ∈ V mit v + (−v) = 0.

2.2 Grundlagen Matrizen

Eine m × n-Matrix A ist ein Rechteckschema von Zahlen aij aus m Zeilen und n Spalten:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 .. .. .. 
 . . . 
am1 am2 . . . amn

Wir schreiben kurz (aij ). Dabei ist i der Zeilenindex und kommt “zuerst.” Er läuft von 1 bis m.
Der Spalteindex j läuft von 1 bis n. Falls m = n, so heisst A quadratisch.

Beispiele
 
a11 a12 . . . . . . a1n
 0
 a22 . . . . . . a2n 

1. Eine quadratische Matrix der Form  0
 0 ... ...  heisst obere Dreiecksmatrix.

 .. .. .. .. .. 
 . . . . . 
0 0 . . . 0 ann
Bei einer unteren Dreiecksmatrix sind alle Einträge oberhalb der Diagonalen gleich Null, als
Formel gilt aij = 0, falls j > i.

5
2.3 Entwicklungen mit Matrix-Vektor-Produkt 2 Matrizenrechnung

 
a11 0 ... ... 0
 0 a22 0 ... 0 
..
 
 .. .. 
 0
2. Der Spezialfall  0 . . . ist eine Diagonalmatrix.

 . .. .. ..
 ..

. . . 0 
0 0 ... 0 ann
3. Falls a11 = a22 = . . . ann = 1 erhalten wir die Einheitsmatrix
 
1 0 ... ... 0
0 1 0 . . . 0  

.. .. .
 1 0 0
En = 

0 0 . . ..  Beispiel E = 0

1 0
  3
. . .
 .. .. . . . . . 0 0 0 1

0 0 ... 0 1

Additive Rechenregeln für Matrizen

Seien λ ∈ R eine reelle Zahl und A, B und C jeweils eine m × n-Matrix. Dann gelten:
A+B = B+A Kommutativgesetz
A + (B + C) = (A + B) + C Assoziativgesetz
λ · (A + B) = λA + λB Distributivgesetz
(λ + µ) · A = λA + µA Distributivgesetz
(λ · µ) · A = λ · (µ · A) Assoziativgesetz

2.3 Entwicklungen mit Matrix-Vektor-Produkt

[ACNH, 2.2.2] auch für folgende Abschnitte


   
a11 a12 ...
a1n v1
 a21 a22 ...
a2n   v2 
Seien A = (aij ) =  . ..  und v =  ..  ∈ Rn eine m × n-Matrix und ein
   
..
 .. . .  .
am1 am2 . . . amn v
  n
w1
 w2 
Vektor der Länge n. Das Produkt ist A · v = w =  .  ∈ Rm ist ein Vektor der Länge m. Seine
 
 .. 
wm
Komponenten sind

w1 = a11 v1 + a12 v2 + . . . + a1n vn


w2 = a21 v1 + a22 v2 + . . . + a2n vn
.. .. ..
. . .
wm = am1 v1 + am2 v2 + . . . + amn vn

6
2.3 Entwicklungen mit Matrix-Vektor-Produkt 2 Matrizenrechnung

Mit Hilfe der Matrix A wird aus einem n-dimensionalen Vektor v ein m-dimensionaler Vektor w.
Das heisst, wir haben eine Abbildung (Zuordnung):
ϕA : Rn → Rm , v 7→ ϕA (v) = A · v = w

Bemerkung: Im Falle m = n einer quadratischen Matrix A ist A · v wieder ein n-dimensionalen


Vektor, und dies nutzen wir für die Entwicklungsmodelle aus: vk+1 = A · vk .

Anwendung auf Räuber-Beute-Modell Oben hatten wir die beiden Gleichungen für eine
Räuber / Beute-Entwicklung
1 2
xn+1 = xn + yn (Räuber),
5 5
13 3 3 13
yn+1 = yn − xn = − xn + yn (Beute).
10 5 5 10

Wir schreiben diese beiden Gleichungen kompakt als ein Matrix-Vektor-Produkt vn+1 = A · vn mit
den Vektoren vn und vn+1 der Länge 2 sowie einer 2 × 2-Matrix A:
     1 2

xn+1 xn
vn+1 = , vn = und A = 5 5 .
yn+1 yn − 35 13
10

Dann gilt:
1 2
   
xn
A · vn = 5
3
5
13 · Definition A und vn
− 5 10 yn
 1 2

= 5 xn + 5 yn Definition Matrix-Vektor-Produkt
− 35 xn + 13
10 yn
1 2
 
= 5 xn + 5 yn Vertauschen Summanden
13 3
10 yn − 5 xn
 
xn+1
= = vn+1 . Gleichungen Räuber/Beute-Modell
yn+1
Wir haben also folgendes Diagramm als Verallgemeinerung des eindimensionalen Falles:

n
explizit
/ v n ∈ Rm

1 ZE rekursiv
 
n+1 / vn+1 = A · vn ∈ Rm

Schauen wir uns die Entwicklungen für unterschiedliche Startvektoren an:


 
1
1. Für den Startvektor v0 = gilt v1 = Av0 = v0 . Wenn wir zu Beginn für jeden Räuber
2
zwei Beutetiere haben, bleiben die Populationen konstant.
Mathematisch sagen wir: Der Startvektor v0 ist ein Eigenvektor zum Eigenwert 1.

7
2.3 Entwicklungen mit Matrix-Vektor-Produkt 2 Matrizenrechnung

 
4
2. Für den Startvektor ve0 = gilt v1 = Ave0 = 21 ve0 und weiter
3
   2
1 1 1 1 1
v2 = A · v1 = A · ve0 = A · ve0 = · ve0 = · ve0
2 2 2 2 2
 2 !  
2  3
1 1 1
v3 = A · v2 = A · · ve0 = A · ve0 = · ve0
2 2 2
..
.
 n
1
vn = ve0
2
n
Da 21 → 0 für n → ∞, sterben die Populationen aus, wenn wir zu Beginn mehr Räuber
als Beute im Verhältnis 4 : 3 haben.
1
Mathematisch bedeutet die Gleichung Ave0 = 2 ve0 , dass der Vektor ve0 ein Eigenvektor zum
Eigenwert 21 ist.

Folgende Fragen können wir nun für diese Beispiele beantworten:

1. Gibt es Startwerte (x0 , y0 ), bei denen


  nichts passiert, das heisst, xn = x0 und yn = y0 für
1
n = 1, 2, 3, ...? Antwort: Für v0 = gilt v1 = Av0 = v0 , und damit x1 = x0 , y1 = y0 , also
2
auch xn = x0 , yn = y0 , n = 1, 2, 3, ...
2. Kann es sein, dass sich die Population ändert, aber das Verhältnis nicht, das heisst,
xn xn+1
= , yn 6= 0 6= yn+1 ?
yn yn+1
 
4 1
Antwort: Für v0 = gilt v1 = A · v0 = 2 · v0 also
3
  1 1
2 x0
    
x1 1 x0 x1 · x0 x1 x1 x0
= · =⇒ 2
= 1 =⇒ = =⇒ =
y1 2 y0 y 1 2 · y0 y1 1
2 y0
y1 y0
xn xn+1
und damit = , für yn 6= 0 6= yn+1 .
yn yn+1
   
2 8
Übung: Wie sieht die Entwicklung vk+1 = Avk mit Startwert oder aus ?
4 6

Beispiele 3 × 3-Altersstrukturen Wir betrachten das Beispiel der Altersverteilung in einer


Population nach n Zeiteinheiten (ZE):

xn = Anzahl der Zellen, welche genau 1 ZE überlebt haben: 1. Altersstufe.

8
2.3 Entwicklungen mit Matrix-Vektor-Produkt 2 Matrizenrechnung

yn = Anzahl der Zellen, welche genau 2 ZE überlebt haben: 2. Altersstufe.


zn = Anzahl der Zellen, welche genau 3 ZE überlebt haben: 3. Altersstufe.
 
xn
Die drei Werte xn , yn , zn fassen wir zu einem Vektor vn =  yn  zusammen und erhalten damit
  zn
xn
eine Zuordnung (Abbildung) n 7→ vn =  yn  . Ein Entwicklungsmodell sei wie folgt gegeben:
zn
Für i = 1, 2, 3 sind

ri = durchschnittliche Anzahl der Zellen, welche aus einer Zelle der i-ten Altersstufe entstehen.
Gezählt werden nur die neuen Zellen, welche 1 ZE überleben.

qi = Anteil der Zellen, welche eine ZE überleben und in die (i + 1)-te Altersstufe übergehen.
Zellen überleben höchstens 3 ZE.

Wie können wir die Entwicklung v0 , v1 , v2 , v3 , . . . , vn , . . . beschreiben? Aus den Angaben erhalten
wir drei Gleichungen für den (n + 1)-ten Zeitschritt.
1. Altersstufe: Anzahl Zellen xn+1 , die beim Übergang n → n + 1 erzeugt werden. Es entstehen

• aus xn neu r1 · xn Stück, aus yn neu r2 · yn Stück und aus zn neu r3 · zn Stück,

• insgesamt also xn+1 = r1 xn + r2 yn + r3 zn

2. Altersstufe: Anzahl Zellen, welche aus einer Zelle der 1. Stufe entstehen: yn+1 = q1 xn .
3. Altersstufe: Anzahl Zellen, welche aus einer Zelle der 2. Stufe entstehen: zn+1 = q2 yn .
Insgesamt erhalten wir drei Gleichungen

xn+1 = r1 xn + r2 yn + r3 zn
yn+1 = q1 xn
zn+1 = q2 yn ,
 
xn+1
welche wir kompakt mit Vektor wn+1 =  yn+1  schreiben. Das Matrix-Vektor-Produkt beschreibt
 zn+1

r1 r2 r3
die Entwicklung durch wn+1 = q1 0 0  wn .
0 q2 0
Der Computer zeigt bei einigen Zahlenbeispiele folgende Phänomene, die wir mit EW und EV
verstehen und untersuchen werden.

9
2.4 Vereinfachung mit Hilfe der Linearität 2 Matrizenrechnung

 Matrix  Startvektor
  Entwicklung
0 0 6 12
1.  1 0 0 12 Zyklus mit 3 ZE
2
1
 0 3 0 12
0 0 6 24 24
 

2.  1 0 0 12 Gleichgewichtszustand 12



2
1 4
 0 3 0 4
0 1 3 10 24
 

3.  1 0 0 10 Konvergenz zum Gleichgewicht 12



2
1 4
 0 3 0 10
0 2 3 1    
4.  1 0 0 1 Die Folgen
xn+1 y
, n+1
z
, n+1 konvergieren jeweils
2 xn yn zn
0 41 0 1 gegen eine feste Zahl λ
 
vn
Die Folge der normierten vn konvergiert.
|vn |

2.4 Vereinfachung mit Hilfe der Linearität

Für eine Matrix A, Vektoren v, u und Zahlen α, β gilt

A · (αv + βu) = αA · v + βA · u

Diese wichtige Eigenschaft des Matrix-Vektor-Produktes heisst Linearität.

Seien w ∈ Rm und v1 , v2 , . . . , vn ∈ Rm . Der Vektor w ist eine Linearkombination der Vektor


v1 , v2 , . . . , vn , falls es Zahlen λ1 , λ2 , . . . , λn gibt mit w = λ1 v1 + λ2 v2 + . . . + λn vn

Für längere Linearkombinationen gilt dann

A · (λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 A · v1 + λ2 A · v2 + . . . + λn A · vn .

   
1 4
Beispiel 2.1. Seien v0 = v1 und ve0 = v2 in R2 die Vektoren von oben: v1 = und v2 = .
  2 3
400
Für w = erhalten wir eine Linearkombination
5000
     
400 1 4
= 3760 + (−840) =⇒ w = 3760v1 + (−840)v2 ,
5000 2 3
 
5000
also λ1 = 3760 und λ2 = −840. Für w = erhalten wir eine Linearekombination
5000
     
5000 1 4
= 1000 + 1000 =⇒ w = 1000v1 + 1000v2 =⇒ λ1 = λ2 = 1000.
5000 2 3

10
2.4 Vereinfachung mit Hilfe der Linearität 2 Matrizenrechnung

Bemerkung: Seien w ∈ Rm und v1 , v2 , . . . , vn ∈ Rm gegeben. Es bleibt die Frage, ob wir w als


Linearkombination schreiben können, und falls ja: Wie berechnen wir die Zahlen λ1 , λ2 , . . . , λn ?
Eine systematische Antwort liefern später Lineare Gleichungssysteme in 4.1.
Linearität hilft uns hier erstmal
 wie folgt: Wir betrachten unser
 Räuber
 / Beute-Modell mit den
1 4
Startvektoren von oben v0 = mit v1 = Av0 = v0 und ve0 = mit v1 = Ave0 = 21 ve0 .
2 3
Sei w0 ein Startvektor gegeben als eine Linearkombination von v0 und ve0 mit w0 = αv0 + β ve0 .

1. Nach einer ZE ist wegen der Linearität:


1
w1 = A · w0 = A · (αv0 + β ve0 ) = αA · v0 + βA · ve0 = α · v0 + β ve0
2

2. Nach zwei ZE:


   
1 1
w2 = A · w1 = A · α · v0 + β ve0 = α · A · v0 + βA · ve0
2 2
 2
1
= α · v0 + β ve0
2
 n
1
3. Und nach n ZE: wn = α · v0 + β ve0 .
2
n n
Da 21 → 0, wird der Summand β 12 ve0 in wn im Laufe der Zeit verschwinden. Die Populationen
nähern sich immer weiter dem Vektor w∞ = αv0 an.
Mit der Linearität verstehen wir auch die vom Computer gezeigten Entwicklungen bei unterschied-
lichen Startvektoren w0 mit • Räuber, • Beute.

7520

3760
2000

1000

   
400 5000
w0 = w0 =
5000 5000
   
3760 1
Links stabilisiert sich die Entwicklung beim Vektor w∞ = = 3760 · und rechts bei
7520 2
   
1000 1
w∞ = = 1000 · . Das hätten wir auch a priori gesehen, wenn wir die Koeffizienten α
2000 2

11
2.4 Vereinfachung mit Hilfe der Linearität 2 Matrizenrechnung

und β berechnet hätten denn es gilt links


     
400 1 4
= 3760 + (−840) =⇒ w0 = 3760v0 + (−840)ve0 =⇒ w∞ = 3760v0
5000 2 3

und rechts
     
5000 1 4
= 1000 + 1000 =⇒ w0 = 1000v0 + 1000ve0 =⇒ w∞ = 1000v0
5000 2 3

In der Darstellung im (Räuber,Beute)-Koordinatensystem hatten wir mit • = w0 , • = w1 . . .

Beute Beute
7520

5000 5000

2000
Räuber Räuber
400 3760 1000 5000
       
400 3760 5000 1000
w0 = w∞ = w0 = w∞ =
5000 7520 5000 2000

Wir sehen, dass für beide Startvektoren w0 die Punkte wn jeweils auf einer Geraden liegen und
diese Geraden parallel sind. Dies können wir nun verstehen:

  
400 3760
1. Bei Start mit w0 = wandern die Punkt w1 , w2 , ... zum Punkt w∞ = .
5000 7520
   
5000 1000
2. Bei Start mit w0 = wandern die Punkt w1 , w2 , ... zum Punkt w∞ = .
5000 2000
 n
1
3. Oben hatten wir gesehen: wn = α · v0 + β ve0 . Die Punkte wn liegen auf der Geraden
2  
400
mit Parameterform g : r = r0 + λu = α · v0 + λve0 . Dabei ist α = 3760 für w0 = und
  5000
5000
α = 1000 für w0 = .
5000
 
1 n
 4
4. In beiden Fällen gilt 2 → 0. Der “Anteil” in Richtung ve0 = wird im Laufe der Zeit
3
immer kleiner. Die Population näher sich so immer weiter dem Vektor α · v0 an.

Bemerkung: Wir halten fest, dass Eigenvektoren helfen, eine Entwicklung wk+1 = A · wk zu un-
tersuchen. Wenn es uns gelingt, einen Startvektor w0 als Linearkombination von Eigenvektoren zu
schreiben. Dafür entwickeln wir die Theorie weiter.

12
2.5 Matrizenmultiplikation 2 Matrizenrechnung

2.5 Matrizenmultiplikation

[ACNH, 2.2.3]

Explizite Darstellung einer Entwicklung Sei ein Entwicklungsmodell gegeben: vn+1 = A · vn .


Wie bei den eindimensionalen Modellen setzen wir diese Iteration rückwärts fort:

vn+1 = A · vn = A · (A · vn−1 ) = A · (A · (A · vn−2 ))


= ...
= A · (A · (A · (. . . (A · v0 ))) . . .)

mit
A · (A · (A · (. . . A ·v0 ))) . . .).
| {z }
n+1 Stück

Die Rechenregeln der Matrixmultiplikation (s.u.) erlaubt uns, die Klammern anders zu setzen:

A · (A · (. . . · A) . . .) = (A · A · A · . . . A) = An+1 .
| {z } | {z }
n+1 Stück n+1 Stück

Vor allem können wir vn+1 so berechnen:

vn+1 = A · vn = An+1 · v0 explizite Darstellung

und erhalten damit eine explizite Darstellung der Entwicklung in dem Diagramm

n
explizit
/ vn ∈ R m

1 ZE rekursiv
 
n+1 / vn+1 = A · vn ∈ Rm

Rechenregeln der Matrizenmultiplikation Seien λ ∈ R eine reelle Zahl und A, B, C Matrizen,


sodass die allfälligen Produkte und Summen unten jeweils existieren. Dann gelten:
A(BC) = (AB)C Assoziativgesetz
λ(AB) = (λA)B = A(λB) Assoziativgesetz
A(B + C) = AB + AC Distributivgesetz
(A + B)C = AC + BC Distributivgesetz
(AB)T = B T AT Transponierte (Reihenfolge !)
Ap Aq = Ap+q Potenzgesetze für
(Ap )q = Apq p, q = 0, 1, 2, 3, ...
A · En = En · A = A Einheitsmatrix
A0 = En

13
2.5 Matrizenmultiplikation 2 Matrizenrechnung

Beispiel Diagonalmatrix Das Produkt zweier Diagonalmatrizen ist eine Diagonalmatrix und
auf der Diagonalen stehen die Produkte der Diagonaleinträge.

    
a11 0 ... 0 d11 0 ... 0 a11 d11 0 ... 0
 0 a22 ... 0  0 d22 ... 0   0 a22 d22 ... 0 
 =  ..
    
 .. .. .. ..   .. .. .. .. .. .. .. 
 . . . .  . . . .   . . . . 
0 0 ... ann 0 0 ... dnn 0 0 ... ann dnn

p
(a11 )p
  
a11 0 ... 0 0 ... 0
 0 a22 ... 0   0 (a22 )p ... 0 
= .
   
 .. .. .. .. .. .. ..
 ..
 
 . . . .  . . . 
0 0 ... ann 0 0 ... (ann )p

Zyklische oder periodische Entwicklung


Gegeben sei eine Entwicklung mit vn = A · vn−1 = An · v0 .
Angenommen, es gibt eine Potenz k mit Ak = Em = Einheitsmatrix in Mm×m . Dann gilt

vn+k = An+k · v0 = An Ak · v0 = An En · v0 = An · v0 = vn .

Nach k Zeitschritten erhalten wir also wieder den Vektor vn . Die Entwicklung zeigt eine periodisches
Verhalten mit einer Periode der Länge k.
0 21 1
 
3
Beispiel 2.2. Sei A = 6 0 −6. Dann ist A3 = E3 . (Übung: Nachrechnen!) Für eine Ent-
0 12 0
wicklung vn = A · vn−1 = An · v0 gilt dann das periodische Verhalten:

v3 = A3 · v0 = v0 und damit vn+3 = vn .

Was bedeutet A3 = E3 für die Eigenwerte der Matrix A?

Bemerkung: Im Beispiel oben ist m = k = 3. Allgemein kann auch k 6= m sein.

Die inverse Matrix Wir führen noch das Inverse bei dieser Multiplikationsvorschrift ein:

Definition. Sei A eine n × n-Matrix. Falls es eine n × n-Matrix B gibt mit A · B = B · A = En


heisst A invertierbar und B die inverse Matrix von A. Wir schreiben B = A−1 .

Bemerkungen:

1. CAVE: Nicht jede Matrix ist invertierbar.


2. Falls die inverse Matrix existiert, ist sie eindeutig.

14
3 Iterationen mit Eigenwerten/-vektoren

3. Die Berechnung der inversen Matrix ist oft recht aufwändig.


4. Falls A, B invertierbar sind, so auch das Produkt A · B, und es gilt

(A · B)−1 = (B −1 ) · (A−1 ), Reihenfolge !

Rückwärts mit der inverse Matrix Ein Entwicklungsmodell sei durch eine invertierbare Ma-
trix A gegeben: vn+1 = A · vn . Mit der inversen Matrix können wir die Entwicklung rückwärts
durchlaufen und für vn+1 den Vorgänger vn berechnen:

vn+1 = A · vn =⇒ A−1 · vn+1 = A−1 (A · vn )


=⇒ A−1 · vn+1 = A−1 · A ·vn =⇒ vn = A−1 · vn+1

| {z }
=En

−1 n

und v0 = A · vn .

3 Iterationen mit Eigenwerten/-vektoren


[ACNH, 2.2.4]
1 2
     
1 4
Seien A = 5 5 , v0 = und ve0 = . Wie oben gesehen gelten Av0 = v0 und Ave0 = 21 ve0 .
− 53 13
10 2 3
Allgemein definieren wir
Definition. Sei A eine quadratische Matrix.

1. Eine Zahl λ heisst Eigenwert von A (EW), wenn es einen Vektor v mit v 6= 0 und A · v = λv
gibt.
2. Jeder Vektor v mit v 6= 0 heisst Eigenvektor von A (EV) zum Eigenwert λ, wenn er die
Gleichung A · v = λv erfüllt.
 1 2

Beispiel 3.1. Die Matrix A = 5 5 hat die Eigenwerte 1 und 12 .
− 35 10
13

   
1 4
Der Vektor ist ein Eigenvektor zum EW 1, der Vektor ein Eigenvektor zum EW 12 .
2 3

Bemerkungen:

1. Wir kennen noch kein Verfahren, um EW und EV zu bestimmen, sogar für 2 × 2.


2. EV und EW helfen uns in einigen Fällen, eine Entwicklung zu beschreiben, ohne aufwändig
Matrix-Vektor-Produkte zu berechnen. In anderen Disziplinen zeigen diese ebenfalls ihre Nützlichkeit.
Wir werden diese immer wieder brauchen und einsetzen.

15
3 Iterationen mit Eigenwerten/-vektoren

3. Sei v ein EV von A zum EW λ, dann ist auch αv ein EV zum EW λ, denn
A(αv) = αA(v) = αλv = λ(αv).

4. Seien v1 und v2 EV von A zum gleichen EW λ, dann ist auch w = αv1 + βv2 ein EV zum
EW λ, denn
Aw = A(αv1 + βv2 ) = αA(v1 ) + βA(v2 ) = αλv1 + βλv2 = λ(αv1 + βv2 )
= λw.
Damit sehen wir vor allem, dass Eigenvektoren nicht eindeutig sind. Es gibt jeweils eine Wahl
von Eigenvektoren.
5. Sei A invertierbar.
(a) Dann muss jeder EW λ 6= 0 sein. Denn: Sei x ∈ Rn , x 6= 0 ein EV zum EW λ von A.
Dann gilt
Ax = λx =⇒ A−1 (Ax) = A−1 (λx) =⇒ (A−1 A)x = λA−1 x
=⇒ x = λA−1 x
Falls nun λ = 0 wäre, so stünde auf der rechten Seite der letzten Gleichung der Nullvek-
tor, also x = 0. Aber das hatten wir für den EV x verboten. Also muss λ 6= 0 sein.
1
(b) Ist x ∈ Rn , x 6= 0 ein EV zum EW λ von A, dann ist x EV von A−1 zum EW . Denn
λ
1
wir rechnen oben noch weiter und erhalten: x = λA−1 x =⇒ x = A−1 x.
λ

Anwendungen Sei vn+1 = A · vn ein 2 × 2-Entwicklungsmodell mit einem Startvektor v0 , von


dem wir wissen, dass er ein EV ist, das heisst, es gibt eine Zahl λ mit A · v0 = λv0 .
Es ist v1 = A · v0 = λv0 und weiter ist
v2 = A · v1 = A · (λv0 ) = λA · v0 = λ · λ · v0 = λ2 · v0
v3 = A · v2 = A · (λ2 v0 ) = λ2 A · v0 = λ3 · v0
..
.
vn = λn v0 .

1. Sei v0 ein EV zum EW λ mit |λ| < 1. Dann folgt λn → 0 und die Population stirbt mit
Startvektor v0 aus.
2. Seien v ein EV zum EW λ, u ein EV zum EW µ und v0 ein Startvektor mit v0 = αv + βu.
Nach einer ZE ist wegen der Linearität wie oben:
v1 = A · v0 = A · (αv + βu) = αA · v + βA · u = αλ · v + βµu
und vn = α · λ v + βµn u. Gilt nun zum Beispiel wieder |λ| < 1. Dann folgt λn → 0 und die
n

Population nähert sich βµn u mit


vn → βµn u.
Die Entwicklung stabilisiert sich in Richtung des Vektors u.

16
3 Iterationen mit Eigenwerten/-vektoren

Zwischenfragen Offen sind für eine 2 × 2-Matrix oder allgemeiner eine n × n-Matrix A.

1. Gibt es EW und EV? Wie finden wir EW und EV?


2. Seien v (1) , v (2) , ... Eigenvektoren. Wann können wir einen beliebigen Vektor w schreiben als

w = α1 · v (1) + α2 · v (2) + . . . αn · v (n)

und wie finden wir die αi ?


3. Können wir mit EW und EV ein n × n-Entwicklungsmodell vk+1 = A · vk beschreiben?

Beispiele zur Berechnung EW / EV

Berechnen wir zunächst zu Fuss drei einfache Beispiele.

   
2 0 x1
2×2-Diagonalmatrix Sei A = . Wir suchen Zahlen λ und Vektoren v = mit v 6= 0,
0 3 x2
das heisst, x1 6= 0, x2 6= 0, welche die Gleichung A · v = λv erfüllen.
Schreiben wir die Gleichungen des Matrix-Vektor-Produkts auf:
      
2 0 x1 2x1 x
A·v = = =λ 1
0 3 x2 3x2 x2

also erhalten wir ein System mit 2 Gleichungen:


 
2x1 = λx1
.
3x2 = λx2

Für x1 =
6 0 folgt mit Kürzen von x1 , dass λ = 2, Für x2 6= 0 folgt wieder mit Kürzen λ = 3. Die
Matrix A hat zwei EW λ = 2, 3.
Suchen wir nun EV:
 
2x1 = 2x1
Fall λ = 2: Dann ist unser System . Die erste Gleichung 2x1 = 2x1 ist für jedes
3x2 = 2x2
x1 erfüllt, und diezweite
 Gleichung
  3x2 = 2x2 nur dann, wenn x2 = 0 ist. Das heisst, jeder
t 1
Vektor der Form = t· , t 6= 0 erfüllt die beiden Gleichungen, ist also ein EV zum
0 0    
t 0
EW 2. Es muss t 6= 0 sein, da sonst = , und der Nullvektor ist per definitionem kein
0 0
EV.
 
0
Fall λ = 3: Mit analogen Überlegungen sehen wir, dass die EV zum EW 3 von der Form t ·
1
für t 6= 0 sind.

17
3 Iterationen mit Eigenwerten/-vektoren

   
1 2 x1
2×2-Dreiecksmatrix Sei A = . Wir suchen Zahlen λ und Vektoren v = mit v 6= 0,
0 3 x2
das heisst, x1 6= 0, x2 6= 0, welche die Gleichung A · v = λv erfüllen.
Schreiben wir die Gleichungen des Matrix-Vektor-Produkts auf:
      
1 2 x1 x1 + 2x2 x
A·v = = =λ 1
0 3 x2 3x2 x2
also erhalten wir ein System mit 2 Gleichungen:
 
x1 + 2x2 = λx1
.
3x2 = λx2
Sei x2 = 0, dann ist die 1. Gleichung x1 = λx1 . Da x1 6= 0 sein muss (sonst hätten wir den
Nullvektor), kürzen wir x1 6= 0 und es ist λ = 1. Sei x2 6= 0, dann ist wieder mir Kürzen λ = 3. Die
Matrix A hat zwei EW λ = 1, 3.
Suchen wir wieder EV:
 
x1 + 2x2 = 1x1
Fall λ = 1: Dann ist unser System . Aus der zweiten Gleichung 3x2 = 1x2
3x2 = 1x2
folgt x2 = 0. Setzen wir x2 = 0 in die erste Gleichung, folgt  x1 = 1x1 . 
Diese
 Gleichung ist
t 1
für alle x1 erfüllt, also ist wieder jeder Vektor von der Form = t· , t 6= 0 ein EV,
0 0
diesmal zum EW 1.
Fall λ = 3: Dann ist unser System
   
x1 + 2x2 = 3x1 2x2 = 2x1
=⇒ .
3x2 = 3x2 3x2 = 3x2
Aus der ersten Gleichung 2x2 = 2x1   x2 =x16= 0. Die zweite 3x2 = 3x2 ist für jedes x2
folgt
t 1
erfüllt. Also hat jeder EV die Form =t· , t 6= 0.
t 1

   
2 3 x1
Beliebige 2 × 2-Matrix Sei A = . Wir suchen Zahlen λ und Vektoren v = mit
−1 6 x2
v 6= 0, das heisst, x1 6= 0, x2 6= 0, welche die Gleichung A · v = λv erfüllen.
Schreiben wir die Gleichungen des Matrix-Vektor-Produkts auf:
      
2 3 x1 2x1 + 3x2 x
A·v = = =λ 1
−1 6 x2 −x1 + 6x2 x2
also erhalten wir 2 Gleichungen:
 
2x1 + 3x2 = λx1
.
−x1 + 6x2 = λx2

Wir können diesen Fall schon nicht mehr so leicht per Hand lösen:
Sei x2 = 0, dann ist die 2. Gleichung: −x1 = 0 also auch x1 = 0, was nicht sein darf, und vice versa.
Für eine konzeptionelle Berechnung benötigen wir mehr Theorie.

18
4 Quadratische LGS und Determinante

4 Quadratische LGS und Determinante


[TPW LA, 1; CB, 5,8]

4.1 Allgemeines zu Linearen Gleichungssystemen

Gegeben seien feste Zahlen

• aij mit i = 1, 2, 3, . . . , m und j = 1, 2, 3, . . . , n sowie


• c1 , c2 , . . . cm .

Ein m × n-Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten


x1 , x2 , . . . , xn

a11 x1 + a12 x2 + . . . + a1n xn = c1


a21 x1 + a22 x2 + . . . + a2n xn = c2
.. .. ..
. . .
am1 x1 + am2 x2 + . . . + amn xn = cm

 
Beispiele x+y+z+w  =3 
3×4 −2x + z + w =2
3x + y + 2z + w =4
 
2x1 + 3x2 = λx1
 
2 × 2 Oben hatten wir
−x1 + 6x2 = λx2
 
(2 − λ) · x1 + 3x2 = 0
Umgeformt ist dies
 
−x1 + (6 − λ) · x2 = 0 
 x+y+z =1 

−2x + z = 2

 

   
 −x1 + x2 + x3 = 0  5×3 3x + y + 2z = 3
3×3 x1 − 3x2 − 2x3 = 5 x+z =4

 


 

5x1 − x2 + 4x3 = 3 y + 2z = 5
   

Bezeichnungen

1. Falls n = m, heisst das LGS quadratisch.


2. Falls c1 = c2 = . . . = cm = 0, heisst das LGS homogen. Falls ein ci 6= 0, heisst es inhomo-
gen.

Fragestellungen Sei ein m × n-LGS gegeben:

1. Gibt es Zahlen x1 , x2 , . . . , xn , welche nach Einsetzen die m Gleichungen erfüllen?

19
4.1 Allgemeines zu Linearen Gleichungssystemen 4 Quadratische LGS und Determinante

2. Wenn ja, wie viele n-Tupel x1 , x2 , . . . , xn sind es?


3. Wie finden wir diese Lösungen x1 , x2 , . . . , xn ?

Allgemein gilt:

1. Ein inhomogenes LGS hat:

• entweder keine Lösung

• oder genau eine Lösung

• oder unendlich viele Lösungen.


2. Ein homogenes LGS hat als Lösung immer x = 0 mit x1 = x2 = . . . xn = 0 als die die
triviale Lösung:

• Entweder ist die triviale Lösung die einzige Lösung, oder


• es gibt unendlich viele Lösungen.

Matrixschreibweise Um diese Frage zu beantworten, führen wir eine Matrixschreibweise ein,


welche wir bereits als Matrix-Vektor-Produkt kennen:
Das m × n-LGS mit m Gleichungen und n Unbekannten

a11 x1 + a12 x2 + . . . + a1n xn = c1


a21 x1 + a22 x2 + . . . + a2n xn = c2
.. .. ..
. . .
am1 x1 + am2 x2 + . . . + amn xn = cm
   
x1 c1
 x2   c2 
schreibt sich kurz als A · x = c mit A = (aij ) ∈ Mm×n , x =  .  ∈ Rn , c =   ∈ Rm
   
..
| {z }  ..   . 
Gegeben
xn cm
| {z } | {z }
Gesucht Gegeben
 
a11 a12 ... a1n | c1
 a21 a22 ... a2n | c2 
Und als (erweiterte) Koeeffizientenmatrix: (A|c) =  . .
 
.. ..
 .. . . 
am1 am2 ... amn | cm

20
4.2 Die Determinante einer Matrix 4 Quadratische LGS und Determinante

Nehmen wir an, dass A quadratisch ist und dass A−1 existiert. Dann gilt wie oben:
A · x = c =⇒ A−1 (A · x) = A−1 c =⇒ A−1 · A x = A−1 c =⇒ x = A−1 c.

| {z }
=En
−1
Das LGS hat eine eindeutige Lösung x = A c. Falls c = 0, d.h. das LGS ist Ax = 0 homogen, ist
die triviale Lösung x = 0 die einzige Lösung.

Wie können wir entscheiden, ob A−1 existiert? Hier hilft die Determinante.

4.2 Die Determinante einer Matrix

[TPW LA, 1.5; CB, 8]

Die Determinante ist eine Abbildung det : Mn×n → R, A 7→ det(A). Das heisst, die Determinante
ordnet einer quadratischen Matrix eine Zahl zu. Wichtig ist nun das Kriterium:

Eine Matrix ist genau dann invertierbar, wenn die Determinante ungleich Null ist. Oder anders:

A−1 exisitiert genau dann, wenn det(A) 6= 0.

Eine Matrix A mit det(A) 6= 0 heisst regulär, mit det(A) = 0 singulär.


 
a b
Beispiel 4.1. Sei A ∈ M2×2 mit A = . Dann ist die inverse Matrix mit det(A) = ad−bc 6= 0
c d
 
1 d −b
gegeben durch A−1 = · . Probe/Übung: Es ist A−1 · A = A · A−1 = E2 .
det(A) −c a

Wir unterscheiden für ein LGS Ax = c die Fälle c = 0 (homogen) und c 6= 0 (inhomogen).

homogen

1. Falls det(A) 6= 0 =⇒ Es gibt nur die triviale Lösung x = 0. Nochmals: Ein


homogenes LGS hat immer die triviale Lösung. Im Fall einer regulären Matrix A ist
dies die einzige Lösung von Ax = 0.
2. Falls det(A) = 0 =⇒ Es gibt neben der trivialen Lösung unendlich viele Lösungen
von Ax = 0.

inhomogen

1. Falls det(A) 6= 0 =⇒ Es gibt eine eindeutige Lösung für jedes c ∈ Rn . Mit der
inversen Matrix x = A−1 · c.
2. Falls det(A) = 0 =⇒ ?
Das können wir im Allgemeinen nicht entscheiden. Es kann keine Lösung geben oder
unendlich viele. Darauf kommen wir später beim Gauss-Verfahren 7.1 zurück.

21
4.2 Die Determinante einer Matrix 4 Quadratische LGS und Determinante

Beispiele revisited: EW mit Determinante Formen wir die Gleichungen um:

     
2x1 + 3x2 = λx1 2x1 − λx1 + 3x2 = 0 (2 − λ)x1 + 3x2 = 0
=⇒ =⇒ .
−x1 + 6x2 = λx2 −x1 + 6x2 − λx2 = 0 −x1 + (6 − λ)x2 = 0

 
2−λ 3 0
Wir erhalten ein homogones LGS mit Matrixschreibweise: = B ·x = 0. Dieses
    −1 6−λ 0
x1 0
System B · x = 0 hat genau dann eine Lösung x = 6= , wenn die Determinante det B = 0.
x2 0
In diesem Fall gibt es sogar unendlich viele.
 
2−λ 3
Es ist det B = det = (2 − λ)(6 − λ) + 3 = λ2 − 8λ + 15.
−1 6−λ
Wir suchen nun Zahlen λ, sodass die Gleichung λ2 − 8λ + 15 Null ergibt, wir suchen also Lösungen
der quadratischen Gleichung λ2 − 8λ + 15 = 0. Dies sind λ1,2 = 3, 5. Das heisst: Mit Hilfe der
Determinante haben wir ausgerechnet, dass genau für λ = 3 oder λ = 5 das LGS A · v = λv eine
Lösung v 6= 0 hat. Diese beiden Zahlen sind Eigenwerte von A.
 
2 3
Berechnen wir nun für A = die EV zum EW λ = 3 wie in den ersten beiden Beispielen
−1 6 
x1
oben: Wir suchen alle Vektoren v = , sodass x1 , x2 die zwei Gleichungen erfüllen:
x2
     
2x1 + 3x2 = 3x1 −x1 + 3x2 = 0 x1 = 3x2
=⇒ =⇒ .
−x1 + 6x2 = 3x2 −x1 + 3x2 = 0 x1 = 3x2
 
x1
Damit sind die EV alle Vektoren v = , welche zusätzlich die Bedingung x1 = 3x2 erfüllen.
x2    
3t 3
Jeder EV zum EW 3 ist also von der Form =t· , t 6= 0.
t 1
           
2 3 3t 6t + 3t 9t 3 3t
Probe: = = =3· t· =3· .
−1 6 t −3t + 6t 3t 1 t

 
2−λ 3
Allgemeine Schreibweise Die Matrix B = schreiben wir um:
−1 6−λ
       
2−λ 3 2 3 −λ 0 1 0
= + = A + (−λ) = A − λ · E2
−1 6−λ −1 6 0 −λ 0 1

Damit haben wir, dass det B = det(A − λ · E2 ) und somit ist eine Zahl λ genau dann ein EW von A,
wenn gilt det(A − λ · E2 ) = 0.

22
4.2 Die Determinante einer Matrix 4 Quadratische LGS und Determinante

Dies gilt auch allgemeiner: Sei A eine n × n-Matrix.


Eine Zahl λ ist genau dann ein EW von A, wenn gilt det(A − λ · En ) = 0.

Bemerkungen: Wir kennen immer noch kein Rezept, um per Hand die EV einer n × n-Matrix zu
bestimmen.
Prüfen wir das allgemeine Rezept für EW an den Beispielen der Diagonal- und Dreiecksmatrix:
       
2 0 2 0 1 0 2−λ 0
• A= . Dann sind A − λ · E2 = −λ· = und
0 3 0 3 0 1 0 3−λ
 
2−λ 0
det(A − λ · E2 ) = det = (2 − λ)(3 − λ)
0 3−λ

und es ist det(A − λ · E2 ) = (2 − λ)(3 − λ) genau dann Null, wenn λ = 2 oder 3. Wie oben
erhalten wir die beiden EW 2, 3.
   
1 2 1−λ 2
• A= . Dann sind analog A−λ·E2 = und det(A−λ·E2 ) = (1−λ)(3−λ),
0 3 0 3−λ
und die EW sind 1, 3.
   
0 1 1 −λ 1 1
und an einem 3 × 3-Beispiel für A = 1 0 1. Dann folgen A − λE3 =  1 −λ 1  und
1 1 0 1 1 −λ
 
−λ 1 1
det  1 −λ 1  = −λ3 + 1 + 1 − (−λ) − (−λ) − (−λ)
1 1 −λ
= −λ3 + 3λ + 2
= −(λ + 1)2 (λ − 2)

Die Nullstellen von −(λ + 1)2 (λ − 2) sind λ1,2 = −1 und λ3 = 2. Die doppelte Nullstelle −1 heisst
dann auch doppelter Eigenwert.

 
a b
Determinante als Produkt der EW Sei A ∈ M2×2 mit A = . Dann ist
c d

det(A − λ · E2 ) = (a − λ) · (d − λ) − b · c = λ2 − (a + d)λ + ad − bc .
| {z }
=det(A)

Nehmen wir an, dass A nur (reelle) EW λ1 und λ2 hat, so ist det(A − λ · E2 ) = (λ − λ1 ) · (λ − λ2 )
und nach Ausmultiplizieren und Vergleich folgt λ1 · λ2 = det(A) . Das heisst, die Determinante ist
das Produkt der Eigenwerte.
Bemerkung: Das gilt auch allgemeiner für A ∈ Mn×n und für komplexe EW.

23
4.2 Die Determinante einer Matrix 4 Quadratische LGS und Determinante

Rechenregeln: Zeilen- oder Spaltenmanipulationen

• Beim Vertauschen zweier Zeilen oder zweier Spalten ändert die Determinante das Vorzeichen.
   
... ...
det ai1 · · · ain  = − det ain · · · ai1 
... ...

• Multiplikation einer Zeile oder Spalte mit einer Zahl λ ändert die Determinante um λ:
   
... ...
det λai1 · · · λain  = λ det ai1 · · · ain 
... ...

CAVE
Wir multiplizieren eine Zeile oder Spalte mit λ – NICHT ganz A. Es gilt: det(λA) = λn det(A).
• Addition des Vielfachen
einer Zeile (Spalte)
 zu einer
anderen Zeile (Spalte), ändert
die De-
... ...
 ai1 · · · ain   ai1 ··· ain 
   
terminante nicht: det 

 . . .  = det 
  . . . 

aj1 · · · ajn  λai1 + aj1 · · · λain + ajn 
... ...

Kriterien für det(A) = 0 Die Determinante einer Matrix ist gleich Null, wenn eine der folgenden
Bedingungen erfüllt ist:

• Die Matrix enthält Zeilen (oder Spalten) aus lauter Nullen.


• Zwei Zeilen (oder Spalten) der Matrix sind gleich.
• Zwei Zeilen (oder Spalten) der Matrix unterscheiden sich um ein skalares Vielfaches, das
heisst, dass aik = λajk , k = 1, 2, ..., n gilt.
• Eine Zeile ist die Summe von skalaren Vielfachen der anderen Zeilen, das heisst, ein Zeilen-
vektor ist eine Linearkombination anderer Zeilenvektoren.
• Eine Spalte ist die Summe von skalaren Vielfachen der anderen Spalten, das heisst, ein Spal-
tenvektor ist eine Linearkombination anderer Spaltenvektoren.

Beispiele: Die Determinante verschwindet jeweils


       
1 1 −3 4 0 4 −1 4 1 1 1 5
0 0 0 1 3 1 −5 20 5 1 0 2
4 5 3 5 1 5 1 1 2 1 2 8
1. 2. 3. 4.
Beim 4. Bsp: 3. Spalte = 2 · (1. Spalte) + 3 · (2. Spalte)

24
4.2 Die Determinante einer Matrix 4 Quadratische LGS und Determinante

Dreiecksmatrizen Für eine obere (oder untere) Dreiecksmatrix oder eine Diagonalmatrix
 

a11 a12 . . . . . . a1n
 a11 0 . . . . . . 0
 0 a22 . . . . . . a2n   0 a22 0 . . . 0 
.. 
 

 0 0 . . . . . .
  . .


  0
 0 . ... . 
 .. .. . .
.. .. .
..  . .

.. ..

 . .  .. ..
 
. . 0 
0 0 . . . 0 ann 0 0 . . . 0 ann

gilt det(A) = a11 · a22 · · · · ann Also vor allem det(En ) = 1.

Multiplikation

• Für zwei n × n-Matrizen A, B gilt det(A · B) = det(A) · det(B).


CAVE
Es gilt i.A.: det(A ± B) 6= det(A) ± det(B).
• Für Potenzen einer n × n-Matrix A gilt det(Ak ) = det(A)k .
1
• Für die inverse Matrix einer n × n-Matrix A gilt allenfalls det(A−1 ) = .
det(A)
CAVE
Dabei müssen wir wissen: A−1 exisitiert genau dann, wenn det(A) 6= 0.

Zusammenfassung: Determinante einer n × n-Matrix


Die Determinante ordnet A ∈ Mn×n eine Zahl det(A) zu. Je nachdem, ob det(A) = 0 oder 6= 0,
können wir entscheiden, ob

• A invertierbar ist

• LGS A · x = c (eindeutig) lösbar


• ...

Als Berechnungsmethoden haben wir

2 × 2 einfach: a11 a22 − a12 a21


3 × 3 aufwendiger mit Sarrus oder mit Laplace.

n × n noch aufwendiger mit Laplace: Müssen viele Determinanten ausrechnen. Später werden wir
mit dem Gauss-Verfahren A kontrolliert vereinfachen A∗ und dann det(A∗ ) leichter be-
rechnen.

25
4.3 Die Determinante und lineare Unabhängigkeit 4 Quadratische LGS und Determinante

 
1 2 −2
Beispiel Lösbarkeit Ax = c mit det(A) = 0 Sei A = 2 3 0  . Es ist det(A) = 0, und wir
2 1 8
können im Moment noch nicht entscheiden, ob das LGS Ax = c keine Lösung oder unendlich viele
hat.
 
5
Für c = 3 gibt es keine Lösungen.
5
       
3 x1 1 −6
Für c = 5 gibt es unendlich viele Lösungen x = x2  = 1 + t  4  mit t ∈ R.
3 x3 0 1

4.3 Die Determinante und lineare Unabhängigkeit


 
w1
 w2 
Seien w =  .  ∈ Rm und v1 , v2 , . . . , vn ∈ Rm . Der Vektor w ist eine Linearkombination der
 
 .. 
wm
Vektoren v1 , v2 , . . . , vn , falls es Zahlen α1 , α2 , . . . , αn gibt mit w = α1 v1 + α2 v2 + . . . + αn vn . Wann
können wir einen Vektor w als Linearkombination anderer Vektoren v1 , v2 , . . . , vn schreiben, wann
gibt es α1 , α2 , . . . , αn mit w = α1 v1 + α2 v2 + . . . + αn vn ?
 
w1
 w2 
Führen wir wieder eine Matrixschreibweise ein: A = (v1 v2 . . . vn ) ∈ Mm×n , w =  .  ∈ Rm
 
 .. 
wm
 
α1
 α2 
und α =  .  ∈ Rn - Die Spaltenvektoren der Matrix A sind die Vektoren v1 , v2 , . . . , vn .
 
 .. 
αn
Damit übersetzt sich die Gleichung w = α1 v1 + α2 v2 + . . . + αn vn in das LGS A · α = w.
Die Frage, ob es Zahlen α1 , α2 , . . . , αn gibt mit w = α1 v1 + α2 v2 + . . . + αn vn übersetzt sich in die
Lösbarkeit eines m × n-LGS.

Der quadratische Fall Um die Determinante anwenden zu können, nehmen wir m = n an. Dem
Fall n 6= m begegnen wir später mit dem Gauss-Verfahren 7.1.
Seien v1 , v2 , . . . , vn ∈ Rn und A die n × n-Matrix, mit Spaltenvektoren v1 , v2 , . . . , vn :

Mit w ∈ Rn erhalten wir ein n × n-LGS A · α = w


und eine eindeutige Lösung genau dann, wenn det(A) 6= 0.

26
5 Zusammenfassung/Bemerkungen/Ergänzungen EW / EV

Für A mit det(A) 6= 0 gilt:

1. Jeder Vektor w ∈ Rn lässt sich eindeutig als Linearkombination der Vektoren v1 , v2 , . . . , vn


schreiben, das heisst, es gibt α1 , α2 , . . . , αn mit w = α1 v1 + α2 v2 + . . . + αn vn .
2. Im Spezialfall w = 0 bedeutet dies, dass die Gleichung 0 = α1 v1 + α2 v2 + . . . + αn vn nur für
die triviale (als einzige) Lösung α1 = α2 = . . . = αn = 0 erfüllt ist.
Definition. Wenn die triviale Lösung α1 = α2 = . . . = αn = 0 die einzige Lösung des Glei-
chungssystem α1 v1 + α2 v2 + . . . + αn vn = 0 ist, heissen die Vektoren v1 , v2 , . . . , vn ∈ Rn linear
unabhängig.

Also: v1 , v2 , . . . , vn sind genau dann linear unabhängig, wenn det(A) 6= 0


Bemerkung: Linear unabhängig gibt es auch im nicht quadratischen Fall. Da hilft aber die Deter-
minante nicht. Dies ist zum Beispiel eine Anwendung des Gauss-Verfahrens.

5 Zusammenfassung/Bemerkungen/Ergänzungen EW / EV

Sei A eine n × n-Matrix.

Eigenwerte

1. Es ist pA (λ) = det(A − λ · En ) ein Polynom in λ, das charakteristische Polynom pA (λ).


2. Die EW von A sind genau die Nullstellen von pA (λ).
Denn dann hat das homogene LGS (A − λ · En ) · x = 0 nicht triviale Lösungen x 6= 0. Dies
sind die EV zu diesem EW λ.
3. Das Polynom pA (λ) hat Grad n. Es gibt also höchstens n EW (=Nullstellen). Ist λ eine mehr-
fache Nullstelle von pA (λ), dann ist dies ein mehrfacher EW von A. Wenn wir die komplexen
Zahlen kennen, werden es genau n EW - mit Vielfachheit gezählt - sein.
4. Es gilt:
Eine n × n-Matrix A ist genau dann invertierbar, wenn jeder EW von A ungleich Null gilt.
Wir zeigen die äquivalente Aussage: Eine n × n-Matrix A ist genau dann nicht invertierbar,
wenn λ = 0 ein EW von A ist. Denn:
A nicht invertierbar ⇐⇒ det(A) = 0
⇐⇒ det(A − 0 · En ) = 0
⇐⇒ det(A − λ · En ) = 0, mit λ = 0 ⇐⇒ λ = 0 ist ein EW
Alternativ folgt dies auch, wenn wir zur Kenntnis nehmen, dass die Determinante das Produkt
der EW ist. Denn wenn einer = 0 ist, muss auch das Produkt und damit die Determinante
gleich Null sein.
5. Für eine Dreiecksmatrix sind die EW genau die Einträge auf der Diagonalen.

27
5 Zusammenfassung/Bemerkungen/Ergänzungen EW / EV

Eigenvektoren

1. Die EV von A zum EW λ sind genau die Lösungen x mit x 6= 0 des LGS (A − λ · En ) · x = 0.
Wir kennen aber noch kein Rezept, diese per Hand zu berechnen.

2. Sei λ ein k-facher EW. Dann gibt es höchstens k linear unabhängige EV zum EW λ.
Einfacher EW, k = 1 Haben wir einen EV v gefunden, so ist jeder andere EV ein skalares
Vielfaches t · v, t 6= 0.
 
2 3
Beispiel 5.1. Sei A = . Oben hatten wir zum EW λ = 3 ausgerechnet, dass
−1 6  
3
die EV von A genau die Vektoren von der Form t · , t 6= 0 sind.
1
       
3 3 3 t
 3
Je zwei EV t · , s· mit s, t 6= 0 sind linear abhängig, da t · − s ·s· =0
1 1     1 1
3t 3s 3 3
Oder mit der Determinante: det = t · s · det = 0.
t s 1 1
 
0 1 1
Doppelter EW, k = 2 Die Matrix A = 1 0 1 hat als doppelten EW λ1,2 = −1. Die
  1 1  0    
x1 −t − s −1 −1
EV haben genau die Form: x2  =  t  = t ·  1  + s ·  0  = t · v1 + s · v2 .
x3 s 0 1
Die Vektoren v1 und v2 sind linear unabhängig (Nachrechnen können   wir das noch nicht!).

−1 −1
Jeder EV zum EW −1 ist eine Linearkombination von v1 =  1  und v2 =  0 .
0 1
3. Die EV zu unterschiedlichen EW sind linear unabhängig.
 
2 3
Sei A = . Oben hatten wir zum EW λ = 3 ausgerechnet, dass die EV von A genau
−1 6  
3
die Vektoren von der Form t · , t 6= 0 sind.
1
 
1
In den Übungen haben Sie die EV zum EW 5 berechnet: Sie sind von der Form t · , t 6= 0.
1
   
3 1
Seien t · , t 6= 0 und s · , s 6= 0 je ein EV. Um die lineare Unabhängigkeit zu
1 1
 
s 3t
überprüfen, berechnen wir die Determinante = st − 3ts = −2ts 6= 0, da s, t 6= 0.
s t

28
6 Iterationen Revisited mit EW / EV

6 Iterationen Revisited mit EW / EV


[ACNH, 2.2.4/5]

 1 2

Anwendung/Zusammenfassung: Räuber/Beute-Modell für A = 5 5 Dann be-
− 53 13
10
1 2

−λ 3 1 1
stimmen wir die EW mit det(A − λ · En ) = det 5 3 13
5 = λ2 − λ + = (λ − 1)(λ − ),
−5 10 − λ 2 2 2
1
sodass die EW tatsächlich die Nullstellen 1 und sind.
2
 
1 1
Mit Rechnungen wie oben ist ein EV zum EW 1 von der Form t · , t 6= 0. Für den EW
2 2
 
4
sind die EV von der Form t · , t 6= 0. Da λ1 6= λ2 sind jeweils ein EV zu λ1 und zu λ2 linear
3   
1 4
unabhängig. Das folgt auch mit Hilfe der Determinante: det t2 · = −5 · t2 6= 0, für t 6= 0.
2 3
   
4 1
Sei nun w ein Startvektor. Können wir w als Linearkombination der EV und schreiben?
    3 2
1 4
Oder, anders gesagt, gibt es Zahlen α1 , α1 mit w = α1 + α2 α1 , oder noch anders: Hat das
   2 3  
1 4 α1 1 4
LGS = w eine eindeutige Lösung? Ja, da die Determinante det 6= 0 ist.
2 3 α2 2 3
Übung: Verifizieren Sie so die Koeffizienten in dem Beispiel 2.1.

Zusammenfassung im Fall einer 2 × 2-Matrix Sei A eine 2 × 2-Matrix mit v1 einem EV zum
EW λ1 und v2 einem EV zum EW λ2 6= λ1 . Sei w0 ein Startvektor. Da λ1 6= λ2 , sind v1 und v2
linear unabhängig. Damit gibt es Zahlen α1 und α2 mit w0 = α1 v1 + α2 v2 . Nach n ZE ist wegen
der Linearität: wn = A · wn−1 = α1 · λn1 · v1 + α2 · λn2 · v2 .

1. Für |λ1 | < 1, |λ2 | < 1 sind λn1 , λn2 → 0 und damit wn → 0. Die Populationen sterben aus.

2. Für λ1 = 1 und |λ2 | < 1 sind λn1 = 1 und λn2 → 0 und damit wn → α1 v1 : Es stellt sich ein
Gleichgewicht der Populationen ein.

3. Für λ1 > 1 und |λ2 | < 1 sind λn1 → ∞ und λn2 → 0 =⇒ wn → ∞.


Populationen “explodieren” in Richtung v1 .

4. Allgemeiner gilt noch: Sei |λ1 | > |λ2 | . Für jeden Startvektor w0 = α1 v1 + α2 v2 mit α1 6= 0
nähern sich die Vektoren w1 , w2 , . . . , wn , . . . immer mehr der Richtung von v1 an. Um dies
 betrachten wir anstatt der Folge wn die Folge der normierten Vektoren:
noch zu präzisieren,

wn v1
Die Folge konvergiert gegen den normierten EV zum EW λ1 .
|wn | |v1 |

29
6.1 Beispiele 3 × 3-Altersstrukturen 6 Iterationen Revisited mit EW / EV

6.1 Beispiele 3 × 3-Altersstrukturen

Schauen wir noch Beispiele für 3 × 3-Matrizen an. Der Computer zeigt bei einigen Zahlenbeispiele
folgende Phänomene:

 Matrix  Startvektor
  Entwicklung
0 0 6 12
1.  1 0 0 12 Zyklus mit 3 ZE
2
1
 0 3 0 12
0 0 6 24 
24

2.  1 0 0 12 Gleichgewichtszustand 12



2
1 4
 0 3 0 4
0 1 3 10  
24
3.  1 0 0 10 Konvergenz zum Gleichgewicht 12
2
1 4
 0 3 0 10
0 2 3 1     
4.  1 0 0 1 Die Folgen
xn+1
,
yn+1 z
, n+1 konvergieren jeweils ge-
2 xn yn zn
0 14 0 1 gen eine feste
 Zahl
 λ und
vn
die Folge der normierten vn konvergiert
|vn |

Die Diskussion der ersten beiden Entwicklungen 1. und 2. untersuchen Sie in den Übungen im
Frühling. Hier und im 3. Beispiel erhalten wir komplexe Eigenwerte. Mit diesen können wir am
Ende dieses Kapitels die Entwicklung dann weiter beschreiben und verstehen. Uns interessieren die
EW, dies sind die Nullstellen des Polynoms pA (λ) = −λ3 + 12 λ + 12 = (λ − 1)(−λ2 − λ − 12 ). Ein
EW ist λ1 = 1 und die weiteren die Nullstellen von −λ2 − λ − 21 . Diese berechnen sich durch
r r
2 1 2 1 1 1 1 1 1
−λ − λ − = 0 =⇒ λ + λ + = 0 =⇒ λ2,3 = − ± − =− ± − .
2 2 2 4 2 2 4
q
Wir haben also mit − 14 die Wurzel aus einer negativen Zahl zu ziehen, und brauchen dafür
komplexe Zahlen.

 
0 2 3
Beispiel mit dominantem Eigenwert Diskutieren wir das 4. Beispiel mit A =  21 0 0
      0 14 0
x0 1 xn+1
und v0 =  y0  = 1. Diese definieren eine Iteration: wn+1 =  yn+1  = A · wn = An+1 · w0 .
z0 1 zn+1
     
xn+1 yn+1 zn+1
Wann und wieso konvergieren die Folgen , , jeweils gegen eine feste
xn yn zn
xn+1 yn+1 zn+1
Zahl λ? Für grosse n gilt ≈ λ, ≈ λ, ≈ λ oder
xn yn zn
xn+1 ≈ λ · xn , yn+1 ≈ λ · yn , zn+1 ≈ λ · zn

30
6.1 Beispiele 3 × 3-Altersstrukturen 6 Iterationen Revisited mit EW / EV

     
xn+1 λxn xn
und als Vektoren A · wn = wn+1 =  yn+1  ≈  λyn  = λ ·  yn  = λwn . Das heisst, dass
zn+1 λzn zn
für grosse n der Vektor wn immer mehr ein EV von A zum EW λ wird, und dass die Vektoren
w0 , w1 , w2 , . . . im Laufe immer mehr in Richtung eines EV zeigen.
Um das Experiment und die Überlegung zu bestätigen, geben wir Folgendes an: (Nachrechnen!)
3
Das Charakteristische Polynom pA (λ) = −λ3 + λ + 8 liefert die Eigenwerte

1 1 √ 1 √
λ1 = − , λ2 =
(1 − 13), λ3 = (1 + 13).
2 4 4
   √   √ 
2 7 − √13 7 + √13
Als Eigenvektoren wählen wir v1 = −2 , v2 = 1 − 13 , v3 = 1 + 13 .
1 1 1
Übung: Es gilt A · vi = λi · vi für i = 1, 2, 3.

Anwendung auf die Entwicklung

1. Die drei EW sind paarweise voneinander verschieden =⇒ 3 EV v1 , v2 , v3 ∈ R3 sind linear


unabhängig =⇒ für jeden Startvektor w0 gibt es α1 , α2 , α3 mit w0 = α1 v1 + α2 v2 + α3 v3 .

2. Es gilt wieder mit der Linearität: wn = α1 λn1 · v1 + α2 λn2 · v2 + α3 λn3 · v3 .


3. Es gilt: |λ1 |, |λ2 | < 1 und |λ3 | > 1. Damit λn1 , λn2 → 0 und λn3 → ∞
 √ 
9 − √13
4. Falls α3 = 0 =⇒ wn → 0. Ein Beispiel ist w = v1 + v2 = −1 − 13 .
2
Falls α3 6= 0 =⇒ wn → α3 λn3 · v3 , das heisst, wn konvergiert in Richtung des EV v3 .
Um dies noch zu präzisieren, betrachten wir  anstatt
 der Folge wn die Folge der normierten
w0 w1 w2 wn
Vektoren: |w , ,
0 | |w1 | |w2 |
, . . .. Diese Folge |wn | konvergiert gegen den normierten EV |vv33 |
zum EW λ3 .
5. Gleiche Überlegungen gelten für jede Wahl der EV v1 , v2 , v3 ∈ R3 .

Zusammenfassung Nehmen wir an, dass es n linear unabhängige EV einer n × n-Matrix A gibt:
v1 , v2 , . . . , vn , mit EW λ1 , λ2 , . . . , λn . Die λi sind dabei nicht unbedingt voneinander verschieden. Sei
w0 ein Startvektor. Da die EV vi , i = 1, . . . , n linear unabhängig sind, gibt es Zahlen α1 , α2 , . . . , αn
mit w0 = α1 v1 + α2 v2 + . . . + αn vn .
Nach k Zeiteinheiten gilt wieder wegen der Linearität: wk = α1 · λk1 v1 + α2 λk2 v2 + . . . + αn λkn vn .
Damit haben wir folgende Vorhersagen über die Entwicklungen:

1. Falls für jeden EW |λi | < 1, folgt λki → 0 und damit wk → 0. Die Populationen sterben aus.

31
7 LGS und Gauss-Verfahren

2. Sei zum Beispiel λ1 = 1, und für alle anderen EW λi gelte |λi | < 1. Dann gilt λk1 = 1 und
weiter λki → 0 und damit wk → α1 v1 . Es gibt ein Gleichgewicht der Populationen.
3. Sei zum Beispiel λ1 ein reeller EW mit λ1 > 1, und für alle anderen EW λi gelte |λi | < 1. Dann
folgt λk1 → ∞ und für die anderen EW λki → 0 und damit wk → “∞ · v100 . Die Populationen
explodieren in Richtung v1 .
4. Allgemeiner gilt wieder (wir 2×2-Fall): Sei zum Beispiel λ1 mit |λ1 | > |λi | für i = 2, 3, 4, . . . , n.
Für jeden Startvektor w0 = α1 v1 + α2 v2 + . . . + αn vn mit α1 6= 0 nähern sich die Vektoren
 
wk
w1 , w2 , . . . , wk , . . . immer mehr der Richtung von v1 an. Das heisst wieder: Die Folge |wk|

konvergiert gegen den normierten EV |vv11 | . Der EW λ1 dominiert. Diese Konvergenz kann
unter Umständen sehr langsam sein.

7 LGS und Gauss-Verfahren


[TPW LA, 1; CB, 5]

7.1 Gauss-Verfahren: Zusammenfassung und Beispiele

Zeilenstufen-Form Ein m×n-lineares Gleichungssystem mit m Gleichungen


 und n Unbekannten
x1
x2
ist in der Matrixschreibweise A · x = c mit A = (aij ) ∈ Mm×n , x =  ..  ∈ Rn und dem
.
xn
 c1 
c2
Ergebnisvektor c =  ..  ∈ Rm .
.
cm

Wir finden allfällige Lösungen mit einer Iteration von 2 (+1) Operationen:
1. Addition eines Vielfachen einer Zeile (Gleichung) zu einer anderen Zeile (Gleichung)
2. Vertauschen zweier Zeilen (Gleichungen)
3. Nicht notwendig – aber praktisch: Multiplikation einer Zeile (Gleichung) mit einer Zahl λ 6= 0.
 a11 a12 ... a1r a1r+1 ... a1n | c1 
0 a∗ ∗ ∗ ∗ ∗
22 ... a2r a2,r+1 ... a2n | c2
Damit bringen wir (A|c) auf Zeilenstufen-Form (A|c) (A∗ |c∗ ). 
.. .. .. .. .. .. .. .. 


 
a11 a12 ... a1n | c1  . . . . . . . | . 
.. ∗
 
a22 ... a2n | c2
 a21 ∗ ∗
 
(A|c) =  . Gauss-Verfahren (A |c ) =  0 ... a∗ ∗
. a ∗ 

.. .. 0 rr ar,r+1 rn | cr 
.. . .
 
 0 0 ... 0 0 ∗
0 0 | cr+1 
am1 am2 ... amn | cm  0 0 ... 0 0 0 0 | c∗

 r+2 
 .. .. .. .. .. .. .. 
. . . . . . . ∗
0 0 ... 0 0 0 0 | cm

Erlauben wir Vertauschen der Spalten, können wir annehmen, dass a∗22 , ..., a∗rr alle 6= 0.
CAVE
Umnummerierung der Variablen!

32
7.1 Gauss-Verfahren: Zusammenfassung und Beispiele 7 LGS und Gauss-Verfahren

Definition. Der Rang Rg(B) einer Matrix B ist die Anzahl der Zeilenvektoren 6= (0 0 . . . 0) in der
Zeilenstufenform B ∗ .

Zeilenstufenform und Lösbarkeit


 a11 a12 ... a1r a1r+1 ... a1n | c1 
0 a∗ ∗ ∗ ∗ ∗
22 ... a2r a2,r+1 ... a2n | c2
.. .. .. .. .. .. .. .. 
 

 . . . . . . . | . 
.. ∗
 
∗ ∗
 
(A |c ) =  0 0 ... a∗ ∗
rr ar,r+1 . a
rn | c ∗ 
r 
0 0 | c∗

 0 0 ... 0 0 r+1 
0 0 ... 0 0 0 0 | c∗
 
 r+2 
 .. .. .. .. .. .. .. 
. . . . . . . ∗
0 0 ... 0 0 0 0 | cm

Es existieren Lösungen genau dann, wenn c∗r+1 = ... = c∗m = 0. Also genau dann, wenn der Rang
von A gleich dem Rang von (A|c) ist: Rg(A) = Rg(A|c) = r.

Eindeutigkeit vs. Lösungsschar


a12 ... a1r a1r+1 ... a1n | c1
a 
11
0 a∗ ∗ ∗ ∗ ∗
22 ... a2r a2,r+1 ... a2n | c2
 
 .. .. .. .. .. .. .. .. 

 . . . . . . . | .  
∗ ∗
 .. ∗ 
(A |c ) = 
 0 0 ... a∗ ∗
rr ar,r+1 . a ∗ 
rn | cr 
 0 0 ... 0 0 0 0 | 0 
0 0 ... 0 0 0 0 | 0 
 

 .. .. .. .. .. .. .. 
. . . . . . .
0 0 ... 0 0 0 0 | 0

1. Es gibt eine Schar von Lösungen mit n − r frei wählbaren Parametern ⇐⇒ r < n.
2. Es gibt eine eindeutige Lösung genau dann, wenn r = n. Also genau dann, wenn

Rg(A) = Rg(A|c) = r = n
11 a12 ... a1n | c1
a 
0 a∗ ∗ ∗
22 ... a2n | c2
.. .. .. .. .. 
 

 . . . .
| . 
∗ ∗ ∗ ∗ ∗
Die Zeilenstufenform (A |c ) hat eine Dreiecksform (A |c ) =  nn | cn  mit aii =
0 ... a∗ ∗ 
6 0
 0
 0 0 ... 0 | 0 
.. .. .. .. . 
 
. . . | ..

.
0 0 ... 0 | 0

33
7.1 Gauss-Verfahren: Zusammenfassung und Beispiele 7 LGS und Gauss-Verfahren

Beispiele Gauss-Verfahren
 
1 2 2 3 | 0
0 0 2 −1 | 2
1. (A∗ |c∗ ) =   Keine Lösung
0 0 0 1 | 1
0 0 0 0 | 1
 
1 2 2 3 | 0
0 0 2 −1 | 2
2. (A∗ |c∗ ) =   Lösung existiert
0 0 0 1 | 1
0 0 0 0 | 0

4. Zeile / Gleichung 0 · x4 = 0 → gilt immer.


3. Zeile / Gleichung x4 = 1
3
2. Zeile / Gleichung 2x3 − x4 = 2 mit x4 = 1 folgt x3 = 2
1. Zeile / Gleichung x1 + 2x2 + 2x3 + 3x4 = 0 mit x4 = 1 und x3 = 23 folgt x1 = −2x2 − 6.
    

 x1 −2t − 6 

x t
   
2

Wähle x2 = t als freie Variable. Dann ist die Lösungsmenge   =  3  : t ∈ R
  

 x3 2 

x4 1
 
 
1 1 1 −3 | −1
3. (A∗ |c∗ ) = Lösung existiert
0 0 0 2 | 1
1
2. Zeile / Gleichung 2x4 = 1 =⇒ x4 = 2
1
1. Zeile / Gleichung x1 + x2 + x3 − 3x4 = −1 mit x4 = 2 und Einsetzen folgt x1 =
−x2 − x3 + 21 .
Wähle x2 = t und x3 = s als freie Variable. Dann ist die Lösungsmenge
  
−t − s + 12
 

 x1 

x t
   
2

 =  : s, t ∈ R
 x3   s  
 1

x4
 
2

Rang und Lineare Unabhängigkeit Gegeben seien v1 , v2 , . . . , vn . Wann können wir einen Vek-
tor w als Linearkombination w = α1 v1 + α2 v2 + . . . + αn vn dieser Vektoren schreiben? Wann gibt
es solche Zahlen α1 , α2 , . . . , αn ? Führen wir wieder eine Matrixschreibweise ein:
 w1   α1 
w2 α2
A = (v1 v2 . . . vn ) ∈ Mm×n , als Ergebnisvektor w =  ..  ∈ Rm und α =  ..  ∈ Rn .
. .
wm αn

Die Spaltenvektoren der Matrix A sind die Vektoren v1 v2 . . . vn . Damit übersetzt sich die Gleichung
w = α1 v1 + α2 v2 + . . . + αn vn in das LGS A · α = w. Die Frage, ob es Zahlen α1 , α2 , . . . , αn gibt
mit w = α1 v1 + α2 v2 + . . . + αn vn übersetzt sich in die Lösbarkeit eines m × n-LGS.

34
7.2 Berechnung det(A) mit Gauss-Verfahren 7 LGS und Gauss-Verfahren

Im Spezialfall w = 0 erhalten wir die Gleichung α1 v1 + α2 v2 + . . . + αn vn = 0. Wenn die triviale


Lösung α1 = α2 = . . . = αn = 0 die einzige Lösung der Gleichung ist, heissen die Vektoren
v1 , v2 , . . . , vn ∈ Rm linear unabhängig.

Um zu entscheiden, ob v1 , v2 , . . . , vn ∈ Rm linear unabhängig sind, müssen wir entscheiden, ob


die triviale Lösung die einzige Lösung des homogenen m × n-LGS A · α = 0 ist. Dies ist genau
dann der Fall, wenn der Rang der Matrix A gleich n ist, Rg(A) = n.

Bemerkung: Falls n > m, sind v1 , v2 , . . . , vn ∈ Rm nie linear unabhängig. Denn der Rang von A
ist immer kleiner als n, Rg(A) 6 m < n. Das m × n-LGS A · α = 0 ist unterbestimmt.

7.2 Berechnung det(A) mit Gauss-Verfahren

Wende das Gauss-Verfahren auf A ∈ Mn×n an: A A∗ ∈ Mn×n . Falls Rg(A) = n, ist A∗ eine Drei-
 a11 a12 ... a1n 
0 a∗ ∗
22 ... a2n
ecksmatrix A∗ =  .. .. .. .. . Dann ist nach den Rechenregeln und für eine Dreiecksmatrix:
. . . .
0 0 ... a∗
nn
det(A) = ±α · a11 · a∗22 · ...a∗nn

• mit einem Vorzeichen ± je nach Anzahl der Zeilenvertauschungen (gerade/ungerade) und


einem Vorfaktor α, der durch die Multiplikationen einer Zeile/Spalte mit einer Zahl βi 6= 0
entsteht, meist sind βi = α = 1.
• Vor allem gilt Rg(A) = n ⇐⇒ det(A) 6= 0.

Beispiele
   
−1 1 1 −1 1 1
1. A =  1 −3 −2 A∗ =  0 −2 −1 Rg(A) = 3, und 0 6= det(A) = 12.
5 1 4 0 0 6
   
1 2 −2 1 2 −2
2. B = 2 3 0  B ∗ = 0 −1 4  Rg(B) = 2 < 3 =⇒ det(B) = 0.
2 1 8 0 0 0

7.3 Rang und Determinante für ein LGS

Oben hatten wir mit det(A) (fast) über die Lösbarkeit eines quadratischen LGS Ax = c entschieden:

homogen 1. Falls det(A) 6= 0 (A regulär) =⇒ Es gibt nur die triviale Lösung x = 0. Nochmals
sei betont, dass ein homogenes LGS immer die triviale Lösung. Im Fall einer regulären
Matrix A ist dies die einzige Lösung von Ax = 0.

35
7.3 Rang und Determinante für ein LGS 7 LGS und Gauss-Verfahren

2. Falls det(A) = 0 (A singulär) =⇒ Es gibt neben der trivialen Lösung unendlich viele
Lösungen von Ax = 0.
inhomogen 1. Falls det(A) 6= 0 (A regulär) =⇒ Es gibt eine eindeutige Lösung für jedes
c ∈ Rn . Mit der inversen Matrix x = A−1 · c.
2. Falls det(A) = 0 (A singulär) =⇒ ?
Das können wir nun mit dem Rang von A entscheiden.
Wir wissen, dass ein LGS nur dann mindestens eine Lösung besitzt, falls Rg(A) = Rg(A|c).
Sei det(A) = 0, dann gibt es sicher keine eindeutige Lösung, und es gilt:

Rg(A) = Rg(A|c) =⇒ Es gibt unendlich viele Lösungen.


Rg(A) 6= Rg(A|c) =⇒ Es gibt keine Lösung.

 
1 2 −2
Beispiel Lösbarkeit Ax = c mit det(A) = 0 Sei A = 2 3 0  . Es ist det(A) = 0, und wir
2 1 8
können nun mit dem Rang entscheiden, ob das LGS Ax = c keine Lösung oder unendlich viele hat.
Übung:
 
3
1. Für c = 5 ist Rg(A|c) = 2 = Rg(A) und damit gibt es unendlich viele Lösungen. Diese
3      
x1 1 −6
sind von der Form: x = x2  = 1 + t  4  , t ∈ R
x3 0 1
 
5
2. Für c = 3 ist Rg(A|c) = 3 > 2 = Rg(A), und es gibt es keine Lösungen.
5

36

Das könnte Ihnen auch gefallen